安全にChatGPTを使う

インフラ技術者の雑記
OpenAI社が提供しているChatGPTは、チャット形式でAIが質問への回答や文章の生成などを行ってくれるサービスです。
利用者が増大し活用が広がる一方で、AIが生成する情報をうのみにする等の課題も出てきました。
本記事ではリスクを理解しつつ、安全にChatGPTを使うためにはどうすればよいのか整理しました。
1.ChatGPTとは
ChatGPTは、人間のように自然な対話形式でAIが答えるチャットサービスで、幅広い分野の質問に詳細な回答を生成できることから注目されています。
しかし、人間が自然と感じる回答の生成を特徴としていることから、一見自然に見えるものの事実とは異なる回答を生成する等の欠点もあります。
■GPTとは何の略?
Generative(=文章生成)、Pre‐trained(=大量のテキストデータによって事前学習済み)、Transformer(=自然言語処理の分野で使われる深層学習モデル)の頭文字をとったもの。
2.ChatGPTの危険性
使用方法によってChatGPTは以下のような危険性が懸念されています。
①情報漏洩
これまでにも一部のユーザーが他人の対話を見られるようになっていたという事例が報告されています。
②情報の不確実性
ChatGPTに提供されたデータ(学習した内容)に間違った情報が含まれ、うそを回答する可能性があります。
③思考的な偏り
ChatGPTが偏った情報を学習することで偏った回答をする可能性があります。それにより社会に大きな影響を及ぼす危険が想定されます。
④利用ユーザーに依存
検索内容、検索方法、検索の順番など、利用ユーザーに依存した回答を行うため、情報に一貫性がありません。
3.危険性への対処方法
現段階で考えられる危険性への対処を紹介します。
ChatGPT Plusを利用する(ChatGPTの有料版)
ChatGPT Plusでは最新版のGPT-4が使用可能なため、回答の正確性と安全性の向上が期待できます。
倫理に反する質問や違法な内容には回答しないなどの危険性に対処できる確率がGPT-3.5と比較しても80%以上となっています。
これは前項の「①情報漏洩」、「③志向的な偏り」に対する対処になります。
<参考文書>
OpenAI.“GPT-4 Technical Report”.arXiv.org.2023-03-15.
https://arxiv.org/abs/2303.08774,(2023/9/29).
プロンプトエンジニアリングを学ぶ
前項の「②情報の不確実性」に対しては、AIが最適な回答をするための指示文(プロンプト)の作り方を学ぶことが対策になるでしょう。
ルールを徹底する
前項の「①情報漏洩」のリスクを減らすためには、会社の機密情報や個人情報などを打ち込まないなどユーザー側での意識づけが必要となります。
また、入力されたデータが学習に利用されることを防ぐために、ChatGPTの設定でオプトアウトを有効にしておきます。
これらは「③志向的な偏り」、「④利用ユーザーに依存」に対する対策にもなるでしょう。
制限する
利用できるユーザーを限定する方法です。
また、「④利用ユーザーに依存」への対策として、対話の中で回答できない質問を学習させることもできます。
4.所感
筆者がChatGPTを使い始めたころはGoogle検索と同様に、自分が知りたいことについて質問して回答を得る機会が多くありました。
しかし、正しい日本語で回答されるために気がつきにくいですが、誤った情報が含まれていることが多々ありました。
このためGoogle検索の延長の技術と捉えるのは、誤った情報をうのみにするリスクが高いと思いました。
またAIに任せる場所と人間が考える場所、この境界線がどんどん明確化されてきていると実感しています。
例えば、単純に何らかの処理をソースコードとして出力させるだけならChatGPTでもできます。
設計書や手順書などのドキュメントを読み込ませてレビューすることも、レビュー観点さえ明確に示せれば可能だと感じます。
極端に捉えれば、人間はやりたいことを指示し、出てきた結果を評価するだけで、「やりたいこと」から「結果」への過程はAIによって担われていくのかもしれません。
そのため現時点でChatGPTを使うのであれば、自分が正しく評価できる分野に限定してGoogle検索のように使ったり、ソースコードや文章を生成してもらったりする使い方が良いと感じます。