対話型AI  ~政府利用への提言~ 

 対話型AI(人工知能)とは、人間と自然な会話を実現できるコンピューターテクノロジーのことである。言語の意味や文脈の把握、意図の推論ができ、人間のように質問の意味を理解して答えたり、求められている情報を提供したり、意思の疎通が可能な応答をする。

 オープンAI社が開発した対話型AI「ChatGPT(チャットGPT)」の高い言語処理能力が話題になっており、巧く使いこなせば業務効率の改善が期待できるが、一方で使い方によっては機密情報の外部漏洩のリスクも指摘されている。

 政府は、国会答弁案の作成や閣僚記者会見の想定問答づくりといった業務に対話型AIを活用することで、官僚の業務負担軽減につなげたいようだ。すでに省庁ごとに具体的な検討を始めており、農林水産省はチャットGPTを、ウェブサイトに掲載されているマニュアル文書の書き換えに用いている。総務省は試験的な業務利用を開始する。西村経済産業相も「プロセスを効率的にするにあたり、将来AIは有力な補助ツールになりうる」と提起し、チャットGPTによる答弁書の作成では過去の議事録を参照することで、役立てられるとの考えを示した。

 このような政府の動きがある中で、対話型AIに対して指摘されているリスク・デメリットとその対応案を以下に整理してみる。

【誤った回答や不十分・不正確な回答】

 (問題点)対話型AIが学習に用いるデータが不正確、偏っている、古い、十分ではないなどの可能性がある。また、まだ完全に自律的に会話(問い)の内容を正しく判断できないため、正確性や倫理的・道徳的・政治的・文化的配慮などに欠けた回答をする場合がある。

 (対応)過去の議事録や関連法規を学習させること、日本の倫理観や道徳、文化的な情報を学習させるための適切な情報源の選定と学習へ用いることを進めることはどうか。政府での活用へ向けてデジタル庁が主導、対話型AIシステムの提供者と連携し、政府や省庁の利用に適したシステムへ最適化するという考え方である。適切なデジタル資料による学習を通じて、日本語での対話の精度の向上も期待できる。

【機密情報の問題/セキュリティー上の課題】

 (問題点)対話型AIは、利用者との対話(入力内容)を通じてデータも収集することがあり、収集されたデータが不正に利用される可能性がある。

 (対応)インターネットから切り離し、省内や政府内の利用に限定したシステムにしてはどうか。そうすることで、省内や政府内の利用に限定されるため、機密情報も扱うことができる。対話型AIは入力内容を学習に使うため、機密性や専門性の高い業務への利用を通じたAIの学習効果・高度化も期待できる。ただし、情報収集や必要な学習のためには外部からのデータ取得が必要な場合がある。その際には、情報ソースの適切性や著作権等も考慮しつつ、システム管理者が対応する。

【利用者のリテラシーの問題】

 (問題点)利用者(官僚など)に対話型AIに関するリテラシーが低いと、適切な質問ができない、回答の信頼性の判断ができない、回答に不信感を持つなどの問題が起こる。

 (対応)対話型AIの学習過程や活用には、専門性が高く業務経験が長い人材が当たること。回答を適切に理解・解釈・分析する過程では、試用期間を設けシステムの成熟度の度合いを検証しながら、利用者や利用目的の範囲を拡大してはどうか。また、対話型AIから提供される回答を政府の意思決定に用いる際には、適切なメンバーでの回答の精査と議論も必要になるだろう。さらに、対話型AIの回答を活用して作成された行政文書とそうでないものは区別されることが望ましい。

 以上のように、対話型AIを政府内において安全かつ適切に利用するためには、十分な学習と業務利用への最適化が必要であることが示された。また、本格的な運用にあたっては、省庁間でルールを統一するなど工夫も必要になるだろう。

 様々な分野においてAIが深く社会に浸透しつつあるが、それでも人間の意思決定が不要になることは無い。AIが導き出した結果の正しさを検証すること、いくつかの候補を検討し最適解を選択することが必要であり、結果を「参考」として扱いつつ人間が意思決定することが重要だ。

 政府はAIに関わる政策を検討する「AI戦略会議」を5月に設置することを決めた。危うさを如何に克服して活用につなげるか、システムの構築やルール作りなど、専門家や政府関係者らの議論に注目したい。

 福地 俊(アカデミア創薬研究者)

Authors

*

Top