進化し続けるAI-今、知っておくべきことと考えておくべきこと

人工知能(Artificial Intelligence、AI)とは、計算の概念とコンピュータを用いて知能を研究する計算機科学の一分野である。言語の理解や推論、問題解決など、人間が行ってきた知的行為を機械に代行させるための手順や手続きとされている。
今では世界各国の公的機関や企業が積極的にAIを開発しており、人工知能という概念は軍事利用を含めて多種多様な産業に応用されてきた。特に、2010年代の後半からは第三次人工知能ブームを迎え、機械学習とディープラーニング(深層学習)を用いた画像認識やテキスト解析、音声認識などのAIは日常生活に浸透し身近なものとなった。

AIは、特化型AIと汎用型AIの二種類に分類される。特化型AIは、自動運転、画像認識、テキスト解析、音声認識、将棋などのように特定の決まった作業を行うもので、現在実用化されている(されつつある)ほとんどが特化型AIに含まれる。
一方、汎用型AIは、特定の作業に限定される特化型AIとは違い、人間と同等かそれ以上の能力を有するもので、与えられた情報をもとに自ら考え、自律的に行動するロボットがイメージされる。このような万能な汎用型AIが完成したときが、シンギュラリティ(技術的特異点)の到来とされ人間がAIにとって代わられる新しい世界が訪れると言われている。ただ、いまのところ汎用型AIの実現は困難であると考えられており、ここでは社会実装がさらに進んでいく特化型AIについて考えてみる。

特化型AIが処理能力を向上させるためには、機械学習と呼ばれる技術的手法が用いられる。まず人間がデータを与え、プログラムに学習させることが最初の作業となるが、大量の、しかもできれば正解付きのデータが必要なことが指摘される。金融やクレジットカード情報などビッグデータのある分野はAIの得意領域とされるが、データが乏しい領域では機能的ではない。また、AIは基本的に与えられたデータセットの内部での推論は得意だが、データの範囲外では、導かれた推論が正しいかどうかを恒常的に検証する必要が出てくる。もう一つは、ブラックボックス化である。機械学習によって構築された予測系は、極めて多数の変数からなり、グラフ化はおろか、イメージ化もできない理解不可能なモデルが構築されている可能性がある。すなわち、なぜそのような予測が導きだされたのか人間が理解できないケースが生じる。またその場合に、人間がAIの判断をそのまま信用(活用)してよいのかといった問題が出てくる。
導き出された予測結果は、因果関係が証明されない限り相関関係として扱われるが、結果は役に立たないかというと実はそうではなく、相関関係があるという確度が高いならば、そこに因果関係が存在しなくても、ある程度以上相関のありそうな要素について効果の有無を検証し、より相関の強い候補を残していくという考え方が浸透しているようだ。

AIが深く社会に浸透すれば、AIの判断が人間の判断にとって代わる可能性は高まるが、それでも人間の意思決定が不要になることは無い。前述の通り、AIが導き出した結果の正しさを検証すること、いくつかの候補を実際に検証してみることが必要であり、結果を「参考」として扱いつつ人間が意思決定する場面は多い。そもそも、AIを活用して問題解決に取り組むかどうかを判断するのは人間である。

AIが得意とするのは、記憶や計算、情報処理といった分野であり、処理できる情報量が格段に違うため、人間はAIに太刀打ちできない。また、AIは情報化できるものはすべてデータとして管理することができるため、音声、画像、映像の認識や分析などの仕事はすでにAIなくして成り立たなくなっている。また、AIは記憶や情報処理能力に優れているため、マニュアル化された処理が得意である。海外では、病院食や処方せんを患者ごとに自動的に輸送するロボットがすでに実用化されており、食品工場では品質基準に満たない製品を選別するロボットが導入されている。また、身近なところでは、食材を伝えると献立を提案する電子レンジや冷蔵庫など、AIを搭載した便利な家電製品が続々と登場している。
一方、AIが不得意とするのは、マニュアル化されていない作業や前例のない仕事、クリエイティブな分野である。AIは過去のデータ分析には優れた能力を有しているが、まだシステム化されていない物事に対して新しい仮説を立てることは不得意とされる。さらに、人間の喜怒哀楽の感情を察したり、感じ取ったりすることはある程度までは実現されているが、客の要望に臨機応変に対応するサービス業や医療、介護など、人間の感情や価値観にかかわる分野は得意とはいえない。

さて、ここでAIの判断の限界について、倫理学の思考実験で有名な「トロッコ問題」を例に検討してみたい。論題は以下の通りである。
線路を走っているトロッコが制御不能になった。このままでは前方で作業中の5人がトロッコに轢かれてしまう…。このときあなたは、線路の分岐器の近くにいる。あなたが分岐器のレバーを引き、トロッコの進路を切り替えれば5人は助かる。ところが、別路線にも1人作業員がいるため、代わりにその人が轢かれてしまう…。この場合、あなたはどのような選択をすればよいか?
こういう道徳的判断のジレンマが起こる深刻な問題をAIは自律的に判断できないため、人間による判断基準のインプットが必要になる。最も道徳的に妥当な選択をAIが選択するときの基準をどう決めるか?誰の判断基準を学習させるか?しかし、特定の人間の判断を採用するわけにはいかない。また、道徳に絶対的基準はなく、それぞれの社会に応じた相対的なもので、判断基準もそれぞれの国や文化によって違う。このように、AIがどんなに発達しても、人間が判断しなければならないこと、社会的合意によってのみ決定されることは存在する。人間(社会)に大きな影響のある判断はAIだけに委ねるべきではない。

スカイネット(Skynet)は、映画『ターミネーター』シリーズに登場する架空のAIコンピュータ、およびその総体である。自我を持ったコンピュータ(汎用型AI)とされ、自己存続のために最高の優先順位で活動するように設定されており、自らを破壊しようとする存在=人類の殲滅を目的としている。AIが社会に浸透しつつある現在、『ターミネーター』の新作が上映され、旧作も地上波で再放送された。ここで一旦立ち止まり、あらためて我々に人間参加型のAI社会の実現について議論を求めているように思う。
次稿では、AIの進化とネットワークの形成によって、個人のプライバシーに関わる問題が浮上し始めていることを挙げ、そのリスクに対峙するための自己情報コントロールの重要性について共有したい。
橋爪良信(理化学研究所マネージャー)

Authors

*

Top