AI社会の評価と人文科学の役割~科学技術基本法改正を巡って~

 これまでにAI(人工知能)の進化と情報ネットワークの形成によって、個人情報をもとにしたプロファイリングが進み利益が生み出される一方で、その個人が知らないうちに差別や社会的排除へつながる可能性(リスク)があることを指摘してきた。そして、個人情報の収集と利用に対しては、個人が自己の情報をコントロールする積極的なプライバシー権の行使が重要であることを述べた(http://www.message-at-pen.com/?p=2167)。

 AIは進化が著しい最新科学技術であり、われわれの暮らしへの影響が大きい。また、ゲノム医療やゲノム編集、再生医療など生命科学の発展においても倫理問題が重視されている。研究や応用をどこまでを承認し、どこから規制を設けるかは、自然科学の観点だけでは議論できない。

 多くの人々は、もし病気になったなら、できるだけ早く、苦痛なく、低い負担とリスクで治癒することを望むだろう。例えば、読者であるあなたが病気になり、DNAから体質を調べて、「この薬がより効きやすい」などの治療方針を知ることができたなら、あなたはその医療を受け入れるだろうか?しかし、その診断の際にDNAに記録されている遺伝情報から、あなたがあなたの子どもにも遺伝しうる特異な疾患を発症する可能性を持っていると知ってしまったとしたらどうするか?その情報を、パートナー、血縁者、職場や保険会社に知られたなら、どんな問題が起こるだろうか? このように私たち一人ひとりの遺伝情報を調べ、その結果から、より効率的・効果的に病気の診断や治療などを行う「ゲノム医療」が、最先端の研究成果によって身近になりつつある。

 政府は科学技術振興に関する国や自治体の義務を規定した科学技術基本法について、哲学や法学などの人文・社会科学を対象に加えて研究支援に反映する方針だ。上記のように、AIや生命科学の発展によって、法や倫理の視点で基盤技術や応用方針を評価・議論する必要が生じてきたためである。例えば、自動車のAIによる自動走行に関連する議論の場には、人文・社会科学研究者の参画が欠かせない。既にヒトの運転をサポートする機能が実用化されているが、運転席にヒトが座らない完全自動化運転が実用化されるまでに事故や他人への損害に対する責任の所在を議論しておく必要がある。

 今回の法改正をきっかけとして、科学技術政策の議論や国が支援する大型研究プロジェクトに、法学者や社会学者、倫理学者が参画する仕組みを導入すべきだ。これまでは政府が策定したガイドラインを、科学研究者グループに対してトップダウンで遵守させる形式であった。国内すべてに同じガイドラインが適用されるという利点があるが、一方で研究現場の事情を反映できにくいことが指摘されていた。また、人文・社会科学研究者は科学者グループの外から研究や応用技術を評価・批判するにとどまっていた。しかし、法学者や社会学者、倫理学者がプロジェクトのメンバーに加わることによって、政府による指針に加えて科学研究者グループが人文・社会科学研究者と議論しつつ、主体的にガイドラインや行動規範を策定し、研究を進めるための仕組みを構築することが可能となる。また、研究課題や成果が社会へ及す正負の影響を倫理的・法的・社会的観点で評価することで、事前に問題点が把握され、取り組むべき課題の優先順位付けも可能となる。さらに、市民や患者の意見が研究に反映されやすくなることも期待できるだろう。

 一方、今回の法改正は我が国の学術の在り方に重要な影響を与えるとして、日本学術会議は声明文の中でいくつかの配慮すべき点を挙げている。ノーベル賞受賞が相次ぐ一方で、日本の基礎研究力が危機にあるという認識がある。そのため、長期的視野に立った基礎研究に取り組む環境が損なわれてはならない。また、基礎研究は「科学技術水準の向上」につながり、「イノベーションの創出」に貢献する。しかし、科学研究の目的が「イノベーションの創出」に偏れば、基礎研究はその手段的位置づけのみに置かれてしまう危険性がある。本来、それぞれが固有の目的や価値を有する重要な政策課題であることを再認識し、バランスのとれた振興策が講じられなければならない。さらに、研究者の自主性や個々の大学の研究の特性、学問の自由が脅かされることが無いよう、改正法の運用による大学の教育や研究開発法人の運営への働きかけには慎重さが要求される。

橋爪良信(理化学研究所マネージャー)

Authors

*

Top