レビュー

AI研究の倫理や人間社会との関係めぐる議論活発に 専門家内外の幅広い検討重要

2016.06.13

内城喜貴

人工知能(AI)は、未来社会の中で人々の生活や産業の隅々に深く入り込んでいくことは確実だろう。人類の幸せや福祉に大きく貢献することが期待される一方、人間に危害を与える危険性も指摘されている。AIと人間社会との関わりはどのようになるのか。研究開発に携わる研究者、技術者はどのような倫理観を持つべきか。将来の社会像として描かれる「超スマート社会」到来を前にAIが人間社会に与える影響や課題、さらに倫理問題の検討や議論は極めて重要になってくる。このような問題意識から最近、政府の懇談会も始まり、人工知能学会の倫理委員会では倫理綱領(指針)案が提案されるなど、議論や検討の動きが活発化している。AI研究の第一人者が指摘しているように、今後専門領域外の研究者、関係者らも含めた幅広い分野を横断する議論、検討がますます重要になってきそうだ。

 政府は第5期科学技術基本計画で提唱、定義している「超スマート社会」の暮らしぶりを描いた「平成28年版科学技術白書」を5月20日閣議決定した。白書は「むすび」で「超スマート社会を生きるのは今の子どもたちである」とした上で「AIの革新は人間の感性や思いやりが求められる活動の価値をこれまで以上に高めていく」と指摘した。白書はまた、「人間の認知や考え方を理解した上でさまざまな技術の社会適応を進めていくことが求められる」としている。

 こうした指摘を受け、政府は「人工知能と人間社会に関する懇談会」を立ち上げて5月30日に第1回会合を開いた。ここでは懇談会の目的を「倫理的、法的、経済的、社会的影響など幅広い観点から人工知能が進展する未来社会を見据え、人間社会との関わりについて取り組むべき課題や方向性を検討する」ことを確認した。社会的論点を「豊かな人間社会に貢献する人工知能」、経済的論点を「産業構造や就業形態などへの影響」とし、さらに倫理的論点については「意識や心を持つ人工知能、さらに人間の意思決定や信念の形成に関すること」と定めている。

 この懇談会は総合科学技術・イノベーション会議の議員やAIの研究開発に詳しい研究者のほか、経済、法律、教育など広い分野の有識者で構成されている。月1回程度のペースで議論を深め、年内に論点整理をして今年度内の取りまとめを目指すという。第1回会合ではこうした問題に対する国内外の取り組みについての資料も出された。それによると、米国はスタンフォード大学などで、英国はオックスフォード大学などで既に倫理問題について議論を深めている。米グーグル傘下の英国のベンチャー企業ディープマインド社が開発したAI囲碁ソフト「アルファ碁」が3月、世界トップクラスの棋士に大きく勝ち越してAIの急速な進歩を世界に強く印象付けた。そのディープマインド社はグーグル傘下になる際にAIの暴走や悪用を防止するための倫理委員会設置を求め、グーグルは速やかに委員会を立ち上げている。このような欧米での取り組みに比べて日本での取り組みは遅れ気味だった。

 そうした中でも早くから問題意識を持っていたのがAI研究者の“総本山”「人工知能学会」だ。学会は2014年5月に倫理委員会を設置して国内ではいち早く議論を開始している。
学会誌「人工知能」に1年前に掲載された特集記事「人工知能学会・倫理委員会の取組み」に委員会設立の基本的考え方や目的が詳しく書かれている。委員長は東京大学大学院工学系研究科の松尾豊(まつお ゆたか)特任准教授(現在、産業技術総合研究所人工知能研究センター企画チーム長兼任)で、松尾委員長はじめ7人全員の連名で書かれている。

 その中で松尾委員長らは「倫理委員会という名称の組織をつくることは、人工知能に関する意識を高めなければならないことの学会としての表明」とした上で「人工知能の技術がさまざまな形で社会のインフラに組み込まれていくことは確実で、思いがけず(社会に)大きなインパクトを与えてしまうことがあるかもしれない。専門家として予見できるものを予見しておくことは、社会に対する誠実な態度であろう」と研究者の役割の重要性を認識している。さらに「人工知能の技術は『人間の尊厳』を守るように使われなければならない」と記し、「『人工知能の倫理問題』とは『人工知能を使う、開発する人間の倫理』である」と明言している。このように早い段階から問題意識が学会内で共有されていた。こうした問題意識が、5月6日から9日まで北九州市で開かれた人工知能学会全国大会で提案された倫理綱領(指針)案につながったと言える。

写真 4月25日に日本科学未来館(東京都江東区青梅)で開かれた「第1回次世代の人工知能技術に関する合同シンポジウム」のパネルディスカッション。左側から2番目のパネリストが松尾豊氏
写真 4月25日に日本科学未来館(東京都江東区青梅)で開かれた「第1回次世代の人工知能技術に関する合同シンポジウム」のパネルディスカッション。左側から2番目のパネリストが松尾豊氏

 倫理綱領(指針)案は、AIの研究開発に当たって尊重すべき10項目で構成される.。序文で「研究開発者が想定し得ない領域で人類に影響を与える可能性があり、研究開発がその意図の有無に関わらず人間社会や公共の利益に有害なものとなる可能性がある」と明記した。その上で「研究開発者は人類の平和、安全、公共の利益に貢献し、基本的な人権を守り、文化の多様性を尊重する。専門家として人類の安全への脅威を排除しなければならない」「技術的な限界や問題点を科学的に真摯(しんし)に説明する義務を負う」「人類が平等に人工知能という資源を利用できるよう最善を尽くす」と研究開発の方向性をはっきりと示した。

 さらに「潜在的な危険性について社会に警鐘を鳴らさなくてはならない」「法規制を守り、知的財産や他社との契約、合意を尊重しなければならない」「他者の情報や財産の侵害、損失といった危害を加えてはならない」「悪用を発見した場合は悪用者に説明を求め、悪用防止措置を講じなければならない」など、明快な言葉で研究者が守るべき事項を示している。

 これらの綱領案の主語はすべて「人工知能研究開発者」となっている。AIの研究開発者は「高度な専門的職業に従事する者として自らの良心と良識に従って倫理的に行動すべき」(序文の一部)として自らの“立ち位置”を強く認識していることが伝わる。政府など公的機関の答申や指針に先立って学会として社会に対して“宣言”したものとして社会からも評価されるだろう。綱領案について同学会は今後も議論を深め年内にも正式な綱領とする予定だ。

 AI研究開発の在り方については、松尾准教授ら、研究の最前線の研究者が揃って今後AIを作り、使う「人間」の問題について考える重要性を指摘している。4月下旬にAIの主な研究者が一同に会するシンポジウムが東京都内で開かれ、科学技術振興機構(JST)、新エネルギー・産業技術総合開発機構、産業技術総合研究所などの研究機関のほか、総務、文部科学、経済産業各省の担当者らも参加した。シンポジウムで講演した東京大学大学院情報理工学系研究科の國吉康夫(くによし やすお)教授は「人間のためのAIにするためには人間性について積極的に考えるべきで、AIを取り込んで人間はどう進化するかを考えていくべき」「非人間的な機械(AI)は危険だし人間社会に受け入れられない」と指摘し「倫理とか価値が重要になる」と強調している。

倫理問題を含めた人間社会との関係に関するAI研究者自身による最近の主体的な動きや発言は、研究者に対する社会の信頼を高めることにつながるだろう。こうした流れをより確かなものにするためにも、人文・社会科学分野を含めたAI領域外の研究者や将来「超スマート社会」に生きる若い人たちも参加する専門家内外の議論が重要になってくる。それが未来社会で確実に大きな存在となる「AI研究をめぐる『対話と協働』の実践」と言えるのではないだろうか。

関連記事

ページトップへ