自然科学と人文・社会科学の知の融合(=総合知)による社会課題解決や新たな社会設計への期待を受けた、人文・社会科学系有識者への連続インタビュー企画。
3回目は、哲学者として人工知能(AI)などの最先端技術と人間・社会との関係を研究する立教大学大学院人工知能科学研究科教授の村上祐子さん。未来を「かなり悲観している」と前置きした上で、先人の悩みや失敗から知見を積み重ねてきた哲学の視点で、テクノロジーとの共存に向けたヒントを示してもらった。
知らないうちに社会的マイナスに加担
―哲学者ながらAIの研究に携わっています。狙いは。
AIや情報技術が、人間性や社会に及ぼす影響について哲学の視点から考察・予測し、より良い未来に向けた提案を行っています。特にAIが実現し得る事象を特定した上で、それが人間や社会にとって良いものなのか悪いものなのかの判定基準を考察し、理論的に裏付けていくのが狙いです。
―具体的にどのようなアプローチなのですか。
情報技術において「データを取る」ことは、物事の特定の側面を切り出して「抽象」することだといえます。同時にこの過程では、必然的に「捨象」が伴います。つまり、取捨選択されるデータ項目には、一部の人々の政治的・社会的立場が反映されることがあるわけです。
同様に基盤となるシステムの設計にも、構築する人間の立場や恣意性が反映されるケースも想定されます。そうなると、システムを使うこと自体が価値観の固定につながる可能性も考えられます。そうした社会的含意へ意識を向けることは利用する側にも求められることなので、哲学的視点から裏付けと明示化を試み、AIなどの倫理的利用を促していきたいと思っています。
―シンギュラリティ(※)の到来などAIを脅威とする見方もあります。
※シンギュラリティ…AIが人類の知能を超える技術的特異点のこと
シンギュラリティへの備えは難しいでしょう。単純な知的作業では、人間はAIにいずれ勝てなくなります。既に将棋や囲碁、チェスなどではプロでさえ歯が立たなくなりつつあります。ただ、AIは基本的に個別のシステムへの最適化を行うツールなので、シンギュラリティも脅威論に過ぎません。
人間はルールや価値軸の変更へ柔軟に対応できるし、複数の価値観を比較・評価することもできます。AIでもいずれ対応できるようになる可能性はありますが、人間がハンドルを手放してはいけないポイントでしょう。
―AIの倫理的利用に向けて私たち一人ひとりに求められることは。
AIには、アルゴリズムバイアス(差別の強化)を引き起こす側面があります。「規則には従っている」「AIが判定したので、それでいい」といった姿勢では、自分の行為や選択がどのような作用を引き起こし得るのかがわからなくなります。AIの判断を無批判に受け入れ、知らず知らずのうちに社会的にマイナスな方向へと加担してしまうことを、哲学者のハンナ・アーレントにならって、私はデジタル版「凡庸な悪」と呼んで警戒すべきことだと思っています。自ら考える力を持った人材の育成も、大学での私のミッションの1つですね。
※GIGAスクール構想…全国の小中学校において児童・生徒1人1台のICT端末及び高速通信環境の整備を推進する文部科学省の取り組み。
人間の主体性は身体から離れつつある
―哲学の視点で昨今の情報化社会をどのように捉えていますか。
テクノロジーの進化が制御し難いところまで来ていて、「人間の描像」に問題を感じ始めています。身体拡張ツールの社会実装が現実味を帯びたことで、私たちの人間としての主体性は物理的に身体から離れつつあります。にもかかわらず、法制度などの社会システムは、相も変わらず私たちの身体にアイデンティティを張り付けたままの状態にあります。難しい作業ではありますが、改変を急ぐべき部分でしょう。
―身体性のあり方をアップデートするのに参考となる事例はありますか。
皆さんは今日、この場所までどうやって来ましたか? 自宅から歩いてきたわけではありませんよね? 電車に乗ることだって、私たちの身体能力の拡張と考えられるのです。そして電車と私たちをめぐる関係は、法制度などの社会システムが既に確立しています。つまり私たちは、社会的に既にサイボーグ化された存在であると考えた方が実態に即していると私は考えています。普段はあまり意識しないと思いますが、実はメガネやスマートフォンだって私たちの身体の一部となって、能力を拡張してくれていますよね。
―認識を変える上でのボトルネックはどのあたりにありますか。
「人間が他を制御する」といった西洋近代型の思想からくる「人間」と「自然や機械」との二分論ですね。現代を表現する「人新世(※)」といったキーワードもありますが、これも人間を中心としたものの見方で、人類が特別な存在であることにとらわれていると批判する哲学者も少なくありません。私もこの意見に賛同するところがかなりあって、二分論は限界を迎えていると考えて良いでしょう。身体拡張ツールの広がりも踏まえて、人間とその他の存在の境目をどう整理していけば良いのか、途方に暮れながらも課題だと思って取り組んでいます。
※人新世…ノーベル化学賞を受賞したドイツ人化学者パウル・クルッツェンによって提唱された地質時代における現代を含む区分。人類の存在が地球環境に大きな影響を与えていることから、「人類の時代」の意を示している。
無意識で便益を受けられ、備えのある社会システムを
―AIや身体拡張ツールなどと人間が上手に付き合うことは可能だとお考えですか。
AIなどのテクノロジー自体は、社会に浸透すべきだと考えています。ただ、社会には経済事情や住んでいる地域、障害などの事情で情報技術を使いこなせない人もたくさんいます。そういった人たちが不利益を被らない使い方や、社会システムを築く必要がありますね。
―具体的なポイントは。
新しい技術は、ユーザー側のサービス視点で価値が語られがちですが、私は間違っていると感じています。大事なのは、何も意識しなくても便益を受けられることと、アクシデントへの備えがあることの2点。
いずれも自動車をめぐる現行の社会システムはうまくできているのですが、例えば前者は、自動車の運転ができない人でも公共交通やほかの人の運転で目的地に行けるし、輸送の力で食物や物品を手にすることができています。このように、無意識にメリットを享受できている状態が、1つ目の重要な要素です。
後者についても、自動車の場合は事故への備えとしてロードサービスや保険などの社会的な補償が整っています。デジタル社会では、災害やサイバー攻撃でシステムが止まると致命的な事態が起きてしまう。テクノロジーで「つくりたい未来」を考えると同時に、「起こり得る事態への備え」を考えることも欠かせません。
この2点は、研究開発に携わる人たちにも共有し、意識してもらうべき視点だと思っています。
いきなりスーパーマンにはなれない
―自然科学との関わりにおける人文・社会科学の役割をどのようにお考えですか。
テクノロジーを社会実装するときに、指針を示すことだと考えています。実装される側の文化や歴史を無視するわけにはいかないからです。
自然科学はどうしても、文脈から独立した科学的な理論を構築する必要があります。しかし社会実装の現場では、研究者の理論が最善ではなくなる可能性もあるのです。そういったときに、ヒントを提供できるのが人文・社会科学の知ではないかと思います。
―とりわけ哲学にはどのような期待がありますか。
失敗例をたくさん持っていることですね。近年、こころの安らぎを求めて哲学への期待を寄せる方が増えていると感じるのですが、哲学そのもので悩みは解決できません。むしろ増えるぐらい。
しかし、同じように悩み、失敗してきた先人たちの事例をたくさん持っているのは哲学者の強みです。そうした先人たちの失敗をできる限り相対化し、一般化するのが哲学の営みでもあるので、社会全体として同じ失敗を繰り返さないようなヒントを提供していきたいと思っています。
どれだけAIや身体拡張技術が進歩しても、人間はいきなりスーパーマンにはなれません。30年後だって疲れるものは疲れるだろうし、好き・嫌いの嗜好や心情も大きくは変わらないと思います。それさえをも変えるような技術が出たとしたら、それはもはや「ドラッグ」に相当するもの。倫理的な問題が発生するでしょう。そうしたときにも、古代ギリシア時代から人類を見つめ、悩み続けてきた哲学の知見を役立てることが可能だと思います。
関連リンク
- 立教大学大学院人工知能科学研究科「研究紹介:村上祐子 教授」
- 立教大学大学院人工知能科学研究科
- 科学技術振興機構社会技術研究開発センター(RISTEX)「HITE 人と情報のエコシステム」(村上さんがアドバイザーを務める)
- JST報告書「15人の人文・社会科学系有識者が語る現状と未来-2050年の日本へ、そのプロセスを問う。」(村上さんインタビューも掲載)