レポート

《JST主催》フェイク情報はSNSやAIで増幅 JST主催の公開ワークショップ「意思決定のための情報科学〜情報氾濫・フェイク・分断に立ち向かうことは可能か〜」開催

2019.08.20

池辺豊 / 総務部広報課

 「意思決定のための情報科学〜情報氾濫・フェイク・分断に立ち向かうことは可能か〜」と題した公開ワークショップが7月25日、科学技術振興機構(JST)の研究開発戦略センター(CRDS)が主催してJST東京別館(東京都千代田区)で開かれた。この中から、社会を揺るがすフェイク(偽の)情報とその抑止対策についての講演の要旨を紹介する。

「意思決定のための情報科学〜情報氾濫・フェイク・分断に立ち向かうことは可能か〜」と題した公開ワークショップで発言する山岸順一さん(左)と笹原和俊さん(右)
「意思決定のための情報科学〜情報氾濫・フェイク・分断に立ち向かうことは可能か〜」と題した公開ワークショップで発言する山岸順一さん(左)と笹原和俊さん(右)

 名古屋大学大学院情報学研究科の笹原和俊講師はフェイクニュース問題を取り上げた。米国留学時の2016年、ネット上で氾濫する偽のニュースに遭遇。米大統領選に関するものが圧倒的に多く、「偽ニュースは速く遠くたくさん伝わる」と述べた。SNSがその流れを増幅し、フォロワーが共有する偽ニュースの80%は0.1%のユーザーが拡散したという。

 偽ニュースの増幅には、人間が仕込んだボット(ネット上で単純な繰り返しのタスクをこなすソフトウェア)がかかわっている。ボットは影響力の大きな「ハブ」を見つけ、偽ニュースを素早く拡散するのが得意だ。笹原講師は「ボットの凍結は有効な対抗策になりうる。拡散は止めないといけない」と強調した。

 さらに、偽ニュースの温床になりやすいのが「エコーチェンバー(共鳴室)現象」だ。似たもの同士がつながる閉じた環境で意見や主張が行き交ううちに強化され、「自分たちが正しく多数派だ」と勘違いすることを指す。SNSがエコーチェンバー化しやすいことを計算科学によるシミュレーションで確かめたという。

 エコーチェンバー化を防ぐには、「集団に異質なつながりを意図的に入れること」と笹原講師。実験では、フォローしている同質なユーザーの約1割を異質なユーザーに交換すると、受け取る情報の多様性が高まることが分かったという。笠原講師は、ネットなどが伝える情報を理解するメディアリテラシーを身につけ、情報が事実かどうかを確かめるファクトチェックも重要だと指摘している。

 国立情報学研究所コンテンツ科学研究系の山岸順一教授はフェイクメディア問題を取り上げた。フェイクメディアとは機械やコンピューターが生成した映像や音声、レビューなどを指す。フェイクニュースとは異なり、中身の真贋は本来問わない。深層学習(ディープラーニング)などを通じて、人工物が人間になりすますことが真実味を帯びてきた。

 人工音声では2017年末にチューリングテスト(AIの知性を判断する試験)をパスし、もはや人間の声と区別できなくなった。顔の合成ソフトを使うと、本物っぽい表情を簡単に作れる。ネットのショッピングサイトなどではすでに、機械がこしらえた大量のレビューが掲載されているという。

 「なりすまし」を見破る対策としては、抽出した複数の特徴を判定することで一定の成果が上がっている。しかし、情報圧縮が強いと見分けにくいうえ、未知の攻撃は検出がより難しかった。山岸教授は「フェイクメディアを作る研究はきわめて多いが、防御を強化する研究はほとんどなく、今後の課題だ」と述べた。

 フェイク情報に詳しい小林正啓弁護士(花水木法律事務所)は「『火星人襲来』など過去にもあったフェイクニュースなどを罰する規定はなく、『思想の自由市場』(言論で真理に到達するという考え)による淘汰にゆだねられていた」と指摘。しかし、人間による自由市場はすでに危機に瀕しており、「AIの力を借りないと市場復活は望めない」と語っている。

 当日は大学や企業から約150人が参加。ワークショップを企画したCRDSの福島俊一フェローは「このような問題は技術だけ解決できるものではないとしても、技術的な取り組みを強化していかねばならない」と結んだ。

関連記事

ページトップへ