1ページ目から読む
4/4ページ目

人間は何を信頼したがるのか、という問いにつながっている

川添 文章の自動生成について言えば、GPT―3という言語モデルについて、気になっている話があります。GPT―3は膨大な量のテキストを学習させたモデルで、これにいくつかの単語を入れると、その続きに連なる文章を人間が書いたように出力してくれます。このGPT―3を利用したLearn From Anyoneというデモでは、特定の人物の文章を学習させて、その人が言いそうな文章を生成させています。

 例えば、イーロン・マスクの言葉を学習したボットがつくられていて、「どんなロケットをつくっているの」などと訊くと、マスクが言いそうなことを答えてくれます。開発した人は「イーロン・マスクからロケットについて学びたいと思ったことはありませんか? シェイクスピアからより良い文章を書く方法を? アリストテレスから哲学を学びたいと思ったことはありませんか? GPT―3はそれを可能にしたのです」と書いています。でも、私はすごく怖いなと思っていて。

山本 本当ですね。

ADVERTISEMENT

川添 「AIと文学の未来」での大澤先生へのインタビューで話題に上がっていた、ユヴァル・ノア・ハラリが警鐘を鳴らした「データ教」にもつながる怖さを感じました。人間にはそもそも「ご託宣」を求める性向があるから、AIとビッグデータによる統計的な思考をこれからより信じて依存してしまうおそれがあるとおっしゃっていましたよね。

 この話は結局、人間は何を信頼したがるのか、という問いにつながっていくのだと思います。

山本 面白いですね。例えば「デカルトならこう言うね」というAIをつくって、質問すると、「それはですね……」と本当はデカルトが書き残していないもっともらしいことを言い出しはじめるかもしれない。

大澤 そうやってAIがつくった文章を、「デカルトの新発見の原稿です」と発表したら、研究者たちが「これはデカルトのものだ」とお墨付きを与えちゃう可能性だってあるわけですよね。

山本 贋作問題が生じる。遊びとしてやっているうちは罪はないし、ゲームみたいなものだからいいけれど、このところのロシアとウクライナの状況を見ていても明らかなように、嘘も繰り返しているうちに信じる人が出てくるので油断がなりません。

 そうしたことはAIだけでなく、人間同士でも頻繁に起きていますよね。例えば、中国で故事成語辞典が古くからたくさん作られていますが、途中から編集者たちが原典を見るのをさぼって、既存の故事成語辞典をそのまま引き写したりする。そうすると、本来とは異なる意味が書かれた項目も確認しないまま受け継がれ、やがてそれをもとにした日本の故事成語辞典ができたりもする(笑)。

 伝言ゲームのように元の人が言っていない事まで伝わってしまうのは、人間のコミュニケーションの面白いところでもあり、危ういところでもあります。それをAIがよくも悪くも増幅、助長してしまうことはこれから起きるでしょうね。

私たちはAIを信頼できるか

大澤 真幸 ,川添 愛 ,三宅 陽一郎 ,山本 貴光 ,吉川 浩満

文藝春秋

2022年9月13日 発売