文春オンライン

「モンスターを見つけると勝手に攻撃し始めたり…」3Dゲームで仲間のAIキャラクターを信頼できない“本当の理由”

『私たちはAIを信頼できるか』より #1

source : 文藝出版局

genre : ニュース, サイエンス, テクノロジー, 社会

三宅 そうですね。現実社会であれば、横断歩道の白線から1センチでも出たら、「危ない!」と止めるようなイメージです。その方が安全であることは間違いないのですが、人間はうっとうしさを感じるでしょうね。

山本 三宅さんのお話から人間がAIを信頼するには、状況や文脈を共有できなければならない、という課題が見えてきました。他方で、人間がAIと言葉のやりとりをする際も状況や文脈の共有が重要でした。

 そこで、次に言語学者の川添さんにお聞きします。「AIと文学の未来」の連続インタビューでは、川添さんに文章の自動生成や自動翻訳はどのようなメカニズムで成り立っているのか、AIは私たちと同じように言語を使えるようになるのか、といったテーマについてお話をうかがいました。言語という観点から考えたとき、AIに対する信頼をどのように考えられていますか。例えば、いま性能が格段に上がっていると言われる機械翻訳をわれわれは信頼して使うことができるのかなど、いかがでしょうか。

ADVERTISEMENT

写真はイメージです ©iStock.com

AIは文脈を読み取るのが苦手

川添愛さん(以下、川添) AIによる言語技術には、翻訳や対話、音声認識など様々なものがあるので、どのような目的でどの技術を使うかによって、答えは変わってきます。AIによる機械翻訳について言えば、100パーセント正しい答えを出すことはできません。精度は上がってきていますが、まだ完全に信頼はできず、英語が得意な人の手間を省くことはできているかな、というレベルです。

山本 翻訳ソフトの間違いに気づける程度の英語力を身に付けていないと鵜呑みにするのは危ういわけですね。

川添 そうですね。また、対話をするAIの場合、目的のある対話についてはそこそこできますが、雑談については難しい状況です。

 私たちがAIに訊きたいことが明確な場合は、その返答に対して、私たちが良い悪いを判断し定義できるので、そのような用途に使われるAIの精度はどんどん上がっていくでしょう。一方、雑談は、それこそ文脈が刻一刻と変わっていく上に、複数の文脈が張り巡らされていて、「雑談が上手く行っている」状態を定義しづらいので、AIにとっては、難易度が非常に高いんです。

 さらに言えば、物理的に見えづらく、読み取りづらい文脈をAIが汲み取るのは、今後もけっこう難しいでしょうね。雑談レベルでなくても、四苦八苦している感じがします。ゲームをやっていると、宝箱を開けに行ってるのに、近くにモンスターの姿を見つけると、仲間のAIが勝手に攻撃し始めちゃったりしますよね。

山本 そうそう。ちょっと待って! いまじゃない! と言いたくなる(笑)。