急成長するチャットGPT。様々な質問に対する回答や、メールなどの文面、コンピューターのプログラム作成を数秒でこなす。しかし、しばしば「もっともらしいでデタラメ」を作成し、拡散させてしまう。――我々の日常生活を根底から変えうるテクノロジーの「凄さ」と「怖さ」を知るための必読書が『チャットGPTvs.人類』だ。同書より一部を編集の上、公開する。
◆◆◆
チャットGPTの精緻な回答内容が話題に
米サンフランシスコのAIベンチャーであるオープンAIが開発した、対話型の生成人工知能(AI)「チャットGPT」が、急成長している。
昨年11月30日のサービス公開から5日で、ユーザー数は100万人を突破。金融大手UBSの推計によると、今年1月の月間ユーザー数は1億人に達し、史上最速の成長を見せた消費者向けアプリケーションとなった 。
チャットGPTは、主にテキストを扱う生成AIだ。様々な質問に対する物知り博士のような回答や、メールなどの文面作成、さらにはコンピューターのプログラム作成までを、短いものなら数秒でこなす。人間味すら感じさせる自然な応答ぶりと、一見したところ精緻な回答内容が話題を呼んだ。
〈私たちの使命は、汎用人工知能(AGI、人間よりも全般的に賢いAIシステム)が全人類に利益をもたらすようにすることです〉
チャットGPTを開発するオープンAIは、ホームページの企業概要でそう説明している。
間違った回答が情報空間全体を汚染する可能性も
だが、生成AIはしばしば「もっともらしいデタラメ」を吐き出す。その現象は、「幻覚」と呼ばれる。
〈GPT─4は「幻覚」の傾向がある。すなわち「特定の対象について、無意味な、あるいは事実でないコンテンツを制作する」ということだ。この傾向は、言語モデルが説得力や信頼性を持ち、ユーザーが過度の依存状態になるにつれ、特に有害なものとなる可能性がある。(中略)これらの言語モデルが社会に溶け込み、様々なシステムの自動化に役立つようになると、この幻覚の傾向は、情報全体の質の低下を招き、さらに情報の信憑性や信頼性を低下させる要因となる可能性がある〉
オープンAIは今年3月14日に公開したGPT─4の説明文書「テクニカルレポート」の中で「幻覚」について、こう説明している。