「一度1兆円の赤字を吐き出したとしても……」
――コスト面の問題というと、開発に必要なコストという意味でしょうか?
深津 いえ、それよりも、サーバーのコスト、GPUのコストですね。AIチャットを支えるLLMは「質問1回あたりいくら」というぐらいお金がかかります。もし世界中の人が1回数円のチャットをばんばん使ったら……このお金はどこから出るんでしょう?
事業主の目線に立ってみたとき、1回数円かかるチャットで、1回あたり広告で0.1円しか儲からないとしたら、差分は誰がどう出すんでしょう?
サーバーやAIの進化で利用コストが安くなるまでは、覇権争いに参加する会社すべてが札束で殴り合う赤字ファイトに巻き込まれるんじゃないでしょうか。(編集部注:3月2日、ChatGPTはAPIを公開。従来の1/10程度の価格でサービスの提供をはじめた)
推測に過ぎませんが、それでもMicrosoftは、これでGoogleを倒してトップに返り咲けるならなりふり構わないように思います。「一度1兆円の赤字を吐き出したとしても、そんなの10年かけて返せばいいでしょ」みたいなレベルと言いますか。
一方、GoogleはGoogleで、指をくわえたままやられるわけにもいかないから、札束赤字バトルに加わらざるを得ないという状況だと見ています。Googleがどこまでやるかはわかりませんけどね。
そんななか、ChatGPTをリリースしたOpenAIはMicrosoftから出資してもらうし、ユーザーにも月額20ドルでPro版を提供するしで、しれっと「うちはそのバトルはやりませんよ」って態度をとっている。今はそんな構図と言えるんじゃないですかね。
――各社がGoogleの覇権を崩そうとするなか、近い将来、AIチャットが検索にとってかわる日が来るんでしょうか。
深津 先ほど挙げたウソの問題とコストの問題の解決策までセットにならないと、完璧にひっくり返ることはないと考えています。
ただ、ウソの問題はどんどんなくなっていくでしょう。というのも、ChatGPTは2021年頃までの情報しか学習していない状態で返答を返すサービスなので、言ってしまえば、現状はネットにつながっていない「機内モード」みたいな状態なんです。でも、これがネットにつながって、ChatGPTがわからない言葉はその場ですぐに検索できるようになれば、質問を先にネットで検索して、答えを見つけてからまとめて返答するということができるようになる。そのぶんウソを回答することは減っていくでしょう。
もちろん、それでもユーザーはまだ信用しきれないと思います。なので、今後は「ブリタニカ」とか「六法全書」みたいなファクトチェック済みのクローズドなデータと接続するようになる可能性も考えられます。ただし、そんなことをしたら「調べるGPT」「ファクトチェックするGPT」「答えるGPT」と並列でAIを動かさなくちゃいけなくなるので、さらにコスト面の問題は膨れ上がると思いますが……。