有権者にとってはどうか
例えば生成AIが可能とするチャットボットの対話機能は、正しく使えば投票先を考える上では役に立ちそうだ。AIチャットボットは有権者1人1人に、候補者それぞれの立場から、最適のテーマ、わかりやすい解説を提供し、その都度、相手に響く事例を挙げながら複雑な政策内容を説明することができるからだ。
一方で生成AIの驚異的な進化スピードに不安を感じている人も少なくない。
OpenAIが2018年に発表した最初の大規模言語モデルGPT-1では、性能を示すパラメータ数は1億1700万だった。それからわずか4年後の2022年11月に公開されたGPT-3・5はその3000倍以上の3550億パラメータとなった。
5年後には人間の脳内のシナプス数に匹敵
これは、チャットによる文のやり取りだけでは相手が人間かAIかわからない領域に入ったことを意味する。5年後にはパラメータ数が人間の脳内のシナプス数に匹敵する100兆になると見られており、この進化のスピードに法規制や社会インフラの整備が追いついていけないことが憂慮されているのだ。
欧州議会などで生成AIを含む包括的な「AI規則案」が採択されるなどガバナンスの導入に向けた議論は始まっているものの手遅れかもしれない。
現段階ですでにディープフェイク(画像・映像・音声)やフェイクニュース(誤情報、特に偽情報)の爆発的増加と生成AIを駆使した思考誘導・世論操作「シンセティック・プロパガンダ」がメディアや選挙といった民主主義的プロセスの根幹を毀損することが懸念されているからだ。
「偽造人間」のネットワークを構築することも可能
例えばいくつかの大規模言語モデルの研究によると生成AIの対話機能が人間のユーザーに「説得力」を持つ証拠や、感情や口調を評価する能力を持っていることが示されている。
極端にいえば、実在する人間になりすました「偽造人間」のネットワークを構築し、特殊な訓練をほどこして人を誘導、あるいは個々人のシグナルを読み取り特定の知識の獲得を組織的に妨害することも不可能ではない。