「AIは核や生物兵器以上に、非常にパワフルで厄介なものになる可能性があります。もし今のまま無秩序に開発が進み、誰かがしくじればそこで人類は終わることもあり得る。しかしお互いの国境を尊重し、多くのいいアイディアをシェアできるグローバルな協定をAIに関して作ることができれば、誰もが劇的に幸せになれるのです」

 マサチューセッツ工科大学教授で理論物理学者のマックス・テグマーク氏はこう今後のAI開発について警鐘を鳴らす。テグマーク氏は2014年にAIの安全性を研究するべく、イーロン・マスク氏のサポートを得て「生命の未来研究所」を設立、17年に出版した『LIFE3.0』(紀伊国屋書店)はAIと人間の共存をテーマに未来の様々な可能性を探り、全米でベストセラーとなった。

 スティーブン・ホーキングは生前「この時代の最も重要な議論に参加したければ、テグマークの示唆に富む本を読めばいい」と同書を絶賛した。

ADVERTISEMENT

マックス・テグマーク氏 ©大野和基

早急に「ドローン兵器の製造禁止」に踏み出すべき

 そのテグマーク氏が「文藝春秋」の独占インタビューに応じ、人類とAIの未来について、様々な論点を語りつくした。インタビューでテグマーク氏が「いますぐにでも行動を起こさなければならない」喫緊の課題として特に強調したのが「AIと軍事」の問題だ。

近著『LIFE3.0』

「2019年は『ドローンの脅威』が顕在化した年でした。9月、サウジアラビア東部のアブカイクとフライスにあるサウジアラムコの石油生産プラントを標的としたドローン攻撃が行われ、大規模な施設火災が発生。サウジアラビアの石油生産量が約半分に減少する事件が起きました。またイエメンでは1月に空軍基地で軍事パレードの開催中にドローンを使った攻撃があり、兵士6人が死亡する事件が起き、米国では6月に元ガールフレンドの家にドローンを使って爆弾を落とした男が逮捕されました。

 ドローン兵器のような自動兵器に対しては、その製造を国際的に禁止する協定を早急に結ぶ必要があります。そうしなければ、我々は近い将来、永久に後悔するでしょう」

 テグマーク氏がここまで危機感を募らせるのは、すでに自動兵器を作り出すだけのテクノロジーを人類が手にしているためだ。