100%安全でなくても社会投入することの意義
一方でメーカーとしては社会投入後もそのままユーザーから走行データを入手することで、AIの学習に活用できるメリットもある。「やってみないとわからない」AIは、100%安全でなくとも社会投入して実際に運用してみないと、うまくいくかわからないのだ。実際、米国テスラ社の自動運転車が社会投入されて以降、人が運転していた場合に比べての事故発生率はかなり減少しているという報告もあり、確実にAIの社会投入の効果はあったようだ。
もし日本において自動運転車が社会投入された場合、どうなるだろうか。一度でも事故を起こしたら、その段階で運用が停止され、徹底的な原因解明がされるまで、運用の再開はないだろう。しかし、このやり方はAIにはそぐわない。運用しつつ問題を解決して完成度を上げていく方法のほうが適しているからである。
では米国でAIが問題を起こした場合、どのような対応をとっているのだろうか? これはAIに限らず、100%動作を保証することが難しい技術全般に対しての対応の仕方であるが、平たく言えば「問題を起こしてしまったことに対して訴追されるものの、メーカーや自動運転車に乗っていたユーザーが、今後の事故再発の防止に向けた調査や原因究明に真摯に取り組むことをもって訴追を延期したり、訴追しないという約束を取り付ける」(訴追延期合意制度)といった、事実上免責するような対応をとると聞いたことがある。これは理にかなっている。
もし日本で事故や不具合が起きたとしたら…
テクノロジーの発展には、残念であるが犠牲が伴う。しかしその犠牲という失敗を通して技術が発展し、これを繰り返すことで現在の人類の繁栄がある。技術発展の仕方はよく「巨人の肩に乗る」とも表現される。一人がなしえる発明や開発は微々たるものであるが、その積み重ねでテクノロジーは巨人のような高さに至る。一人ひとりの新たな成果は小さくても、巨人の肩からの積み上げでさらに巨人は成長する。尊い犠牲をテクノロジーの発展の重要な出来事としなければならない。
しかし、失敗に対するこのような社会的な捉え方は、全世界共通ではない。特に日本はその真逆である。仮に同じように自動運転車が事故を起こしてしまった場合、メーカーだけでなく乗車していたユーザーさえ責任を問われることになりかねない。なぜなら、そのユーザーは100%完璧でないことがわかっている技術を使った乗り物に、自らの意思で乗車した、つまりは事故を起こすかもしれないことがわかっていてそのような車に乗ったからである。
たしかに、事故や不具合が起きてしまった際、その原因を解明し責任の所在を明確化することは重要であるが、それを100%動作が保証されないテクノロジーでの不具合に適用すると、そのようなテクノロジーの研究開発にとってブレーキとなるだけである。安心して開発し社会投入することなどできない。