EUのAI法については、どの部分を参考にしたのか。
下田局長をリーダーとするデジタル局は、新技術やニュースについて常に内容を精査している。例えばChatGPTが抱えるハルシネーション(幻覚、もっともらしい嘘の回答)という問題についても、克服するための技術の実証実験を行うなどしている。EUが先進的に議論を展開してきた規制法については、とりわけ注視して情報収集してきた。それがいよいよ法制化され、冒頭の平井知事と下田局長の議論になったのだ。ちょうど新ガイドラインの策定作業が佳境を迎えた頃だった。
EUのAI法は、リスクを(1)容認できない(2)高い(3)限定的(4)最小限--と分類し、それぞれに規制や義務を定めた。
平井知事や下田局長は「4分類の考え方を県の業務に当てはめられないか」と考えた。これには理由がある。
生成AIをはじめとしたAI技術については、「使うか使わないか」という「ゼロか100か」の極端な受けとめをされることがある。しかし、鳥取県としては個別のAI技術のリスクを検討し、それぞれに合わせた対応策を練ろうと模索していた。「yesかnoかではなく、モノにはレベルがあるというところに着目していました」と下田局長は語る。
「生成AIを使用禁止にした平井知事」とレッテル貼りされたが実は…
EUのリスク分類による対処法は、そうした考え方にピッタリだった。
そこで、新しいガイドラインは10項目の倫理原則に則った内容にしたのに加え、4段階のリスクレベルを導入することにした。
レベル4=禁止業務、レベル3=要注意業務、レベル2=要配慮業務、レベル1=積極活用業務、である。AIを使う県庁業務は、それぞれどのレベルに当てはまるかを整理し、どんな対策が必要かを明記したのである。
そうした経緯を平井知事は定例記者会見でこう説明している。
「我々がちょうど作業をしているときにヒントがありました。EUがAI法を制定し、4段階に分けてAIのリスクに応じた対策を決めました。そうした四つのカテゴリーのリスクに応じて、県庁の業務を紐づけしたのです」
具体的にはどのような対応をしていくのか。
まず、レベル4の「禁止業務」。
新ガイドラインでは、「民主主義や地方自治の本旨に反する活用を制限」とした。
意思決定(住民自治の原則、人間主導の原則)、民意集約(住民自治の原則、パートナーシップの原則)、人権侵害につながる恐れがあるもの(人権保障の原則)については、AIを使わないと決めたのだ(カッコの中は「先端技術と民主主義のあり方を考える研究会」がまとめた10原則のどれに当てはまるか)。
平井知事は会見で「鳥取県の問題提起は間違ってなかったと思います。民主主義や地方自治の本旨に反するようなことにならないよう、最終的な判断はやはり我々人間がやっていく。決して機械任せにはしません。議会答弁についても、AIで出てきたものをそのまま使うことは御法度(ごはっと)と考えています。それから人権侵害の恐れがあるものも禁止です」と説明した。
レベル1は、一転して「積極活用業務」だ。
これまで、平井知事は誤解されてきた。新ガイドラインのレベル4に当てはまるような極めてリスクが高いものについては「使用禁止」と発言してきたのだが、その部分だけが切り取られて拡散され、「生成AIを使用禁止にした知事」というレッテルを張られた。