1ページ目から読む
2/6ページ目

 EUのAI法については、どの部分を参考にしたのか。

 下田局長をリーダーとするデジタル局は、新技術やニュースについて常に内容を精査している。例えばChatGPTが抱えるハルシネーション(幻覚、もっともらしい嘘の回答)という問題についても、克服するための技術の実証実験を行うなどしている。EUが先進的に議論を展開してきた規制法については、とりわけ注視して情報収集してきた。それがいよいよ法制化され、冒頭の平井知事と下田局長の議論になったのだ。ちょうど新ガイドラインの策定作業が佳境を迎えた頃だった。

 EUのAI法は、リスクを(1)容認できない(2)高い(3)限定的(4)最小限--と分類し、それぞれに規制や義務を定めた。

ADVERTISEMENT

新ガイドラインの4段階のリスクレベル。それぞれの段階ごとにどう対応するか記されている

 平井知事や下田局長は「4分類の考え方を県の業務に当てはめられないか」と考えた。これには理由がある。

 生成AIをはじめとしたAI技術については、「使うか使わないか」という「ゼロか100か」の極端な受けとめをされることがある。しかし、鳥取県としては個別のAI技術のリスクを検討し、それぞれに合わせた対応策を練ろうと模索していた。「yesかnoかではなく、モノにはレベルがあるというところに着目していました」と下田局長は語る。

平井伸治・鳥取県知事(中央左)に報告書を手渡す山本龍彦・慶應義塾大学大学院教授(座長)ら委員(2024年4月26日、先端技術と民主主義のあり方を考える研究会)

「生成AIを使用禁止にした平井知事」とレッテル貼りされたが実は…

 EUのリスク分類による対処法は、そうした考え方にピッタリだった。

 そこで、新しいガイドラインは10項目の倫理原則に則った内容にしたのに加え、4段階のリスクレベルを導入することにした。

 レベル4=禁止業務、レベル3=要注意業務、レベル2=要配慮業務、レベル1=積極活用業務、である。AIを使う県庁業務は、それぞれどのレベルに当てはまるかを整理し、どんな対策が必要かを明記したのである。

鳥取県庁。職員が積極的に生成AIを活用していくためにも、「何に使わないか」の範囲を明確にする必要があった

 そうした経緯を平井知事は定例記者会見でこう説明している。

「我々がちょうど作業をしているときにヒントがありました。EUがAI法を制定し、4段階に分けてAIのリスクに応じた対策を決めました。そうした四つのカテゴリーのリスクに応じて、県庁の業務を紐づけしたのです」

 具体的にはどのような対応をしていくのか。

 まず、レベル4の「禁止業務」。

 新ガイドラインでは、「民主主義や地方自治の本旨に反する活用を制限」とした。

 意思決定(住民自治の原則、人間主導の原則)、民意集約(住民自治の原則、パートナーシップの原則)、人権侵害につながる恐れがあるもの(人権保障の原則)については、AIを使わないと決めたのだ(カッコの中は「先端技術と民主主義のあり方を考える研究会」がまとめた10原則のどれに当てはまるか)。

先端技術と民主主義のあり方を考える研究会(2024年4月26日)

 平井知事は会見で「鳥取県の問題提起は間違ってなかったと思います。民主主義や地方自治の本旨に反するようなことにならないよう、最終的な判断はやはり我々人間がやっていく。決して機械任せにはしません。議会答弁についても、AIで出てきたものをそのまま使うことは御法度(ごはっと)と考えています。それから人権侵害の恐れがあるものも禁止です」と説明した。

 レベル1は、一転して「積極活用業務」だ。

 これまで、平井知事は誤解されてきた。新ガイドラインのレベル4に当てはまるような極めてリスクが高いものについては「使用禁止」と発言してきたのだが、その部分だけが切り取られて拡散され、「生成AIを使用禁止にした知事」というレッテルを張られた。