2023年8月、鳥取県米子市で若年性認知症を患った50代の女性が自宅からいなくなった。自宅は隣の島根県に近く、後に県境を越えたのではないかという情報が寄せられた。
鳥取県はこの事例を受けて、認知症の人が行方不明になった場合のガイドラインを見直した。それまでは、県警が市町村や交通機関に情報提供するのは65歳以上を対象としていたが、64歳以下にも拡大。他県への連絡は72時間が経過した後だったのを24時間にした。
「生成AIは一般的な事例から答えを引き出すので、特殊であってもこんなことが起きたら困るという対策は出てこないでしょう。だから、現場で地道に課題を拾っていかなければ、政策は進みません。そういった意味で『ちゃんと地道に』という考え方は正しかったと思っています」
「ちゃんと地道に」とは1年前に平井知事が問題提起をした時、ChatGPTに質問するよりも「ちゃんとジーミーチーに地べたを泥臭く歩き、人の声を聞いて施策にしていくことが大切」という意味で発したダジャレだ。
生成AIに頼り過ぎると、小さな事例から大きな政策が生まれないだけでなく、施策そのものが歪んでしまうこともある。
「これは研究会の委員からも指摘がありました。ネットメディアなどに出てくる女性像は、ある指向性をもって収集されたり掲載されたりしているせいか、実際に私達の身の回りにいる女性とはちょっと違います。男性もそうです。アニメを参考にした場合はもっと極端に出て、筋肉ムキムキみたいなイメージになるのかもしれません。こうしたところから生成された『典型的な人間像』は、過去何十年、何百年続いてきたジェンダー像をコピーしてしまいます。社会として課題解決に取り組まなければならない時に、逆に問題のありかが見えなくなったり、大切な価値観が失われてしまったりする恐れがあるのです。こうした事象は今、世界中で議論され始めています」
同種の問題はジェンダー以外でも発生している。
データに現れない政策課題を生成AIは認識できない
「この地区の人はこうだ、などという偏見が固定化される危険性もあるのです。あるアルゴリズム(コンピュータの作業手順)に従って収集・生成されたものが平均的な姿として出てきた場合、それを見た人は『そうなんだろうな』と思ってしまいがちです」
しかも、生成AIが学ぶデータには偏りがある。ビッグデータもそうだ。
「これはアメリカで実際にあった例です。交通ネットワークの政策を作る時、人間がどのように移動しているかの実態を調べるため、携帯電話のGPS機能が使われました。一見いいような感じもするのですが、アメリカは日本より格差が大きく、貧困層は携帯電話を持っていません。結果として、貧困層を政策立案でシャットアウトしてしまいかねませんでした。
これはビッグデータを使っていくうえで見落とされがちな問題です。私達はユニバーサルに(全体が公平になるように)、そしてインクルーシブに(違いがあっても認め合って)包み込むような考え方をしていかなければなりません。データについては、どのような性質のものなのか注意深く見極めて使いこなしていく必要があります」