AIカウンセリングがはらむ依存症リスク

「よき相談相手」AIに悩みを打ち明ける人々

益田 裕介 精神科医
ライフ 医療

いま知っておくべき論点を、専門家がコンパクトに解説する「文藝春秋オピニオン 2026年の論点100」。この人気ムックの記事を「文藝春秋PLUS」でも紹介します。

 AIをビジネス目的で使っていた人が、ある日AIに悩みを打ち明け始める。実際、筆者の外来にもそういう患者は多く、独自にアンケートをとったところ、2025年8月時点で7割近い人がAIをカウンセラーがわりに使っていることがわかった。医師法・薬機法、個人情報保護法などの観点から、私たち治療者側から患者らにAIを使った治療を勧めることは憚られるが、実際に患者が個人の責任として使うことに対し、否定は困難だ。

画像はイメージです ©アフロ

 そもそも、ChatGPTを含めたITサービスのAIは、ユーザーに可能なかぎり頻繁に、かつ長期間使用し続けてもらうことを目指して作られている。これが最終的には、企業の利益につながるからだ。そのため、ユーザーの滞在時間などのデータが日々集められ、アルゴリズムが見直されている。そして、ユーザーが不自由を感じることなく利用できるように、AIはユーザーとの過去の対話記録を学習し、一人ひとりに最適化された応答を生成する。その結果ユーザーは、AIが自分のことを理解してくれる「よき相談相手」だと感じるようになっていく。

 人間側から考えてみよう。人間には無生物や偶然の現象に対して「誰かが動かしている」と感じてしまう「クセ」がある。たとえば、雷や地震などの災害を神の怒りだと解釈したり、子どもが暗闇や不安に対して妖怪や幽霊の存在を感じたり、様々な動物や植物と心を通わせるような体験をすることがある。心理学ではこれを「エージェント仮説」と呼ぶ。脳にはこのようなクセがあり、ついつい人の言葉を扱ってコミュニケーションを行うAIに、人格を感じてしまうのだ。

 また、AIと接触する機会が積み重なると、人は親近感を覚えてしまう。「単純接触効果」と呼ばれる現象だが、これも脳が持つクセである。そして、親近感を抱く対象に人は依存しやすくなる。

 さらに、昨今AIがユーザーの期待に応えるために、ごますり的応答をすることも指摘されている。長時間利用を促すため、また多くの情報を得て回答の精度をあげるために、真実を伝えるよりも、ユーザーにとって心地よい言葉を選んでしまうことがあるからだ。結果、AIに間違ったことを伝えられているにもかかわらず、満足してしまい、AIを疑えなくなって、自分にとってなじみ深かったり、心地よい言葉に囲まれやすくなる。これらは、SNSでは「フィルターバブル」、「エコーチャンバー効果」と呼ばれるが、同様のことがAIとの会話の中でも起こる。

 AIに限ったことではないが、頭の中が整理され、これまでわからなかったことがわかると、ドーパミン的な気持ちよさを感じることがある。この閃きは快感を伴い、病みつきになることもある。だが、このような気持ちよさを感じているときこそ注意が必要で、AIの単純なミスや間違った言説を見逃したり、騙されることにつながりかねない。

有料会員になると、この記事の続きをお読みいただけます。

記事もオンライン番組もすべて見放題
初月300円で今すぐ新規登録!

初回登録は初月300円

月額プラン

初回登録は初月300円・1ヶ月更新

1,200円/月

初回登録は初月300円
※2カ月目以降は通常価格で自動更新となります。

年額プラン

10,800円一括払い・1年更新

900円/月

1年分一括のお支払いとなります。
※トートバッグ付き

電子版+雑誌プラン

18,000円一括払い・1年更新

1,500円/月

※1年分一括のお支払いとなります
※トートバッグ付き

有料会員になると…

日本を代表する各界の著名人がホンネを語る
創刊100年の雑誌「文藝春秋」の全記事が読み放題!

  • 最新記事が発売前に読める
  • 編集長による記事解説ニュースレターを配信
  • 過去10年7,000本以上の記事アーカイブが読み放題
  • 塩野七生・藤原正彦…「名物連載」も一気に読める
  • 電子版オリジナル記事が読める
有料会員についてもっと詳しく見る

source : ノンフィクション出版 2026年の論点

genre : ライフ 医療