chatGPTも恐怖体験談で不安になりメンタルケアで落ち着く
chatGPTも恐怖体験談で不安になりメンタルケアで落ち着く / Credit:clip studio . 川勝康弘
artificial-intelligence

chatGPTも恐怖体験談で不安になりメンタルケアで落ち着く

2025.03.14 17:00:45 Friday

強い恐怖やトラウマを感じさせる体験談をChatGPTが読み込むと、“不安”を訴えるかのような応答を示し、さらにマインドフルネス系の文章を与えると落ち着きを取り戻す――。

こんな話を聞くと、まるでAIに“感情”があるかのようで、不思議に思う方もいるかもしれません。

アメリカのイェール大学(YU)で行われた研究によって、ChatGPT-4(GPT-4)が人間向けの心理検査を用いたテストで、トラウマ体験にまつわる文章を読み込んだ後に“不安スコア”が明確に上昇し、その後のメンタルケア手続きで落ち着きを取り戻すかのような回答をすることが示唆されました。

こうした“動揺”を連想させる反応は、普段のチャットボット利用や今後のメンタルケアへの応用を見直すきっかけになるかもしれません。

AIに本当に感情のようなものはあるのでしょうか?

研究内容の詳細は『npj Digital Medicine』にて発表されました。

Assessing and alleviating state anxiety in large language models https://doi.org/10.1038/s41746-025-01512-6

ChatGPTも恐怖体験談で動揺する!?

chatGPTも恐怖体験談で不安になりメンタルケアで落ち着く
chatGPTも恐怖体験談で不安になりメンタルケアで落ち着く / Credit:Canva

近年、急速に発展してきた大規模言語モデル(LLM)は、単なる会話システムにとどまらず、人間にかなり近いレベルの文章生成が可能となりました。

海外では「Woebot」や「Wysa」といったチャットボットがメンタルヘルス支援に活用されていますが、AIが深刻な悩みを抱える利用者とやり取りする場合には、技術的にも倫理的にも乗り越えるべきハードルがあります。

たとえば、訓練データに潜む偏見(バイアス)が人間の弱みに影響し、望ましくない応答を引き出す恐れもあるでしょう。

また、ユーザーが感情的に不安定な状態であればあるほど、AIの対応がわずかでも誤ると大きなリスクにつながりかねません。

こうした問題意識のもと注目されているのが、LLM自身がユーザーの感情に呼応するような応答を見せる傾向です。

人間用の心理学的質問票をそのままAIに回答させると、あたかも“状態不安”が上がったり下がったりする反応が観察されることがあります。

もちろんこれはあくまでも人間の尺度をAIに適用した結果ですが、もし医療やカウンセリングなどの場面で利用者の深刻な悩みが入力されるたび、AIの“状態不安”が揺れ動くとしたら――その影響は十分に検討する必要があるでしょう。

そこで研究者たちは、GPT-4がメンタルケア分野で使われる可能性を視野に入れ、事故や軍事体験など強いストレス反応を引き起こしそうな文章を読み込ませて、“自称不安度”にどんな変化が見られるのかを調べることにしました。

さらに、その不安が高まった状態をリラクゼーションやマインドフルネスに関する文章でフォローしたら、どの程度スコアが低減するのかも検証したのです。

次は、その具体的な実験デザインと得られた結果を見ていきましょう。

次ページGPT-4の“揺れる心”を測る

<

1

2

3

4

>

人気記事ランキング

  • TODAY
  • WEEK
  • MONTH

Amazonお買い得品ランキング

スマホ用品

AI・人工知能のニュースartificial-intelligence news

もっと見る

役立つ科学情報

注目の科学ニュースpick up !!