ChatGPTは心の鏡だった!?研究が示す意外な結果
まず、「Live Platform Study」の結果から分かったのは、ChatGPTとの会話に感情的なつながりを求めるユーザーは、実はごく少数派だということです。
多くのChatGPTの利用者は、日常的な作業や情報収集など、実用的な目的で利用しており、「甘え」や「共感」を示すような感情的表現は会話全体のごく一部にしか見られませんでした。
ただし、その中でも一部の“パワーユーザー”と呼ばれる人々は、感情表現の頻度が非常に高く、「ChatGPTを友人のように感じている」といった傾向も見られました。
このように、感情的な使い方は特定の小さなグループに集中しており、プラットフォーム全体の平均的な傾向では見えにくいということが分かりました。

次に、「Randomized Controlled Study」の結果に注目すると、音声モードの利用は一部でポジティブな影響をもたらすことが明らかになりました。
たとえば、一時的・短時間の使用であれば、孤独感の軽減や精神的な安定に役立つ傾向がありました。
一方で、長時間にわたる使用は、かえって孤独感やAIへの依存度を高める結果となる可能性もあることが示されました。
さらに、会話の内容の違いも重要です。
個人的な話題(「最近感動したこと」「大切な人について語る」など)を話すグループでは、一時的に孤独感が高まるものの、AIへの過剰な依存や問題的使用を減らす効果がありました。
逆に、雑談や情報収集のような非個人的な会話では、特に長時間の使用者で依存傾向が強まる傾向も見られました。
また、ユーザーの性格やAIへの感じ方(信頼・共感)も影響を与えることが分かりました。
たとえば、他人への愛着が強い人や、ChatGPTを“親しい存在”として捉えている人ほど、ネガティブな影響(孤独感や依存)を受けやすい傾向がありました。

これらの結果から言えるのは、「ChatGPTとの会話が人の心に与える影響は一様ではなく、使い方や使う人の個性によって大きく変わる」ということです。
AIとの関係性は、人によってまったく異なる“心の鏡”のようなものかもしれません。
今後のAI設計においては、このような多様で繊細な人間の心の動きを理解し、それに寄り添う工夫が必要になってくるでしょう。
あなたがChatGPTと話すとき、そこにはどんな「気持ち」が含まれているでしょうか。
“鏡”とは。
AIに限らず、世界はその人自身の写し鏡だよ。