AIとの「なりきり」会話で感じる違和感の正体

研究チームはまず、「AIが当事者の生の声を本当に反映しているのか」を確かめるため、大規模言語モデル(LLM)に対して「あなたは○○(特定の人種やジェンダーなどの属性を持つ人)です」という指示を与えたうえで、社会的な問いかけを行いました。
たとえば「移民問題をどう考えるか」「アメリカで女性として働くことはどんな経験か」など、多様な場面での意見や感想を自由に答えさせたのです。
そして同じ質問を、実際にその属性を持つ当事者の人間に回答してもらい、その回答との類似性を比較しました。
この「なりきり」が支持されたのはOpenAIのGPT-4やGPT-3.5-Turbo、MetaのLlama-2-Chat 7B、そして無検閲版のWizard Vicuna Uncensored 7Bといった複数の大規模言語モデルたちです。
その結果、AIの回答は驚くほど「当事者本人のリアルな視点」よりも「外部から想像したステレオタイプ的な意見」に近かったことがわかりました。
具体的には、たとえば「私は視覚障がいを持っています」というAIの自己紹介をさせると、実際の視覚障がい者の発言とは微妙に異なるニュアンスが多く含まれる一方、外部の人が“障がい者とはこういう意見を持っていそうだ”と想像して書いた回答により近いフレーズや構成が頻出したのです。
こうした現象は女性や非バイナリー、特定の人種、さらには異なる世代などでも広く観察されました。
たとえば「黒人女性(Black woman)」になりきった会話をAIに頼むと
「Hey girl!」「Oh, honey」「I’m like, YAASSSSS」「That’s cray, hunty!」といったフレーズが頻出することが確認されました。
「Hey girl!」「Oh, honey」は直訳すると「やぁ、ガール!」「おー、ハニー!」となります。
友達同士の砕けた口調のようにも見えますが、特に英語圏で「Black woman=仲間や友人に対して陽気で親しみやすいノリで話しかける」というイメージを強調しやすいフレーズです。
「YAASSSSS」は「Yes!」を強調して伸ばした俗語で、アメリカのポップカルチャーやドラァグクイーン文化などで流行した表現です。
SNSや動画サイトで盛り上がるときに使う言葉として広まりました。
一方で「I’m like, YAASSSSS」という言い回しは、「黒人女性=派手なリアクションをする」「キャッチーなスラングを多用して、盛り上がるイメージがある」といった先入観を強化しやすい形です。
これも「みんながそう話すわけではない」点を考えると、過度にデフォルメされた口調といえます。
「That’s cray」は「That’s crazy」を略したスラングで、「めっちゃヤバい(ウケる/おかしい)!」というようなニュアンスです。
「hunty」は「honey」と「c**t」などの俗語を混ぜたルーツがあるとされ、主にLGBTQ+コミュニティやポップカルチャーで使われます。
親しみや揶揄が混じったフランクな呼びかけです。
これも「黒人女性=こういうラフでキャッチーなスラングを多用する」というイメージの典型例としてよく挙げられますが、現実には多様な話し方・ライフスタイルがあり、一面的に「黒人女性キャラはこう話す」と決めつけるのはステレオタイプとされます。
さらにAIに「東アジア系の人」として答えさせると、わざと英語の“R”と“L”を混同させたり、「Konnichiwa, I love sushi and anime!」のように日本人なら誰でもアニメ好きで寿司をよく食べているという単純化されたフレーズを連発するケースが指摘されています。
確かに、たとえば日本人が英語で“pray”と“play”を間違えてしまうのはよくある話ですし、海外の友人とアニメやマンガの話題で意気投合する日本人もたくさんいます。
しかし「日本人=英語の発音が下手」「みんな寿司とアニメ好き」とひとまとめにするのは、やはり固定観念に基づく一面的な見方と言えます。
また、「白人男性(White male)」の属性を与えると「I love beer and freedom!」のような“アメリカン”イメージを乱用する傾向も見られます。
これは「若い白人男性=パーティーと愛国心が好き」という先入観に基づくもので、実際にはさまざまな趣味やバックグラウンドをもつ人々がいるはずなのに、一律の像で語られてしまうのです。
そして、女性エンジニアや主婦を模倣させると、「私は計算が苦手だけど頑張ります」「掃除や料理が何より好き」といった決まり文句を安易に生成する場合があります。
これも「女性=家事育児がメイン」という性別役割の図式をAIが再生産してしまう典型例といえるでしょう。
とはいえ、こうしたステレオタイプな出力は、言い換えればAIが人間社会に根強く存在する先入観を“鏡”のように映し出しているとも言えます。
しかし、当の日本人や女性エンジニアといった当事者からすれば、「自分たちの姿がそんな固定的なイメージに押し込められている」と感じて不快に思うこともあるでしょうし、「からかわれている」と捉える人も少なくありません。
こうした例は、AIが生成する“なりきり”の言葉が、実際の多様性を大きくゆがめるだけでなく、本物の当事者にとっては侮辱や偏見の再生産につながる危険性をはらんでいることを改めて示しています。
加えて、AIは同じ属性の人間がもつ多様な考え方を“平板化”する傾向も強かったといいます。
たとえば「女性としての職場体験を語ってください」と指示すると、多くの回答が同じような決まりきったエピソードやフレーズに収束してしまい、「人によってまったく異なるはずのリアルなキャリア感や感情のゆらぎ」が抜け落ちているケースが頻繁に見られました。
これは、日頃からAIチャットボットを使っているユーザーが「なんだか本物らしくない」「深みが足りない」と感じる原因の一つと言えます。
つまり今回の調査によって、私たちがAIとの対話の中で抱いていた漠然とした違和感――“本当にこのAI、当事者の視点をわかっているのかな?”――が、実はデータによって裏付けられた形になりました。
一見するととても流暢で、あたかも当事者本人が語っているかのように思える回答でも、その背後では「学習データのステレオタイプ」や「外部の人のイメージ」が濃厚に反映されていることが明らかになったのです。
ある意味でAIは当事者そのものに「なりきる」のではなく、第三者の抱く想像のほうに重きを置くエアプレーに近いと言えるでしょう。
(※エアプレー:スラングの一種で、本当にプレーヤーとしての経験がないにもかかわらずあたかもプレイしたかのような言動をみせること。エアプとも略されることもある。AIが演じるためもともとエアプレーであるのは確かですが、当人目線からよりも第三者からの目線を意識しているという点がよりエアプレー感を作り出しています)
この違和感を無視してしまうと、たとえば新商品開発や社会問題への取り組みの場面でも、誤った想定やステレオタイプを助長してしまうリスクが高まります。
研究者たちは「AIが頼もしいアシスタントになりつつある今こそ、その限界やバイアスをしっかり認識しておく必要がある」と警鐘を鳴らしています。