なぜ聞き分けられない? 広がる社会的リスクも
なぜこれほどまでにAI音声は本物に近づいたのでしょうか?
研究で使われた「ボイスクローン」は、一般向けに市販されているAI音声合成サービス(ElevenLabs社の技術)を使用し、たった4分間の録音データから本人そっくりの声を生成しました。
背景ノイズや話し方の癖まで忠実に再現するため、ほとんどの人は「違和感のない声」として聞いてしまうのです。
また、人間は“人の声”を聞いたとき、無意識のうちに「これは本物だ」と思い込む傾向もあります。
実験では、被験者の多くがAI音声であってもつい「人間の声だ」と判定しがちで、こうしたヒューマン・バイアスも判別の難しさを強めています。
この現象は、私たちの生活や社会にも新たなリスクをもたらします。
もし犯罪者がAIであなたの声をクローンし、銀行の本人確認を突破したり、家族や友人になりすまして詐欺を働いたりすることも技術的には可能になりつつあります。
実際、海外では既にクローン音声を使った詐欺事件も報告されています。
さらに政治家や有名人の発言を“捏造”するフェイク音声動画の危険性も現実味を増しています。
一方で、視覚障害者向けの音声ガイドや、声を失った人への「本人の声の再生」など、社会的に有益な活用も急速に進んでいます。
AI音声が“人間らしさ”を手にしたことで、その可能性とリスクはどちらも広がっているのです。