画像生成AIが指を描くのが苦手なようにSoraにも苦手分野がある
OpenAIが開発したSoraは、まるで映画のワンシーンのようなリアルな動画を作り出すことができますが、その能力の背後には、まだ乗り越えるべき課題も存在します。
複雑な動きの物理的挙動を正確にシミュレーションできなかったり、原因と結果を理解できないことがあるのです。
例えば、人がクッキーをかじった後、その跡がクッキーに反映されない場合などが確認されています。
ほかにも、歩いている人間の左右の足の位置が入れ替わったり、椅子が空中にランダムに浮かんだりと、空間に関する説明や、カメラの動きをたどるといった経時的な変化の説明を、誤って解釈することがあるようです。
同社は現行のモデルには不得意とする要素があることも認めています。
画像生成AIが人物の指の数や足の数、耳の形状を生成するのが苦手なように、Soraにも苦手分野が存在するわけです。

これらの問題を解決すべく、同社はSoraがビジュアルアーティストやデザイナー、映像製作者に公開してフィードバックを受ける予定だと述べています。
しかしそうやってより完璧な動画を作れるようになると、他のAIと同じ問題が深刻化します。
発達したAI技術によって、偽物と本物の区別が困難になる時代がますます近づいています。
たとえばSoraを音声生成AIと組み合わせると、人々が実際に行ったことのない発言や行動のディープフェイクを作成できてしまいます。
このような高度なフェイク動画は、一般人を簡単にだますことができるでしょう。
現在Soraを安全に利用できるようにするため、OpenAI社はいくつかの重要な安全対策を講じているとのこと。
特にAIがもたらす害やリスクを評価するために編成された「レッドチーム」はその中心となる存在です。
彼らは「誤った情報、憎悪に満ちたコンテンツ、偏見などの分野の専門家」として知られています。
彼らの働きが成功すれば、アイドルの熱愛、政治家の不正などの偽動画、さらには不倫の証拠をでっち上げるなどプライバシーの侵害や社会的な損失を及ぼすような偽動画の生成をブロックできるようになるでしょう。