画像
YouTubeを見て唇の動きを学習する仕組みを開発。イメージ / Credit:Generated by OpenAI’s DALL·E,ナゾロジー編集部
robot

YouTubeを見続けて「唇の動き」を学習したロボット【映像あり】

2026.02.05 20:00:00 Thursday

人型ロボットの開発が進む中で、私たちの関心は二足歩行や人間らしい体型、なめらかな腕や脚の動きに向けられがちです。

とはいえ、人と自然に向き合い、会話をする存在を目指すのであれば、「表情」や「口の動き」も見過ごすことはできません。

こうした課題に真正面から取り組んだのが、アメリカ・コロンビア大学(Columbia University)の研究チームです。

研究者たちは、人間の唇の動きを事前に教え込むのではなく、ロボット自身が観察を通じて学習する仕組みを開発しました。

この成果は、2026年1月14日付で科学誌『Science Robotics』に掲載されています。

Say Hello To EMO, A Robot That’s Learnt To Mimic Human Lip Movements By Watching YouTube And Gazing In The Mirror https://www.iflscience.com/say-hello-to-emo-a-robot-thats-learnt-to-mimic-human-lip-movements-by-watching-youtube-and-gazing-in-the-mirror-82449 This Robot Learned to Talk by Watching Humans on YouTube https://scitechdaily.com/this-robot-learned-to-talk-by-watching-humans-on-youtube/
Learning realistic lip motions for humanoid face robots https://doi.org/10.1126/scirobotics.adx3017

”不気味の谷”を越えるためには「唇の動き」も重要

私たちは対面で会話をするとき、相手の目だけでなく、無意識のうちに口元にも強い注意を向けています。

研究では、対面で会話しているとき、私たちが向ける視線のうちおよそ半分が相手の唇に向かっているとも指摘されています。

つまり、発話の内容を理解するうえで、音声だけでなく、唇の形や動きも重要な手がかりになっているのです。

ところが、多くの人型ロボットでは、この唇の動きが大きな弱点となってきました。

口が不自然に大きく開閉したり、音と動きが微妙にずれたりすると、私たちは強い違和感を覚えます。

これが、いわゆる「不気味の谷」と呼ばれる現象の一因です。

研究者たちは、これまで唇の動きがうまく再現できなかった理由を二つ挙げています。

第一に、ハードウェアの問題です。

人間の唇は柔らかい皮膚と多数の筋肉によって複雑に変形しますが、従来のロボットは硬い顔のパーツを使い、動かせる部分も少なく、自由度が限られていました。

第二に、制御方法の問題があります。

多くのロボットでは、「この音が出たらこの口の形」といったルールを人間が事前に定義しており、発話の流れに応じた自然な変化を再現できませんでした。

そこで今回の研究では、この二つの壁を同時に乗り越えることを目指しました。

研究チームは、柔らかいシリコン製の唇と10自由度の駆動機構を備えたロボットの顔を新たに設計。

そして最大の特徴として、唇の動きを人間が細かく指定するのではなく、ロボット自身が学習によって獲得する手法を採用しました。

音声と唇の動きを結びつけるルールをあらかじめ与えない点が、従来研究との決定的な違いです。

では、どのようにロボットの学習が進んだのでしょうか。次項では実際の映像も確認できます。

次ページロボットはYouTubeを見て「人間らしい唇の動き」を覚える

<

1

2

>

人気記事ランキング

  • TODAY
  • WEEK
  • MONTH

Amazonお買い得品ランキング

スマホ用品

ロボットのニュースrobot news

もっと見る

役立つ科学情報

注目の科学ニュースpick up !!