以前の音声データから「クローンボイス」を作成
ALSは進行性の疾患であり、話す・動く・呼吸するなどの自発的な筋肉の動きが徐々に失われていきます。
スミス氏も例外ではなく、言葉を話す能力をすでに失っていました。
しかし彼が声を失う以前に録音されていた音声データをもとに、AIが「クローンボイス(合成音声)」を作成。
動画では、彼自身の声に極めて近い音声でナレーションが行われており、まるでスミス氏が再び話し始めたかのような印象を受けます。
発音もまったく違和感がありません。
実際の動画がこちら。
Neuralinkの技術により、スミス氏は昼夜問わず自由にコミュニケーションが可能となり、今では子どもたちと「マリオカート」を一緒にプレイするまでになっています。
「ここまで来るのに何年もかかりました。これまでの苦労を思い返すと、いまでも泣いてしまいます」と語るスミス氏。
彼にとってこの技術は、失われた自由とつながり、そして「他人のために何かをする」という新たな生きがいを与えてくれたといいます。
頭で思い描いている光景やシーンを書き出してくれる装置とかあると小説書いたりするの楽でいいのですけどね。
自分で書いてるとだんだん書くの億劫になってくるのですよね。
書く速度のほうが遅いことが多いので。
凄すぎて草
思考で操作と、舌や顎を動かすイメージでカーソルを操作はだいぶ隔たりがあり別物なのでは
それも一種の思考
対してすごくない、ミスリードを狙った記事
ただ、脳波を拾ってマウスの操作を出来るようにしただけ。
技術自体は20年以上前からあるものだし。脳内からイメージを抽出して動画を作った訳じゃない。
ただ今までは、頭の全体をカバーするように電極をつけなければならなかったのをAIの力で局所につけた電極で最低限拾えるようになっただけ、手を動かすイメージで動かなかった時点でお察し
まあ、ホーキング博士についてたシステムに比べると格段に使いやすくなっただろうけど20年分の進化と考えると、もう少しなんとかしてほしい感じだね
イーロンの事業で一番期待できる分野なんよねこれ
いや普通に凄いだろ笑
タイトルが誇大広告な気が…
脳内のチップが読み取る脳部位の動きにマウス操作をリマップしただけで、「思考」で操作しているとは程遠いかと
とはいえ小型のチップでここまで脳の活動を一部でも読み取って操作できるようになっているのは進歩してるなぁとは思う
イーロンではなくニューラリンクのエンジニアが凄い
ただ脳埋め込み方式はリスク高すぎなので微妙