Wikipediaを使って人間の脳を模倣するAIを作る
私たちが風景や人物の画像を見ると、脳の中では色や形に応じた神経活動が発生します。
同様に脳内で想像の風景や人物をイメージするときにも、現実の画像をみていたときと同じような神経活動が起こることが知られています。
近年のAI技術の進歩は、これらの神経活動を解読することが可能にしており、人々が何をみているのか、あるいは想像しているのかを、脳の神経活動を読み取ることで予測できるようになってきました。
この技術は、SFの世界では「視界の盗撮」や「脳内の盗撮」を可能にするツールとしてネガティブなイメージが持たれることがありますが、適切に運用すれば検索覧に文字を打ち込む代わりに、頭に浮かべたイメージだけで画像検索することが可能になります。
また重度の麻痺などで「脳に閉じ込められた」人々にとっては、自分の思いを画像を使って表現することで、コミュニケーションの拡大が行えるなど、大きな可能性を秘めています。
そこで今回、大阪大学の研究者たちは脳に刺し込んだ電極から電気活動を測定することで、ヒトが見たり想像している画像の意味内容を推定する「脳情報解読技術」を開発しました。
(実験には難治性てんかんの患者さんの協力のもと行われています)
この技術ではまず、Wikipediaに掲載されている膨大な文書や単語を、風景や人物、文字、動物などテーマごとに関連付ける機械学習を行いAIを訓練しました。
AIの学習が完了すると、研究者たちは被験者たちに「人間」「風景」「動物」などさまざまな意味内容が含まれる動画をみてもらいつつ、脳に刺さっている電極から神経活動データを記録しました。
そして得られたデータをAIに提示し、被験者がどのタイミングで何をみていたかを推測させました。
「Wikipediaで単語の関連性を学習したAIに神経活動データを渡してもしょうがないんじゃないか?」
と思うかもしれませんが、Wikipediaは言ってみれば(情報科学的に考えれば)、人間の脳から出力されたデータをテーマ(意味内容)ごとに集めたものになり、人間の脳の部分的な写しと解釈可能です。
そのため小説を読めば作者の学識や人となりが推測できるように、人類の英知(脳の出力データ)を集めたWikipediaを学習させたAIは、人間の脳にある程度近い判断力を持つようになると考えられています。
つまり人間の脳がWikipediaを作った経緯の逆を辿り、Wikipediaから人間の脳のようなAIを作れれば、神経活動データも解読できるはず……という発想です。
研究者たちはこのAIを脳からの電極から得られたデータをもとにさらに訓練しました。
結果、この発想は上手くいきました。