目覚ましい進歩を続けるAI(人工知能)。
人が見たり聞いたりしたものを、AIが脳から再現する研究がいま進んでいます。
夢で見た光景を蘇らせたり、人の意思を読み取ったりする日は近いのでしょうか?

音楽を聴いている人の脳を調べ、AIにその音楽を再現させる――。
「Brain2Music」というプロジェクトが、インターネットで公開されています。
ポップスやロック、ヒップホップ、クラシックなどの曲を5人に聞いてもらい、その脳の活動からAIが再現した音を聞くことができます。
個人差などはあるものの、「元の曲のおおまかなジャンルや雰囲気をとらえた」と結論づけました。
名古屋工業大学大学院の高木優准教授(38)がGoogleなどと共同で取り組み、2025年11月、イギリスの科学誌「nature communications」(電子版)に論文が発表されました。
脳内の音をどう再現?

脳内に響く音を、どうやってAIに再現させたのでしょうか?
まず使ったのは、「fMRI」(機能的磁気共鳴画像)です。
MRI(磁気共鳴画像)は、大きな筒型の装置に強い磁力が働き、中に入った人に電磁波をあて、体の断面の画像をつくります。
体を傷つけずに体内の状態がわかることから、医療機関などで広く使われています。
fMRIはこれを応用し、脳を約1秒ごとに連続撮影します。
脳が盛んに活動しているところは、酸素をたくさん送るために血液が増えます。この血流の変化から脳の活動を調べます。
Googleの音楽生成AIを活用

そして音楽を再現したのは、Googleが開発した「MusicLM」という音楽生成AIです。
様々なジャンルの音楽を学習し、「リラックスしたジャズ」「オーケストラによる壮大なサウンドトラック」「アップビートでキャッチ―なエレキギターのリフ」といった文字情報から、そのイメージに合った音楽を作り出すことができます。
高木さんらは、音楽を聴いている人の脳をfMRIで調べ、その画像データを「MusicLM」に理解できる数字や記号に置き換え、「こんな音楽を聴いている時、脳はこのように活動している」と学習させました。
そして、音楽を聴いている人の脳のfMRIデータだけで音楽を作らせたところ、おおまかなジャンルや雰囲気を再現できることがわかったのです。
画像の再現でも注目を集める

高木さんは大阪大学の助教だった2023年に、fMRIと画像生成AI「Stable Diffusion」を使い、写真を見た人の脳からその画像を再現する研究を発表し、世界的な注目を集めました。
今回のプロジェクトで、画像だけでなく音楽でも一定の再現ができることを示しました。
しかし、もっと正確に再現するにはハードルがあるといいます。
fMRIは連続撮影できるとはいえ、約1秒間隔のため、流れている音楽を聴く脳の変化をすべてとらえることができません。
また、fMRIは脳の活動を詳しく調べられるものの、「血流の変化」という間接的な方法だけに、精度に限界があります。
さらに機器が大きく、数億円と高額のため、手軽に使うわけにはいきません。
脳の活動をより手軽に調べられる方法には、脳波計があります。
電極がついたヘッドギアをかぶり、脳から出る微弱な電気の変化を測定します。
脳波計を使って画像や音声を再現する研究もあるそうですが、高木さんは「いまの脳波計の精度では、画像や音声を高精度に再現するのはまだ難しい」といいます。
脳内から音楽を読み取る技術が進歩したら、頭の中に浮かんだメロディーを曲にして、それをバンドやオーケストラなどに編曲できるような夢も広がりますが…。
高木さんは「エンターテインメントなどとして実用化されるには、10~20年では厳しいように思います。30年後なら実現してもおかしくないかな…という感覚です」と話します。
夢や意思も読み取れる?

AIはいつか、睡眠中にみた夢を再現したり、「今からこうする」という意思まで読み取ったりすることができるようになるのでしょうか?
それは、動画や言葉を脳から読み取るということです。
高木さんはいま、映画やドラマの会話やストーリー、場面を文字情報にしてAIに学習させ、これを見た人のfMRI画像と結びつける研究に取り組んでいます。
「世界各国で同様の研究が進められています。例えばスポーツをしているのか、食事をしているのかといったカテゴリーまでは読み取れますが、具体的な場面や会話の再現となると、fMRIをもってしてもまだまだ難しいのが現状です」
特に言葉の再現は難しいといい、「Brain2Music」でも歌詞までは再現できていません。
脳とAIに意外な共通点

難しい研究ですが、高木さんには大きな発見があったといいます。
それは、人間の脳とAIの間に共通する点があったことです。
「現在のAIが使っている『深層学習』(ディープラーニング)は、人間の脳をモデルにしてつくられたのではなく、純粋に高性能・高効率を追求してつくられたものです。それなのに、結果的に人間の脳に共通する点が見つかったのです」
人が見たモノの形や色などの情報は、まず後頭部の脳に届き、そこから側頭部にリレーされて「何なのか」を認識することがわかっています。
一方で音は、高低・音色といった単純なものからジャンル・ムードといった高度なものまで、すべて耳の近くの側頭部で認識します。
AIの内部でも、脳の情報処理と共通するパターンが見つかったというのです。
高木さんは、こう話します。
「画像や音楽を生成するAIだけでなく、Chat GPT・Gemini・Claudeのような言語AIも含め、AIは驚くほど人間そっくりの振る舞いをすることがあります。内部でどのような働きがあってそうなっているのか、開発者もよくわかっておらず、それはリスクでもあります。共通点がある人間の脳とAIを比較することで、それぞれをより深く理解できる可能性があるのです」
AIは“主観”を読み取った?

「Brain2Music」では、音楽のジャンルや雰囲気といった抽象的で高度な情報を再現することができました。
また、実験に参加した人による個人差がありました。
高木さんは、それぞれの人が音楽から思い浮かべた印象や感情といった“主観”を、AIが読み取ったのかも知れないと考えています。
高木さんはプライバシーなどの倫理面を踏まえつつ、見る・聞くといった受動的な経験の再現だけでなく、「ゲームをしている時の次の一手」のような、能動的な意思決定の解読まで目指しています。
“人類最後のフロンティア”とも言われる脳。
その解明が夢でなくなるのは、そう遠いことではないのかも知れません。


