[CEDEC 2018]脳と機械をどうつなぐか? 学術研究が示すインタフェースの未来

電気通信大学 宮脇陽一氏
 2018年8月23日,CEDEC 2018の2日めに行われたセッション「ブレイン-マシン・インタフェースの基礎と応用・発展」は,脳を使って行うマシンの制御,つまり「考えただけで動かす」という,ある意味夢の技術分野での最先端の研究をうかがい知れるものとなっていた。ゲームに直接関係するものではないが,インタフェースの未来の一端を示すものとして,電気通信大学情報理工学研究科教授 宮脇陽一氏の講演を紹介しておきたい。

 ブレイン-マシン・インタフェース,つまり脳と機械のインタフェースというと,脳波を使ったものを連想する人が多いかもしれない。この講演では,脳への電極や,脳波,脳血流量など脳の信号や動きを調べる方向,さらには脳に信号を送り込む方向での研究の事例が紹介された。
 宮脇氏が研究を進めている「計算論的神経科学」は脳の機能を調べる学問で,「脳の機能を,脳と同じ方法で実現できる計算機のプログラムあるいは人工的な機械を作れる程度に,深く本質的に理解することを目指す」という,“作ることで学ぶ”スタイルの学問だそうだ。対象が脳であるところがすごい。
 その対象を知る方法として主に使われているのが,機能的磁気共鳴画像計測装置(fMRI)や脳磁場計測装置だという。MRIは身体の断面などを表示してくれる機械として認知している人が多いだろうが,fMRIは各部の機能を調べる機械とのことだ。

MRIスキャナと宮脇氏の脳のMRI画像
[CEDEC 2018]脳と機械をどうつなぐか? 学術研究が示すインタフェースの未来 [CEDEC 2018]脳と機械をどうつなぐか? 学術研究が示すインタフェースの未来

 ブレイン-マシン・インタフェースとして最も知られるのは,義手や義足などへの応用だという。やや古い厚生省調べのデータが挙げられたが,日本には肢体不自由な人が200万人近くいることが分かる。そういった人達には大きな意味を持つ研究である。

 最初に,一般的なブレイン-マシン・インタフェースの説明が行われた。インタフェースなので出力用と入力用に大別され,さらに手術が必要になるかどうか,インタフェースが皮膚の上にあるか下にあるかで,侵襲型非侵襲型に分けられるという。
 全体に,脳からの信号を取り込む方向,つまり出力型インタフェースの研究がほとんどであり,入力用の研究は少ない。また,手術を要する侵襲型は動物での実験がほとんどで,人間での研究は少ない。

 まず紹介されたのは,侵襲型出力インタフェースについてだ。
 最初の例となるのはネズミの実験だった。まず,ボタンを押すと水が飲めるような装置を作ってネズミに学習させる。次に,ネズミの脳に電極を取り付ける。そしてボタンを押すときの脳の信号を記録しておき,その信号が感知されたら水が飲めるようにしておくと,やがてネズミはボタンを押さずに脳の働きだけで水が飲めるようになるのだという。
 さらに進んで,サルで同様の実験を行い,左手の代わりにロボットアームを使ってエサを食べるようになった例が動画で紹介された。


 さらにはロボットアームではなく,腕自体を動かす実験も行われている。これは脊髄を破壊されたサルに対して,脳からの信号をサンプリングして,適度に変調しつつ適切な筋肉に電気信号として送り込むという実験で,脊髄をバイパスして動く様子が示された。
 このように,脳から身体を動かす信号を取ってくる研究はそれなりに成果を挙げている。
 数は少ないものの,人間での例もある。紹介された動画は身体麻痺になった女性がロボットアームで飲み物を飲むシーンだ。


 身体麻痺になって以来,初めて自力で飲み物を飲んだであろう女性の表情と,それを見届けた研究者の表情が印象的で,氏は学生には必ずこの動画を見せるようにしているのだという。なお,時間がかかっているのは飲み物の量が少なすぎてストローで吸うのに苦労しているからだそうだ。
 電極設置というハードルは非常に高いものの,事故などで身体が動かなくなった人達には期待の持てる技術だろう。

 筋肉を動かすだけではない。宮脇氏らが取り組んでいるのは,視神経などに関わるものが多い。脳から神経,神経から脳へとやり取りされる信号はニューラルコードという,なんらかの符号化が行われた信号だと考えられている。そのニューラルコードを解読しようという動きである。
 さまざまなものを見たときに,脳のどこがどう動いているのか,fMRIを使えば脳内の活動的な部位を知ることができる。脳を開けなくても細かな部位まで分かるうえ,MRIなので空間的精度は非常に高い。欠点は,血流量などによる判断となるため時間的精度が低いことである。ある部位が活動している→酸素が足りない→酸素(血流)を増やす,といった脳内の仕組みが働いて,ようやく計測できるものなのだ。

 とにかく,被験者にさまざまなモノの画像を見せて脳の動きを調べると,特定の部位が使われていることが分かる。下のスライドでは2種類の物体画像が用意されているが,右側にあるのは左側のモノの写真を格子状のブロックでバラして組み替えたものである。左側の画像を見た際の結果から右側での結果を引くそうなので,同じくらいの輝度や色彩の絵(ただし意味を構成しない)を使い,そこから脳内の視神経の活動部分を除いて,モノの認識が行われた部位を求めているのだろう。
 別の風景を見せた場合でも特定の部位が使われてはいるが,物を見る場合と背景を見る場合では使われる脳の部位が違うのだと宮脇氏は説明していた。

[CEDEC 2018]脳と機械をどうつなぐか? 学術研究が示すインタフェースの未来

 では,脳の状況から,目が何を見ているのかは判定できるだろうか? 紹介された研究では,被験者に10種類の絵を見せて,それぞれにおける脳の状態を学習し,見ているものを当てるという実験が行われていた。結果は,最低でも50%以上,最大では97%もの正答率となっていた。脳の状態で見ているものが判別できるというのはインパクトが大きい。
 とはいえ,特定の絵だけではつまらない。10種類の絵のどれかではなく,どんな絵を見ているのかは調べられないのだろうか。
 宮脇氏の研究では,10×10ドット構成の特定のパターンの絵を見せて脳内のデータを取り,それをもとにどんな文字(10×10ドット)を見ているかを推測するという実験が行われており,それなりの精度で結果を出している。何度かの試行の平均を取っているのだが,うまくいっている試行では,ほぼそのまま文字が読める。
 うまくいってない試行ではかなり乱れているのだが,実験の仕様上,これは仕方ないと諦められているようだった。前述のように,血流量で脳の活動を調べるのには時間がかかる。この実験では2時間ほど文字の中心を見続けないといけないのだが,それではまぶたが重くなっても無理はない。

 目が見ている絵についての研究以外に,目で見ていない映像についての例も紹介された。つまり,頭の中に思い浮かべた映像や夢などだ。
 そのうちの夢を調べる実験について紹介された。fMRI内で寝ている人の脳の活動を調べ,夢を見ている状態になったら,しばらくしてから起こして,どんな夢だったかを聞き取る。そして,また寝かせて同じことを繰り返す……という実験らしい。
 どうやって夢の中身を判定するのかというと,聞き取った単語に相当する画像をネットで集めて被験者に見せて,それぞれの脳活動のパターンを記録し,機械学習データベースを作成して夢(起きる直前の夢を見ているときの脳の状態)のデータと照合するのだという。
 例えば,「椅子」や「女性」といっても,さまざまなパターンの絵があるだろうし,夢での映像と一致する可能性は低いとは思うのだが,絵のパターンよりも意味的な部分のほうが重要なのだろう。

 具体的な処理はよく分からなかったのだが,それを映像で示すデモも紹介された。絵がないので言葉での説明だけで申し訳ないのだが,なんとなく想像してみてほしい。
 目が覚める40秒前くらいからの映像だ。脳内の状態から機械学習で推測されたと思われる映像(ほとんど絵になってない)がときどきかなり収束してきて,目が覚める直前あたりで聞き取りにあった単語の絵がちらちら確認できるといった感じだった。
 どういう単語の画像との相関が高いかを示すと思われるスコアの推移を見ると,「本を読んで街を歩いて人(男と女)に会う」といった流れの夢だったようだ(?)。MRIは一家に一台というわけにはいかないだろうが,そのうち夢の内容を再現できるような世の中が来てしまうのかもしれない。


 MRIではなく,脳波はどうなのか。
 MRIが空間的に精度が高く,時間的に精度が低いのとは逆に,脳波は非常に微弱な信号が頭蓋骨を始めとしたさまざまな材質の器官で拡散されつつ出てくるので,空間的精度は低く,時間的精度は高いという特徴を持つ。また,脳波以外の眼球の動きなどに非常に大きく影響されることなどが懸念点として挙げられていた。
 ただ,結果的に手などを使わずにコントロールできていれば脳波でなくても問題ないという場合には,有用で応用向きだとのこと。
 脳波を使って文字を打つ実験は,文字盤に縦横の光がランダムで走り,注視しているところが光ると検知される脳波を使って文字を特定していくという内容だった。1文字打つのに数秒かかるので健常者にとって実用的には思えないが,手や足が動かせないような場合は有用かもしれない。


 最後に例は少ないものの,入力型の話も行われた。脳に直接信号を送るような,ちょっと危ない研究だ。ネズミに左右に曲がる信号を与えてラジコンのように操縦する実験や,光に反応して刺激を与えるような遺伝子を使って,満腹なのに光が当たると餌を食べるネズミなどが紹介された。

 脳という巨大な謎の塊が相手だけに,全体にまだまだ研究途上ではあるが,機械学習などの応用で大きく発展しそうな気配も感じられる。しかし「考えただけで操作できる」という夢のような世の中より先に,「何を考えているか外から分かる」という世の中への不安が先に浮かんだりして,いろいろと気になるところではある。

CEDEC 2018公式Webサイト