両足を動かすイメージを頭に浮かべるだけで、「Second Life」のアバターが前進する――慶応義塾大学が10月11日、こんな技術を開発したと発表した。機械が脳波を読み取ってコンピュータを操作する「ブレイン・コンピュータ・インタフェース技術」を、世界で初めて3D仮想世界「Second Life」のアバター操作に応用した。

被験者の頭皮の3カ所に直径1センチの電極を貼り、手足の運動を制御している大脳皮質運動野の脳活動をとらえてリアルタイムに分析。運動イメージを読み取って、Second Lifeのアバターの動きに反映させる。

例えば、両足を動かすイメージを浮かべると、コンピュータが脳波の変化を分析して「前進したい」という意図を把握。アバターを前進させる。右手を動かすイメージを浮かべると右折、左手を動かすイメージで左折する。

同技術を使えば、自分の意思で発話したり四肢を動かせないなどの運動障害がある場合でも、Second Lifeでコミュニケーションを取ったりビジネスができる可能性が開けるとしている。

今後は、アバターが複雑な動作をできるよう技術開発を進めていくほか、リハビリテーションへの応用の可能性を検討するため、アバターを動かすことが脳や神経などに与える影響も測定する。

同大学医学部のリハビリテーション医学教室と月が瀬リハビリテーションセンターの共同プロジェクトで、理工学部生命情報学科の牛場潤一講師が開発した。実証実験の様子はWebサイトで動画で公開している。
(脳内イメージでSecond Lifeのアバター操作 慶応大が技術開発)


「自分の意思で発話したり四肢を動かせないなどの運動障害がある場合でもコミュニケーションが可能」というのは、非常に魅力的な装置であると思われます。たとえば、上手く言葉を発せなかったりした場合、筆談やキーボードで文章を打ったりすることでコミュニケーションを行いますが、やはり感情をうまく表現したり、レスポンスがどうしても遅れてしまう、といった問題がどうしても生じてしまうと思われます。

ですので、もし上記のようなツールが開発され、実用化されれば、もっと豊かな表現方法ができるようになるのではないでしょうか。さらに、体を動かせるという擬似的な感覚を得られることで、フラストレーションをある程度は解消できるのではないでしょうか。

あまり流行っている様子がみられない「Second Life」ですが、こうした福祉的な広がりや多くの可能性を秘めているのはたしかでしょう。今後の発展に期待していきたいと思われます。

【関連記事】
医師が患者のアバターで、病歴チェックできるようになる?