あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート

 2017年6月28日から30日まで東京ビッグサイトで「コンテンツ東京2017」が開催される。このイベントは,コンテンツ制作関係のさまざまなイベントをまとめた総合イベントで,ここではVR系を中心に先端コンテンツテクノロジー展AI・人工知能EXPOから目立った展示を紹介してみたい。

 全体的な傾向を先にまとめておくと,VR・AIどちらの区域も非常に多くの来場者でにぎわっていた。業界向けなので昨年まではもっとゆったりしたイベントだと思っていたのだが,今年はちょっと違っていた。とくにAIのあたりは通路にびっしり人が詰まっていて,通るのも難しい場所があるくらいだ。
 VR,ARは応用的な展示が多く,AIではテキスト・音声を問わずチャットBotはもはや当たり前という印象だ。

 なお,記事中の写真や映像の一部には,開催前日に開場前の開場にて取材したものも一部含まれており,出展準備中のため実際の展示とは異なるものがある場合があることをお断りしておく。


AOI Pro.:Wondeful World


あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート
 映像制作会社のAOI Pro.が展示していた「Wonderful World」はVRヘッドセットFOVE 0とヘッドフォン,さらに筑波大学岩田洋夫教授による全方向タイプのトーラストレッドミルmini,手を引いてくれるハンドデバイス,(霧吹きと聞いていたのだが)水煙を発生するデバイス,匂いを出すVAQSO VR,風を送るサーキュレータというフルシステムを体験できた。というか新たに心電計,脳波形まで加わっていた。
 すでに何度か紹介しているコンテンツなのだが(関連記事),これだけ大規模なVRコンテンツも珍しく,とにかく詰め込んだ要素が多いというか,語ることがたくさんあるのでここでまとめてみたい。

 まず,非常に大掛かりな歩行装置,トーラストレッドミルは,ベルトコンベア(乗っていると左右に動く)をたくさん並べて,そのベルトコンベア自体をキャタピラのように前後に駆動させるという仕組みで,360度どの方向にでも動けるというシステムだ。
 周りが見えない状態だと,本当に歩いて大丈夫なのだろうかと心配になるのだが,とりあえず手を引かれて歩いてみるとどこにぶつかるわけでもなく,普通に歩いていける。足を滑らせたりといった違和感はなく,まさに一家に一台ほしいようなデバイスではあるが,残念ながら世界に2台しか存在しない。
 本来は上に乗った人の動きを検知して,その移動量をなくす方向に床を動かすシステムなのだが,今回は映像に合わせて床を動かすという使い方がされている。たぶん立ち止まったままだと危ないかもしれない。しかし,コンテンツ内容が「手を引かれる」というものなので,手をつないだまま床が後方に動くと前に手を引かれているような感じで自然と歩いていくことができる。今回のコンテンツで「手」が果たす役割はかなり大きい。


あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート
 さて,次にその「手」だが,木製の多関節構造で触った感じは女性の手には思えないのがやや残念だ。もっといい「手」もあるとのことだが(Mikumiku握手のアレか?),予算の問題でこうなったそうだ。以前見たビデオではゴム手袋のようなものをはめていたのだが,今回の取材時には木のままだった。

 そうして手を引かれ歩いていくと,要所要所で風が吹いてくる。取材時は会期前日の会場設営中で空調も利いてなかったためとても爽快だった。外から見る分には右手側に霧吹きらしきものも動いていたのだが,体験中には感じ取れなかった。
 このデモにはBAQSO VRの匂いデバイスも使われているのだが,ファンを使って風を送ると,匂いはほぼ飛んでしまって感じられない。今回は3種類あるはずの香りのうち2種類しかちゃんと確認できなかった。
 ちなみに先日のBAQSOの発表会で動かないバージョンを体験したときに(関連記事),内容とマッチしないおかしな匂いだと思ったのだが,そのときの一部の匂いが間違いというか,別のデモの匂いが残っていて変なことになっていたのだそうだ。「なぜここでチョコレート?」という謎な展開はやはり正常ではなかったようだ。

VRヘッドセットはFOVE 0。その下についている黒い箱がにおいデバイスVAQSO VRだ。耳の上にあるのが脳波センサー
あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート
 今回の新装備である脳波センサーと心電計なのだが,私の体験時は心電計を使わなかったので動作はよく分からなかった。このデモは,新鮮な気持ちで体験してもらいたいという制作者側の意向から,内容についてはあまり公表されていない。通常のデモなら,どんな体験をしているのかMR表示したり,ソーシャルスクリーンに出したりといったアピールでギャラリーにも楽しめる要素を加えることができるのだが,この作品ではあえてそういうことはやっていないわけだ。
 代わりになにか見て楽しめるものをと考案されたのが脳波表示だそうだ。脳波から体験者のさまざまな感情を解析してディスプレイに表示していくのだ。体験中は,漢字の書かれたボールが画面内を跳ね回る。同じ漢字のボール同士はぶつかると合体して大きくなり,一定時間経つと消えていくといった仕様だ。
 未体験の人にはあまり分からないかもしれないが,画面に大きな「瞑」が出てきたら,「あのあたりか」と体験済みの人なら察しがついたりする。急に小さな「怒」がわらわらと出てきたのは,周りを見回しすぎてトラッキングがずれたのだろうか。FOVEは前面のセンサーのみでヘッドトラッキングをするので,このデモの場合,ある程度ちゃんと前を向いておかないとトラッキングミスで画面がワープしてしまうことがあるのだ。手を握って歩いている間は後ろまで見回すようなことはまずないのだが,立ち止まると見回してしまう人もいるかもしれない。

あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート

 さて,このデモではマルチモーダルな刺激をたっぷり使った体験を満喫できるはずなのだが,ちょっと残念なのは映像だった。映像は立体視ではなくただの平面視360度映像である。ビットレートも低めな感じで映像が少しモヤモヤしている。大学の研究室が作ったデモであれば上出来だったかもしれないが,日本一の映像制作会社の作品としては正直どうかとも思った。予算と機材の問題で平面視になったそうだが,ぜひリメイクしてほしいところだ。

あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート

 ところで,一般に強制的なカメラ移動が行われるコンテンツだと,体験者の酔いを誘発しやすいのだが,今回のデモは大規模なトレッドミルを使って自分で歩くことで,強制移動的な映像を体感と一致させることに成功している。
 先日行われたVAQSOでのデモは立位で体験したのだが,とくに酔いは発生しなかった。ほぼ前方への直進と停止のみ(一部で斜め歩きもあるが)という構成と歩きの速度が自然だったことなどもあるのだろうが,体験自体の没入感がイマイチ足りてなかった可能性にも思い当たった。平面視での没入感は立体視に大きく劣る。カメラをすごく引きにすると酔いは発生しないとか,視野角を狭くすると発生しにくくなるとか,没入感を上げないことをVR酔い対策とする(ある意味本末転倒的な)ノウハウもあるのだが,没入度が低ければ酔いの影響が少ないというのは確実に言えることである。「気持ち悪くなったときは片目を閉じてください」というアドバイスもあるくらいだ(逆効果な人もいるらしいので注意)。
 VR感覚のほとんどは視覚によるものであり,風や匂いは視覚を補佐するものでしかない。現状では本体が弱くてシステムの真価が発揮できてないように思われる。ということで,このコンテンツは立体視バージョンが出てきたらまた化けそうな感じである。

AOI Pro.公式サイト



リアチェンvoice:機械学習で誰でもアニメ声に


 機械学習を用いて,マイクで入力した音声をリアルタイムで声優さんの声にして出力してくれるというのがクリムゾンテクノロジーの「リアチェンvoice」だ。
 現状のものは誰の声でも変えられるというわけではなく,一定の台本を声優さんに読んでもらって録音し,それと同じ台本を使用者が録音したデータとマッチングを行って学習データを構築しておく必要がある。学習データはどんなしゃべりにも対応できるものではあるが,実際に使うセリフがあるなら台本に入れておくと精度が上がる。

 その効果についてはデモの様子を見ていただくのが一番だろう。


 ちょっと苦しいかな? と思うようなものもあれば,かなりハマっているものもあるように思われる。元の声質が似てない場合は全体に苦しくなりがちか。このあたりは学習精度が上がることで改善される可能性もあるだろう。
 製品としては,標準版とプロ版が用意されており,標準版ではあらかじめ用意されているキャラクター,タクヤ,リサ,ゴンタという3種が利用できる。プロ版ではオーダーメイドでキャラクターの声を作ることも可能だ。
 声の変換はスマホ(iOS)単体でも実行できるが,マイク,スピーカーがあったほうがいいだろう。一つのボイスに対して複数人の話者を登録することも可能だ。将来的には,話者登録の部分を軽減できるようにしたいとのことだった。

 これがどういう用途で使えるかというと,結構具体的だった。遊園地などに出没する正義のヒーローはたいてい無口なのだが,こういったものを使うと来場者とコミュニケーションできるようになる可能性がある。もちろん中の人などいないわけだが,なぜか可能性がある。ご当地キャラや球場などにいるコアラやペンギンもしゃべったりする日がくるのかもしれない。
 以前4Gamerの「FaceRig」の記事では,ゲーム実況でおっさんが美少女になりきるのにボスチェンジャーを使うといった話もあったが(関連記事),AI技術を使うことで単に甲高い声ではなく,きちんとしたキャラクターボイスで会話できるようになることも夢ではないだろう(望ましいかどうかは別として)。

クリムゾンテクノロジー公式サイト



東京弁護士会:AI運用にもコンプライアンスを


 AI・人工知能EXPO会場では東京弁護士会がブースを出展していた。
 「なぜ弁護士会が?」と不思議に思う人もいるだろうが,ビジネスに機械学習を導入するに当たって法的にクリアでない部分が多くあるという。
 まずはデータの種類にもよるだろうが,学習元データでのプライバシーなどの問題だ。機械学習のデータとしてアンケート結果や顔写真などを使うものもあるが,データの入手と利用の過程で法的な問題はクリアしているか
 次に著作権の問題だ。たとえばゴッホやシャガールの絵の特徴を機械学習させて,絵や写真をゴッホ調にするなどの事例は有名だが,そうやって作られた作品の著作権はどうなるのかといった問題だ。もちろん対象はデータであれば絵に限らない。
 CEDECなどの発表でも,ネットからクローリングしてきた画像から機械学習を行うようなものがあったが,現在ではデジタルデータの入手は非常に簡単だ。研究段階ではともかく,ビジネスレベルになってくると法的な問題を意識したほうがいいのはいうまでもない。
 さらに,学習データを使ってリコメンドなどをした結果,被害・損害をこうむったとしたら誰の責任なのかといった問題もある。自動運転で事故が起きたら責任は誰にあるのかといった議論と似ているが,法的な解釈がまだ整備されていないのが現状だ。運用中に差別用語を覚えてしまったチャットBotが運用停止になった案件など,倫理的な部分でも問題が発生する可能性があり,責任の所在が問われることになる。
 既存の法の解釈ではどうなるのか,企業として問題はないのかなどAIビジネスで弁護士が必要になるケースもあるということだ。AIをめぐる状況では,まだまったく法的にカバーされていない部分もあるという。AIにもコンプライアンスを備えた運用が必要だと弁護士会では啓蒙を行っていた。

東京弁護士会公式サイト



DataRobot:機械学習の運用を自動でやってくれる?


あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート
 AIブームともいえる状況で,混雑の激しいAI・人工知能EXPO場内でひときわ人だかりが多い一角でデモされていたのが,新日鉄住金ソリューションズのブースだった。主役は米DataRobotの「DataRobot」という製品だった。
 最近は機械学習のライブラリが充実しているので,配列データを適当に入力していけば,一応出力も出してくれるだろうが,予測データの精度はまったく担保されない。機械学習の運用では,データのうちこういった部分を抜き出して学習させれば効率がいい,こういう下処理を行うと精度が上がるといったモデル化のノウハウを積み上げて実用レベルに仕上げていくわけだ。機械学習の研究は,この部分がキモになると言っていいのだが,DataRobotは,まさにその部分を自動化していくれるという代物なのだ。
 モデル化を簡単にするアプローチはいくつかあるが,DataRobotは完全に自動であり,デプロイまで自動でやってくれるといったあたりで,データサイエンスに詳しくない企業でもデータの高度な活用ができるパッケージになっているとのこと。
 DataRobotはデータを解析して,いくつかのモデルを推奨してくれるものになっている。高速だけど精度はやや落ちるもの,高精度だけど時間が掛かるものなどをニーズに合わせて選択できるという。
 扱えるのは,数値化されてCSVになっているものならなんでもOKとのことで,ゲーム業界が多く扱うような,オンラインゲームやスマホゲームのKPI予測などはほとんどCSVになっているので,そのままいけるだろうとのことだった。
 将来AIによって多くの人は職を奪われるといった話がされることもあるが,その中でAI自体を使うデータサイエンティストは安泰な職業だと思われていたかもしれない。しかしデータサイエンティスト自体がすでに自動化の対象になっているとは……。

DataRobot公式サイト



One JAPAN:脳波で花を咲かせよう 


 AI・人工知能EXPOの一角でロボットを使って瞑想を指導するというデモが行われていた。
 まず基本状態の脳波から,その人の特性を割り出し,花の種類が決まる。つぼみ状態で表示された花を瞑想によって咲かせていくといった内容だった。
 複数人で同時に行うコンテンツとなっていて,3通りの方法で順に瞑想を行っていく。それをナビゲートするのが中央に置かれたロボットだ。ロボットは瞑想度が一番低い人を対象にアドバイスを行い,全員の瞑想度を上げていく。
 これには協調度を上げる効果もあり,会議の前などにやるのがよいのではないかとのことだった。瞑想のナビゲートをしてくれるのがロボットなわけだが,別にロボットいらないのではという疑問もあったので聞いてみると,ロボットがナビゲートするほうが人間がやるより抵抗がないのだとのこと。

ロボット(左)と開発中という小型の脳波センサー
あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート

 脳波から解析される感情には色が割り当てられており,基本的にポジティブな感情だと鮮やかな色,ネガティブな感情だと濁った色になるとのこと。瞑想度で花が開き,感情によって色が着いていく。
 最終的に,最大瞑想度のときの花の状態が表示されてスマホに転送されるといった内容だった。

あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート

 脳波の取得はかなり簡単になってきたものの,応用分野は限られている。このプロジェクトは,One JAPANという複数の企業体からの有志が中心となって進められている。リトルソフトウェア,富士ゼロックス,マッキャンワールドグループホールディングスなどが共同して,脳波の新しい利用法が模索されているという。

One JAPAN公式サイト


3枚の液晶を張り合わせたディスプレイ。上部はバックライトの上に透明な液晶版を一部重ね合わせるように張り合わせている。本来重なった部分は明度が変わってしまうのだが,AIを使ってその部分を目立たないように補正しているのだという。張り合わせがいくらでもできるようになれば,画面サイズも無制限になる?
あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート

パナソニックの220度視野のVRヘッドセット。内部は3画面構成となっており,通常の画面の左右に1画面ずつつながっている感じだった。継ぎ目は見えるといえば見えるが,画面の端のあたりなのでさほど気にならない。むしろ上下短がボコボコしている(弧が3つ)ほうが少し気になるか。左右の視野は完全に視界を超えている。端のあたりは実際よく見えないのだが,臨場感には十分寄与していた。上下もなんとか広げてほしいところだなあ
あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート

着ぐるみアニメーターKiLAのデモ。リアルタイムモーションキャプチャで3Dキャラクターを動かし,音声に対して自動リップシンクも行われる。デモではキズナ・アイのモデリングデータを使用していたが,もちろんキズナ・アイはスーパーAI(自称)なので,中の人がいるわけではないことになっている
あんなことやこんなこともできるVRやAIの新展開,コンテンツ東京2017レポート

コンテンツ東京2017公式サイト