[GTC Japan]高精細データでデザインコラボレーションができるNVIDIA Holodeckとはどんなものか?
ここではVRを使ったソリューションとなる「NVIDIA Holodeck」関係の話題を紹介してみたい。まずは,Holodeck関連セッションからだ。「フォトリアリスティクと VR を完璧に融合した NVIDIA Holodeck のご紹介」と題して,このHolodeckについてNVIDIA本社からDirector of Professional VRであるDavid Weinstein氏が来日し講演を行った。
そもそもの「Holodeck」(ホロデッキ)というのは,Star Treckに登場するVR風デバイスで実物にしか見えない風景を生み出す部屋のことである。最初はバーチャル会議システムの究極形みたいなものだったようだが,だんだんわけの分からない様相を呈している。ドラえもんでいうと,どこでもドアやもしもボックスに近い。
NVIDIAはVRコラボレーションシステムとしてNVIDIA Holodeck(以下Holodeck)を発表している。どんな感じのものなのかは,PVを見てもらうのが分かりやすいだろう。
さて,このような図は何度か見てきたことのある人も多いだろう。VRを使って目の前に実物大の模型を表示し,複数人でデザインなどを検討していくといったことは,VRがCADや設計分野で注目されるようになって真っ先に検討されるようになった類のものだ。
そういったものとHolodeckにはどういった違いがあるのか?
簡単に言うと,画質ほか,データクオリティが非常に高く,それを再現しきるだけのハードウェアを投入するという点がまったく違っている。これだけの質感は非VR系CGでもそうそうないだろうといった感じのものが,リアルタイムしかもVRで展開されるのだ。「リアリティ」というのはHolodeckで主要なテーマとなっているものでもある。
PVに出ていたKoenigsegg REGERAの場合,5000万ポリゴンという膨大なデータが使用されており,それが処理できるGPUが使われるのがそもそもの前提だ。
NVIDIAは,未来のデザインラボというキャッチフレーズでHolodeckを開発している。プロのデザイナーはきわめて高品質のVRを必要としているとWeinstein氏は語り,その3要素,すなわち「フォトリアル」「精巧際さ・正確さ」「インタラクティブ性」の3要素が必要になるとした。
こうした要件を備えて作られたVRデザインツールがHolodeckだ。Holodeckが実現したのは,フォトリアルなグラフィックス,インタラクティブな物理演算,リアルタイムコラボレーションなどだ(一連の要素の最後にある「GPU Accelerated AI」についてはちょっと毛色が違うのでコラムにまとめておいた)。
使われているミドルウェアにはNVIDIAによる3つのモノ,すなわちVRWORKS,DESIGNWORKS,GAMEWORKSがある。
まず,VRなのでVRWORKSが使われているのは当然として,DESIGNWORKSは主に物理ベースシェーダのマテリアル関連で使われている。さらにリアルタイム処理なので,GAMEWORKSもさまざまな部分で使われている。ムービーや会場でのデモでは確認できていないが,物理演算を扱うPHYSXだけでなく流体を扱うFLEXやFLOWも組み込まれているので,今後はもっと多彩なシミュレーションがデモされることもあるのだろう。
VR空間で複数人が共同作業を行う際に重要になるものが2つ挙げられた。プレゼンスとアセットの同期だ。VR空間内に登場する人物に実在感が感じられないと円滑なコミュニケーションは難しくなる。今回のHolodeckに登場するキャラクターは上半身のみという設定だが,手の動きなどが自然で,制御法はよく分からなかったが顔にも表情がある。ロボットぽいキャラクターではあるが,全体に非常にリアルな描画なのも奏功しているのかもしれない。
Holodeckでは最大で3人が共同作業を行うことができる。デモ会場の構成では1台がサーバーを兼ねてコミュニケーションを取り仕切っていた。もちろん,それぞれのユーザーごとにレンダリングが行われるので,それぞれですべてのアセットが入ったPCが必要になる。エディットで発生したアセットなども素早く同期される必要がある。このあたりの通信制御もポイントではあるようだ。
デザイナーというのはそれぞれがすでに自分のワークフローを持っているものなので,Holodeckもそれに適合するように作られたという。CADツールからのデータに,適切なマテリアル設定を加えてHolodeckで確認という流れだ。NVIDIAでは物理ベースレンダリング用に多くの素材データを保有しているので,それらを割り当てるか,実際の素材用にデータを作るなどすれば,実物とほとんど変わらない見た目の映像をVR空間に再現できる。Holodeckを使えば,離れたところにいるデザイナー同士が同じ空間にアクセスして共同作業を行うことが可能だ。回線の遅延の影響はあるかもしれないが,日本とアメリカといった遠距離でも対応できるという。
なお,現段階ではまだまだ初期バージョンとのことなので,今後はさらなる機能も追加されるのだろう。
ゲーム用としては少々オーバースペックだが,超高精度でのVRデザイン環境はやがてはゲームでも活用されるようになるのだろうか。VRの未来を示す一つの方向性として注目したい。
GPU Accelerated AI
たとえば人間サイズのロボットを想定した場合,それに歩行を教えるとして,万一転倒でもしたら結構大事になる。ロボットの破損や周りの安全を考えるとそう気軽にはできないのは分かるだろう。そもそもロボットを作るのも大変だが,VRでなら,複数の場所で並列して教育していくこともできる。
ところで,GTC会場では実物のロボットを使ってVR HMDをかぶった利用者の動きをトレースしてAI学習をさせるデモも行われていた。さまざまな食材が置かれており,ゴム手袋をはめたマニュピュレータで食材を取って料理を作るというもののようだった。
「はい。そのレタスのところでゆっくり手を降ろして……」
(グシャ)
あたりは微妙な空気に包まれていた。
VR空間内でならこういったことも,より気軽にできるようになるだろう。
そうこうしてIssacを通して構築された学習データは,実際のロボットにフィードバックするようなことも可能になるという。
もちろん,このようなことをするためには,仮想空間でかなり正確な物理シミュレーションが行われている必要がある。実用に耐える精度でそういった処理を行うというのもHolodeckの特徴の一つといえるだろう。