[CEDEC 2017]「乖離性ミリオンアーサーVR」に見るVRリアルタイムCGアニメーションの作り方
VR特有の壁(特性・課題)について
まず,「優れたVRコンテンツを短期間で制作するためには,メンバー全員でVRの特性と課題を理解することが大変重要です。もちろんVR酔いなど特有の問題も多数ありますが,今回はこの1点に絞って考えていきたいと思います」という言葉から亀山氏はセッションをスタートした。そのVRならではの特性として理解しておきたいのは,VR空間での体験演出の良し悪しは,体験して分かるものであり,VR環境でチェックして初めて分かる良し悪しが多くあるということだ。ゲームにおいて見せる演出を構築するためにさまざまな要素が構築する必要があるが,いくら事前に綿密なすり合わせを行っていても,それがVRで確認する前段階である場合は,その検討や議論が無駄になりやすいという。まずは,この認識を開発メンバー間で持っておくことは非常に大事だとのこと。
手戻りの少ない効果的な制作フロー
VR環境で確認する前になにか決めても無駄になりやすく,かといって決めるべきことは決めないと進めることもできない。この問題を解決するためにはどのようにしていけばいいのか,続いて福田氏が,手戻りの少ない効果的な制作フローについて,実際に起こった出来事を挙げつつ,その問題と改善策を話してくれた。
まず具体例の一つとして挙げてくれたのが冒頭で紹介した「乖離性ミリオンアーサーVR」の制作初期の出来事だ。VRシーンの内容を時間をかけて絵コンテですり合わせ,実際にVR環境へ落とし込むというプロセスを踏んだときに,絵コンテで分からない問題が非常に多く,VRでの確認までに時間をかけてしまうことの危険性を感じたという。
実際の制作フロー自体は,最初に絵コンテで内容をメンバー間ですり合わせ,Mayaなどでレイアウトやモーションを作り,Unityでシーンを構築して初めてVRで確認できるという,いわばゲーム制作ではごくフツーのものである。しかし,VR環境で確認を行ったときにたくさんの不具合が初めて分かり,最悪絵コンテの修正まで戻ってしまうということが実際に起きたという。
さらに問題があったのは,モーションキャプチャを使っていたシーンだった。すでにモーションはできているため,モーションを取り直さない限り,そもそも絵コンテを直すところまで戻りたくても戻せない事態も発生したようだ。
ワークフローの改善
このような手間と時間を無駄にする危険をはらんだ制作フローをどのように改善したのか。
「まず最初にコンテ+レイアウト図というものを設けます。ただし,ここではあまり時間をかけません。一番大事なのはVRで確認するところなので,すぐに簡易Animatics(テスト映像のような意)というものを作り始めます。ここでは,簡易的なマップであったり棒人間のような簡素なアセットで,レイアウトとタイミングをFIXさせていきます。VR確認をして問題がなければ次のステップのAnimaticsへ進み,こちらで細かいところをFIXさせて,最終的に本政策ということで,ディテールを仕上げていくという風にしました」(福田氏)
ポイントは,制作段階を簡易Animatics,Animatics,本制作という具合に分け,その都度VRでの確認を行っていった点だ。これにより作業の巻き戻りのリスクを抑えることができたという。
続いて福田氏が,具体的にそれぞれの作業はどのようにしたか解説してくれた。
まずは,コンテ+レイアウト図。ここで,内容とレイアウトのすり合わせを行い,各シーンのカット内容を定義していくのだが,演出内容,セリフTOP視点のレイアウトという形で決めていくという。一番大切なところは,TOP視点のレイアウト図だ。カメラがどちらを向いていて,キャラがどこにいるという感じの簡素なもので,20秒くらいのシーンであれば,1日で大まかななすり合わせまで進めたそうだ。
次にレイアウトとタイミングを確認するための簡易Animaticsを制作する。シーンに登場するキャラクターの配置と,それらの大まかな動きとタイミング,つまり,キャラクターの配置や向き,そしてサウンドのタイミング,レイアウトに影響するようなエフェクトの数やサイズといったボリュームが決められる。ここで用意するものは,基本,棒人間のような簡素なモデルだが,衣装のボリュームがあるキャラクターなどレイアウトに影響が出るものは,ある程度再現しておくのだそうだ。
レイアウトとタイミングがFIXされたら,Animaticsへ。ここでは,キャラの演技をラフモーション(手付け)をつけながら確認する。ポーズによって演技自体に問題がないか,動いたことによってシーンレイアウト的に問題が出ないかを確認し,これを詰めたらモーションキャプチャに入るという。動き,表示すべきものを詰めて,ここでようやく詳細なモデルやシーンに配置されるエフェクトや,聞こえてくるSEなどが見えてくるので,用意する必要のあるアセットリストを更新する。
それぞれのパーツができ上がってきたあとの本制作では,アセットを組み上げてシーンを作り込んでいくことになる。最終段階ということで,主に処理負荷を確認しつつ,VR体験として成立するように各要素を調整していくようだ。
このように問題があったフローを改善してどれくらいの効果があったかというと,制作開始時点では3か月くらいかかってようやく1シーンできたのが,このフローに変えてからは5か月で6シーンくらい制作できたという。
アーティストのみで完結する作業の仕組みを用意
このフロー全体の改善以外にそれぞれの作業工程の中でより効率的にするため,エンジニアの手を借りることなくアーティストだけで作業できる仕組みを用意したという。その一つが,簡易Animatics,Animaticsの段階で,作ったものを即VR環境で確認できるようにしたことだ。シーンにいるキャラクター群を一つのFBXとしてUnityへ出力することで,アーティストがMayaで作ったシーンを,即座に確認・修正できるようにしたのである。
特別なことではないが,こういったちょっとしたことで,スクリプトの苦手なアーティストでも「ここのオペレーションを1人で回すことができた」(亀山)となったのは大きいという。
もう一つ,制作にあたって用意されたのがMayaのVive用Plugin「MARUI」だった。これは,MayaシーンをHMDで見て,リアルタイムで操作した内容をVRで見た目を確認できるよにするものである。実際のUnityで組み上がったものと見え方が少し違っていたり,遠景までは確認できないようなので,あくまで限定的な利用にはなるが,ディレクターなどにHMDをかぶせてVR環境を見せつつ,アーティストなどと会話しながらリアルタイムに「もうちょっと右だとか,もう少しタイミングを遅らせて」といった指示を反映できるため,かなり効果があったようだ。
VRにおける演出の発想方法
次に必要なのは,シーン冒頭に必ず周囲を見回す時間を設けることだ。プレイヤーがHMDをかぶったあとは,自分のいる世界がどこで,いったい何をすべきかを確認できる時間が必要になる。ゲームを始めたら,まず見回す時間を設け,そのあとで,どこを見ているか分からないプレイヤーを見せたい要素へ誘導する演出を入れる。そうすることで,混乱せずにスムーズにゲーム進行ができるという。
また,VRでは,メインカメラはプレイヤー自身になるため,カメラワークという概念がない前提で演出を考える必要がある。視点の強制移動などは,プレイヤーの頭を振り回すことになるため,通常の映像演出で使われるパンやバンクといった手法は,やってしまうと即,VR酔いにつながってしまう。まず使えないと思ったほうがいいようだ。
VR表現のガイドライン例
最後にVRタイトルの制作を通して得られたVR表現のガイドライン例について紹介。VR作品を作る際に必要なこと,やるべきことを見ていこう。
環境にもよるが,プレイヤーは移動や身を乗り出すなどして,いくらでも自由な行動ができてしまうため,状況によっては3Dオブジェクトの中に顔を突っ込んだりすることも可能である。このため,モデルとの衝突判定をちゃんとして,頭が入る前にブラックアウトさせるなどの行動制限を設けておく必要がある。
字幕の文字列もVR空間だとその世界に存在するオブジェクトになるため,単に上下左右の位置に置くだけでなく,奥行きも考慮して配置を検討する必要がある。
とくに目から50cm以内に配置するとプレイヤーのストレスになるので,それは避けるべきとのこと。また,距離だけでなく視界に追随させたり,空間内とのオブジェクトの接触の際にどうしたらいいかなども細かく詰める必要がある。
VR特有の壁を超える
ショートセッションということでやや駆け足の印象もあったが,ワークフローから,演出,処理負荷まで,VRを手掛けるための有用な基本情報が,ぎゅっとまとまったセッションだった。