-
Notifications
You must be signed in to change notification settings - Fork 38
What is this
まずは、説明動画を見てみてください。
以下のことができます。
VR機器を買った人なら、一度はUnity上で自分の体を動かそうとすると思いますが、SteamVRの導入や設定、IKの導入、スクリプトを書き...と、やってみると大変な作業です。
3点トラッキングならともかく、フルトラッキングはなおのこと大変で、動きが変になったりしますし、1体のアバターならともかく、複数体を変えられるようにしたり、複数人同時に動かそうなんてしようものなら1つの製品並みに大変です。
アバターをおいて、カメラとライトと家具を置いてVTuberのように撮影したいだけなのに!プログラムなんて書かずにワールド作るくらい簡単に作りたい!
EVMC4Uでは、バーチャルモーションキャプチャーのOSCモーション送信機能を利用しこの問題を解決します。
トラッキング・キャリブレーション、手や足の動き、表情の操作、視線の操作などをすべてバーチャルモーションキャプチャーでやってもらい、その結果だけを受け取ってUnity内のアバターに反映します。
バーチャルモーションキャプチャー側の設定と起動が必須なのを引き換えに、VR対応すら不要になるというわけです。
これにより、Unity側では軽量単純なスクリプトを1つと、いくつかのライブラリを導入するだけで、極めて簡単にアバターを動かすことができます。
OSC通信を使用していますので、複数台のPCを用意してつなげる(あるいはバーチャルモーションキャプチャーを同時に起動するかすれば)、複数体のアバターを同時に1つのシーンで動かすことも可能になります。(インターネット経由で動かしてる人もいるらしい)
アバターは動くようになりました。でもカメラを操作しないといけません。
Unityのカメラの制御は、アニメーションを付けるか、スクリプトで動かすか。でも、バーチャルモーションキャプチャー単体で撮影するみたいに簡単に操作できたら便利ですよね。
バーチャルモーションキャプチャーには、トラッカーをカメラとして使う機能もあります。
というわけで、バーチャルモーションキャプチャーのカメラ制御データもUnityに送っちゃいました。
受け取りたいカメラを登録するだけで、バーチャルモーションキャプチャーと全く同じように動きます。