Skip to content

What is this

gpsnmeajp edited this page Oct 21, 2019 · 8 revisions

これは何ができるの?

まずは、説明動画を見てみてください。

以下のことができます。

体の動きをUnity上に反映する

VR機器を買った人なら、一度はUnity上で自分の体を動かそうとすると思いますが、SteamVRの導入や設定、IKの導入、スクリプトを書き...と、やってみると大変な作業です。

3点トラッキングならともかく、フルトラッキングはなおのこと大変で、動きが変になったりしますし、1体のアバターならともかく、複数体を変えられるようにしたり、複数人同時に動かそうなんてしようものなら1つの製品並みに大変です。

アバターをおいて、カメラとライトと家具を置いてVTuberのように撮影したいだけなのに!プログラムなんて書かずにワールド作るくらい簡単に作りたい!

EVMC4Uでは、バーチャルモーションキャプチャーのOSCモーション送信機能を利用しこの問題を解決します。

トラッキング・キャリブレーション、手や足の動き、表情の操作、視線の操作などをすべてバーチャルモーションキャプチャーでやってもらい、その結果だけを受け取ってUnity内のアバターに反映します。

バーチャルモーションキャプチャー側の設定と起動が必須なのを引き換えに、VR対応すら不要になるというわけです。

これにより、Unity側では軽量単純なスクリプトを1つと、いくつかのライブラリを導入するだけで、極めて簡単にアバターを動かすことができます。

OSC通信を使用していますので、複数台のPCを用意してつなげる(あるいはバーチャルモーションキャプチャーを同時に起動するかすれば)、複数体のアバターを同時に1つのシーンで動かすことも可能になります。(インターネット経由で動かしてる人もいるらしい)

カメラを簡単に制御する

アバターは動くようになりました。でもカメラを操作しないといけません。

Unityのカメラの制御は、アニメーションを付けるか、スクリプトで動かすか。でも、バーチャルモーションキャプチャー単体で撮影するみたいに簡単に操作できたら便利ですよね。

バーチャルモーションキャプチャーには、トラッカーをカメラとして使う機能もあります。

というわけで、バーチャルモーションキャプチャーのカメラ制御データもUnityに送っちゃいました。

受け取りたいカメラを登録するだけで、バーチャルモーションキャプチャーと全く同じように動きます。

動きをなめらかにする

コントローラーやキーボードの操作を受け取る

Clone this wiki locally