Stingray(VRテンプレート)の持ち上げ処理を調べてみる
(離す処理)


前回、ついに『持ち上げる処理』の実装を全て見終えました。
しかし、これまで見た処理はあくまで『持ち上げる』というだけの処理です。

今回は、『持ち上げたものを離す』処理を最後まで見ていきます。



■ Un-link – Release



赤の部分は『トリガーが離された時』に実行されています。
画像だとやや見づらいので、
この画像を更に黄色・オレンジに区切って詳細に見ていきます。

①離したコントローラがリンクされているかチェック



まずは、持ち上げている状態かどうかを表す変数『is_linked』
true(持ち上げている状態)なのかをチェック、
『ユニットを持ち上げているコントローラ』『トリガーを離したコントローラ』が同一かもチェックします。

②コントローラとのリンクを外し、加速度を設定する



続いて、『SteamVR Unlink Node From Tracker』ノードで
ユニットとリンクしている対象(コントローラの持つ持ち上げ関数)とのリンクを外します。
その後は『SteamVR Set Actor Kinematic』で自由に動かせないようにします。

直後の『Set Actor Velocity』ノードには
前々回に登場した変数『wand_velocity』の値をセットしています。

『Set Actor Velocity』ノードは引数のユニットのアクタに対して引数の分だけの速度を設定します。

変数『wand_velocity』はコントローラの持つ加速度を表しているため、
離した時点での加速度がそのままユニットの速度になっているということになります。

加速度の設定が終わったら変数『is_linked』をfalseに変更、
ユニット自身の『Unlinked』イベントを実行しています。

『持ち上げたものを離す』という処理はこのように実装されていました。

一応、この先にもいくつか処理が残ってはいますが、『離す』処理はここで完了です。



■ Hide – Unhide the Controller



ここでの処理は『物を離した後、コントローラを可視状態にする』というものです。

これはVRテンプレートのバットのユニットフローを見ないとわからないのですが、
一部のユニットは『linked』イベントの処理で
『コントローラを不可視にする』
という実装がされています。
ここで可視状態にするという処理を行っていない場合、
バットを離した後でもコントローラが見えないままという問題が発生するため、
この実装が行われています。

ちなみに、ここで使用されている『Set Unit Visibility』は以前使用した時とは異なり、
ユニットそのものを引数で設定しているため、ユニット全体の可視・不可視を変更できています。



■ set_invisable



その下にある『Event for Hiding the Wand』から続く処理は
『External In Event』ノードから始まる、独立したイベントです。

先ほどの説明で出てきた『コントローラを不可視にする』という処理はここで行われています。
つまり、
コントローラによってバットが持ち上げられる
→バットの持つlinkedイベントが実行される
→バットのlinkedイベントの中でコントローラのset_invisableイベントが実行される
という処理の流れになっています。

一旦両方のコントローラを可視状態にしてから、
不可視に設定するコントローラだけ不可視にしています。
使用しているノードは可視の時から変わりません。



以上で、コントローラの持ち上げ処理は全て見終えることができました。
残っているコントローラ関連の処理はテレポートのみとなります。
残念ながら、StingrayのVRテンプレート調査はこれで終わりですが、
ここまで基礎を理解することができれば、
きっとテレポートの処理を理解することも簡単だと思います。

今まで、ありがとうございました。

Stingray(VRテンプレート)の持ち上げ処理を調べてみる
(持ち上げ編)


今回も引き続き、『物を掴む処理』を見ていきます。
次回を含め、覚えることが盛りだくさんです。



画像の中の青い部分は前回にやった『物に触れている間の処理』です。
緑の部分はまだ特に触れてはいませんが、
基本的にいつも通りの入力(トリガー)を拾う処理の為、割愛します。



■ 状態のチェック

コントローラのトリガーを引いた際にオレンジの部分の処理が行われます。



ここでは、触れている物の状態をチェックし、『持ち上げることができるか』を判定しています。

◯ Is the Wand Touching an Object?

最初に、変数『wand_is_touching』の値で『Branch』ノードを実行しています。
この変数は前回の『Physics Trigger』の処理で何かに触れている時にTrueに変更されています。

つまり、『何かに触れているか』をチェックしています。

◯ check for no pick up in unit data

Trueならば今度は変数『touching_unit』の値が持つ『pick_up』のデータと『no』を
『Compare Objects』ノードで比較しています。

『Compare Objects』ノードは、A・Bに渡された値が同じであるかどうかを返します。

まとめると、ここでは
『触れているユニットが持つ持ち上げられる物体かどうかのデータを見て、その内容がnoであるかどうか』
をチェックしています。

◯ Is the Actor Dynamic?

上記処理で等しくなかった(noではなかった)場合、
『Is Actor Dynamic』ノードの結果がTrueであるかという処理を行っています。

『Is Actor Dynamic』ノードは、『Actor』に指定された物体が動的であるかどうかを返します。

つまり、『持ち上げようとしている物体が動かせるものか』という確認になります。

ここまでの処理で、『物体を持ち上げるまでの確認』が完了しました。



■ Attach the Object to the Wand



続いて、物体を持ち上げる処理を見ていきます。
画像の中の黄色のエリアですが、
かなり量が多いので幾つかのグループに分割して処理を見ていきます。

①対象を動かせるようにする



まず、『SteamVR Set Actor Kinematic』を使用して、対象を自由に動かせるようにします。

②スナップをきかせるかどうかをチェック



続いて、現在触れているユニットがスナップをきかせるような物(バット)であるかをチェックするために、
触れているユニットが持つ『snap』というスクリプトデータが『yes』かどうかをチェックしています。



『snap』が『yes』である場合、
『preserve_world』をFalseに変更し、
ユニットのローカル位置とローカル回転を0に変更しています。
こうすることで、どんな状態の物を拾っても必ず同じ位置、同じ向きに向くようになります。

『snap』が『yes』以外であった場合、
『preserve_world』をTrueに変更します。

どちらの場合でも終了後は次の処理に遷移します。

③リンク付けを行う



次は『SteamVR Unlink Node From Tracker』を使用して、
現在手に触れている物のリンクを外しています。

その後、コントローラに対してユニットのリンク付けを行います。

④各種イベントの実行と変数の設定



最後に、リンク付け後に必要な処理を行っています。
コントローラがリンク中であるかを示す変数『is_linked』をTrueにしてから
『Sequence』ノードに続いています。
『Sequence』ノードは上から順に繋げられた処理を実行するというものです。
実装に必須な処理というわけではありませんが、
『Flow』の可読性向上に役立つことが多いです。

持ち上げたユニットの『pickup_sound』イベントの実行、
持ち上げられたユニットにコントローラの情報をセット、
持ち上げたユニットの『Linked』イベントの実行、
持ち上げたユニットの『hilight_off』イベントの実行。
という順に行っています。

こうすることで、『対象を持ち上げる処理』は実装されています。
しかし、これだけではまだ『対象を手放す』事はできません。



次回は、『対象を手放す処理』を見ていきます。

Stingray(VRテンプレート)の持ち上げ処理を調べてみる
(前準備編)

今回からは、前回の最後に登場した『function_pickup』ユニットのユニットフローを見ていきます。

コントローラのユニットフローを見てもわかる通り、
『function_pickup』ユニットには『物を持ち上げる』という処理が実装されています。

早速、function_pickupユニットを見ていきましょう。

アセットブラウザから『vr_steam』->『models』->『functionality_pickup』の中にあるユニットを開きましょう。



なお、画像の赤四角のようなアイコンはユニットフロー単体を表しています。
こちらのアイコンをダブルクリックして開くとユニットエディタとは異なる
ユニットフローを編集するための『FlowEditor』が開かれます。

ユニットフロー以外の要素がなく、
ユニットエディタを開く必要がない場合はこちらを開いてもいいかもしれません。

そうして開かれた『functionality_pickup』のユニットフローが以下の画像です。



非常に膨大な処理ではありますが、少しずつ進めていきます。

今回、説明していく箇所は、以下の画像で赤・青・緑の枠の部分です。



■ 『Set Variables on Spawn』

青色の枠の箇所です。



『Unit Spawned』から始まっていることからわかるかもしれませんが、
ここでは一番最初に行うべき『変数の設定』を行っています。

以下の変数がここで設定されています。

————————————————
スコープ:型:名前
————————————————
ローカル:bool:touch_tracker:False
ローカル:bool:laser_on:False
ローカル:string:my_global_var:wand_extras_1 or 2
グローバル:unit:wand_extras_1 or 2:unit
グローバル:bool:keep_my_rotation_and_position:True
————————————————



■ 『Wand Velocity』

赤色の枠の箇所です。



『Level Update』にて常に行うべき処理が実装されています。

『Get Unit World Position』を使用して自分のワールド座標を取得し、
その結果を変数『wand_current_frame_pos』に設定しています。
変数『wand_current_frame_pos』は現在位置を表しています。

この部分では変数『wand_current_frame_pos』から
変数『wand_last_frame_pos』の値を減算した値に
『Get Last Delta Time』で取得した時間を除算、
その結果をユニットが持つスクリプトデータの『wand_velocity』
変数の『wand_velocity』に代入しています。

この値はコントローラの加速度を表しています。

ちなみに、まだ値をセットしている個所の説明をしていませんが、
変数『wand_last_frame_pos』直前のコントローラの位置をセットしています。

また、『Get Last Delta Time』
前回の更新から今回の更新までの間に経過した秒数を返します。

つまり、ここの計算は直前と現在のコントローラ位置を比較し、
その差の分を経過秒数で割り、1秒あたりの加速度を計算しています。

最後に、現在のコントローラ位置を
変数『wand_last_frame_pos』にセットしています。



■ 『Collision Events and Variables』



緑色の枠の箇所です。
『コントローラが特定のユニットに触れている間の処理』が実装されています。

ここの処理の始まりは『Physics Trigger』というノードです。

『Physics Trigger』ノードは『引数に指定したメッシュが特定の対象に触れた時』に呼ばれます。
また、その際に触れているユニットなどを返します。

ここでは、特定のユニットに触れた場合、下記の処理を一気に実行しています。

————————————————
触れた対象が持つ『hilight_on』イベントの実行、
触れている状態を示す変数『wand_is_touching』をTrueに変更、
触れているユニットをユニット変数『touching_unit』に格納、
触れているコントローラを表すグローバル変数『controller_touch_index』を設定。
————————————————

また、ユニットから離れた場合も下記の処理を実行しています。

————————————————
触れた対象が持つ『hilight_off』イベントの実行、
触れている状態を示す変数『wand_is_touching』をFalseに変更。
————————————————

これは、触れているユニットが目で見てわかるようにするための処理となっています。
触れている状態かどうかのフラグもここで立てているため、
ここまで実装できてようやく『物を掴む』処理の準備が整ったことになります。



次回はいよいよ本題となる『物を掴む処理』について見ていきます。

Stingray(VRテンプレート)のコントローラ処理を調べてみる
(リンクとスポーン)

前々回前回と続いてきた
StingrayVRテンプレートにおけるコントローラの実装調査ですが、
いよいよ今回で最後です。


最後ということで、キーになることも多いです。
ただし、ここで覚えることが
StingrayにおけるVR開発において最も重要なことになります。

最後はこの3つのグループになりますが、
実際は右2つのグループB,Cは左のグループAに繋がっているので、
大きな1つのグループと見ることができます。



一見ややこしいように見えますが、処理の内容自体はシンプルです。



※『link controllers』



画像内のグループAで、ここでの処理が終わると、
下で説明している2つのグループB,Cへと続きます。

①外部イベントの作成

ここの処理の始まりとなっているのは『External In Event』です。
このノードは独自にイベントを作ることができ、
外部からこのイベントが呼ばれた際に以後の処理が呼ばれるようになります。
(UnrealEngine4のカスタムイベントなどが近いです)

つまり、
『ここより後の処理はコントローラのユニットフロー単体では動作せず、
外部よりこのイベント(link_controller)が呼ばれた時にのみ実行される』

という事になります。

ちなみに、このVRテンプレートの場合、link_controllerの呼び出し元は
『steam_vr』という名前のLuaスクリプトになります。



それ以外でも『Level Unit』などのノードからも呼び出すことができます

②ユニットとコントローラのリンク

続いては『SteamVR Link Node To Tracker』ノードです。
このノードは『Link to』に設定されたHMDやコントローラの位置に
引数に指定したユニットのメッシュをリンクさせる(くっつける)処理です。

これまで、何気なくVR画面でコントローラを動かしていましたが、
VR画面でコントローラが見えていたのはこの処理があったおかげだったのです。

この先ではグループB,グループCに処理が分かれますが、
『どちらかを行う』などではなく、両方の処理を行います。



※『Spawn Pickup Unit to get the Pickup Functionality』



画像内のグループBです。
ここでは『物を持ち上げる為の前準備』を行っています。

①スクリプトデータをチェック

最初は『Branch』ノードが実行されます。
『Branch』ノードは引数として受け取ったbool型の結果によって
TrueかFalseに処理を分岐させるというノードです。
一般的なプログラムにおけるif文であり、
他のビジュアルスクリプティングにおいても同名で使用されているなど
これなしでプログラムは成り立たないほどの基本的なノードです。

今回はTrueなら処理を続け、Falseなら処理が終了する、といった形になっています。

②持ち上げ処理のスポーン

Trueから続く処理は『Spawn Unit on Position』ノードです。
このノードは引数のUnitに指定したユニットをスポーンさせるという処理を行います。
PositionやRotationをセットするとスポーンさせる位置や向きを指定できます。

ここでスポーンしているのは『functionality_pickup』というユニットになります。
このユニットについてはまた後で説明しますが、
簡単に言うと『対象を持ち上げる処理』になります。

スポーンしたユニットに『Set Unit String Data』を使用してユニット変数controller_indexを設定します。

③スポーンしたユニットとリンク

最後に使用するノードは『SteamVR Link Node To Tracker』です。
今回はコントローラではなく、
先ほどスポーンしたfunctionality_pickupとリンクさせています。

つまり、ここでの処理は
『持ち上げる為の処理をスポーンさせ、コントローラの位置にリンクさせる』
という物です。



※『Spawn Teleport Unit to get the Teleport Functionality』



画像内のグループCです。
こちらのグループでは『プレイヤーのテレポート処理の前準備』を行っています。

①~③までの処理は②でスポーンしているユニットが
『functionality_teleport』である以外は全く同じです。

④キー入力の取得

更に下側の処理は『Level Update』によって実行されています。
キー入力を取得しており、前々回でも登場した『SteamVR Touch』を使用しています。
ただし、今回は入力された座標が欲しいわけではないため、使用する返り値は
入力した時/離した時を表すPressed/Releasedのみです。

⑤外部イベントの呼び出し

Pressed/Releasedの両方から、『Unit Flow Event』に繋がっています。
『Unit Flow Event』はユニットが持つ外部イベントを呼び出すノードです。

つまり、
Pressedの場合はfunctionality_teleportが持つ『press_teleport』イベント
Releasedの場合は同じくfunctionality_teleportが持つ『release_teleport』イベント
へと処理が続きます。



これで、コントローラのユニットフローの処理は一通り見ることができました。
しかし、今回の調査で新しくfunctionality_pickupfunctionality_teleportという新しいユニットが出てきました。
次回からはこの2つのユニットフローについて、ご説明していきます。

Stingray(VRテンプレート)のコントローラ処理を調べてみる
(初期化とトリガー)


前回から引き続き、今回もコントローラの内部処理(ユニットフロー)を見ていきます。

今回はこの2つのグループの処理を見ていきます。



※『Create Unit Variable on Spawn – wand_1 or wand_2』



このグループではコントローラが『一番最初に行うべき処理』が実装されています。

①スポーン直後に待機する

処理の開始位置となっている『Unit Spawned』『ユニットが生成されたタイミング』を表しています。
この場合であれば『Viveコントローラが認識され、レベルに出てきたタイミング』です。

『Unit Spawned』からは『Delay』ノードに繋がっています。
Delayノードは引数に設定された時間だけ処理を止めるという処理です。

無くてもいいと感じるかもしれませんが、
この先のフローが何らかの形で本来先に実行される処理よりも
先に実行されてしまうと、問題が発生する場合などに用いられます。

②ユニット変数を作成

続いて実行される『Set Unit Variable』
ユニットを格納するための変数を作成します。
変数名は前回にも触れたcontroller_indexに『wand_』という文字列を繋げた物です。

③ボールを不可視に

最後は『Set Unit Visibility』で最初は表示されたままだったボールを不可視にしています。

つまり、ここでは
『一番最初に、コントローラによってユニットに
識別用に異なる名前を付け、トラックパッド上のボールを不可視にする』

という初期化の処理をしています。



※『pull trigger』



このグループは、前回のトラックボールと同じように入力に関係した処理を行っています。

①トリガーの入力を取得する

基本的な入力の取得方法は前回と同じです。

ただし、今回は使用するノードが『SteamVR Touch』ではなく、『SteamVR Button』になっています。
この二つの違いは、入力を取得する対象が『トラックパッドの位置』か、それとも『それ以外のボタン入力』かという点のみです。
(一応Buttonの方でもトラックパッドの入力は取得できますが、位置までは拾えません)

②トリガーの入力を基に回転値の計算

続いて、『SteamVR Button』のValue値を乗算しています。
これも前回と同じですね。
ただし、『SteamVR Button』の入力範囲は0~1なので、
計算する際には注意してください。
(Touchの場合はX/Yそれぞれ-1~1の範囲)

ここでの乗算は-30ですが、これで最小値0、最大値-30の結果が得られます。
最後にこの結果を『Rotation From Components』のXにセットして、回転値にします。
(ここでは一方向にだけ回転させることが目的なので、X以外の値は0で固定です。)

③回転値のセット

最後に『Set Unit Local Rotation』でこのユニットが持つ『trigger』メッシュのローカル回転値を②の結果に設定しています。

ここまで来ればわかるかもしれませんが、ここでの処理は
『コントローラのトリガーがどれだけ引かれているかを取得し、
引かれている分だけ画面内のトリガーを回転させる(引く)』

という処理になります。



今回はここまでです。
いつもよりも簡単な箇所でしたので物足りなかったかもしれません。

次回はコントローラのユニットフローを最後まで見ていきます。

Stingray(VRテンプレート)のコントローラ処理を調べてみる
(トラックパッドとユニットフロー)

前回は『Flow』による簡易的なプログラムを組んでみました。
今回からは本格的な要素に入ります。


StingrayのVRテンプレートでは
非常に軽い建築デモ程度であればそのまま使えてしまえるような機能が最初から実装されています。

それらの機能がどのように実装されているのか、少しずつ処理の解説を交えつつ、見ていきましょう。

今回、見ていく処理は『コントローラの処理』になります。

さて、前回ではFlowの一種である『レベルフロー』を見ていきましたが、
いくらレベルフローを見てみたとしても、コントローラの処理と思しきものはどこにもありません。

なぜなら、コントローラの処理はコントローラ自身にあるためです。

まずは、どこでコントローラ自身の処理が見られるのか、についてです。

エディタの画面の下側にあるタブを見てみましょう。

これは『アセットブラウザ』と呼ばれ、
現在開いているプロジェクトの中にあるモデルや音などのアセットを見ることができます。

この中に、コントローラのモデルがあります。
アセットブラウザの左側にあるリストから
『VR_steam』->『models』->『controller』を選択します。
すると、コントローラのモデルが見つかるはずです。



このモデルをダブルクリックしましょう。



※ユニットエディタとユニット

モデルをダブルクリックすると、画像のような画面が開かれます。



この画面は『ユニットエディタ』といい、『ユニット』を編集する画面です。

『ユニット』とは、レベルに配置されるものの名前であり、
一つ一つがメッシュや各種プロパティを持っています。

また、ユニット自身がFlowを持つこともでき、
ユニットが所持するFlowは『ユニットフロー』と呼ばれます。

そして、ユニットエディタではユニットのプロパティの変更や、
ユニットフローの編集などを行うことができます。

画面の下側にある『Unit Flow』タブをクリックして開いてください。



こうして開かれるのがユニットフローの画面です。
細かな点や用途に違いはありますが、基本的な部分はレベルフローと変わりません。

今回は、ここに実装されている処理の内容を調べていきましょう。

コントローラのユニットフローを見てみると、
複数のノードが一つのブロックに囲まれているのがわかるかと思います。

これは『グループ化』といい、いくつかのノードを一つのグループにまとめ、
一括で削除したり、移動したりできるようにする機能です。
また、グループには名前を付けることができ、
Flowの可読性を向上させるという事もできます。

コントローラのユニットフローでは6つのグループがあります。

この記事では、このうちの1つのグループの処理について調べていきます。



※『Tracking dot on the track pad.』



このグループでは『トラックパッド上のボールの移動』が実装されています。



プレイ中、コントローラを見てみるとトラックパッドを操作している間、
指を触れている個所にボールが出現しているはずです。

試しに、このグループを削除してからプレイしてみると、ボールが出現しなくなります。
ちなみに、グループをまるごと削除するためには、グループのタイトルの部分をクリックしてからDeleteキーを入力します。

①トラックパッドの入力を取得



『Get Unit String Data』ノードは
ユニットに設定されているKeyと同名のスクリプトデータを取得します。

『スクリプトデータ』とはユニットがそれぞれ持つ数値などで、
プログラムでいうところの『変数』のような役割を持ちます。

ユニットエディタの右側にある『Script Data』から、追加や削除ができます。

コントローラのスクリプトデータを確認してみると、
『Get Unit String Data』で指定されている
『controller_index』というキーが見つかるはずです。
このキーはコントローラの番号を示しています。

controller_indexの値は『Level Update』に接続された
『SteamVR Touch』ノードの引数に用いられています。

これで『番号で指定されたコントローラのトラックパッドの入力を取得する』という処理になります。

②ボールの出現位置の計算
『SteamVR Touch』のX/Yの値は、トラックパッドで入力されている座標を1~-1の範囲で表しています。
この値を『Multiplication』ノードで乗算しています。
これは、そのままX/Yの座標を使用してしまうと、値が大きすぎてトラックパッドからボールが離れてしまうためです。
乗算の結果は『Vector From Components』で使用され、ベクトルになります。
このベクトルは最終的にボールの出現位置のローカル座標となりますが、
ここではYの値をYではなくZに代入する必要があるため要注意です。

最終的なYの値になるのは、先ほどの計算結果に更に乗算を重ねたものとなります。
この結果がトラックパッド上のボールの高さとなります。

③ボールのメッシュの可視・不可視を変更
『トラックパッドに指が触れた』事を表す『Touched』と接続しているのは
『Set Unit Visibility』ノードです。
このノードは引数のユニット内の指定したグループに該当するメッシュの可視性を変更するという処理を行います。
この場合の『グループ』は『ビジビリティグループ』の事であり、ユニットフローのノードの『グループ』とは異なります


『ビジビリティグループ』とは、
ユニットが持つメッシュをひとまとめにした物であり、
メッシュの可視・不可視を一括で変更したりする場合に役立ちます

ビジビリティグループはユニットエディタ右下の『Visibility Groups』から
変更や新規追加、確認が可能です。
また、ユニットが持つメッシュは画面左側の『Outliner』から確認できます。

コントローラのビジビリティグループを確認してみると、
『trackpad_touch』というグループだけが見つかるはずです。
グループ名をクリックすると、そのグループに含まれるメッシュが確認できます
『trackpad_touch』のグループには
『trackpad_touch』というメッシュだけが含まれています。

画面左側のアウトライナから『trackpad_touch』というメッシュをクリックし、
画面下側の『Viewport』タブを選択すると、
『trackpad_touch』がトラックパッド上のボールを示していることがわかります。



再度ユニットフローを見てみると、同じノードが『トラックパッドから指が離れた』事を表す『Untouched』と接続されています。
先ほどの『Set Unit Visibility』と異なるのは、引数のVisibleがこちらではFalseになっているという点です。

この時点で、『指が触れるとボールが出現し、離れるとボールが消える』という処理になっていることがわかるはずです。

④ボールを移動
最後にボールを出現させる処理から繋がっている『Set Unit Local Position』です。
このノードは引数に設定されたユニットのオブジェクトのローカル座標をPositionの値に変更します。
今回は、trackpad_touchメッシュを②の結果に変更しています。
この部分で『ボールを指に触れた場所へ移動させる』という処理が実装されています。

つまり、このグループ全体では
『トラックパッドに指が触れている間、ボールを可視にし、指が触れている箇所にボールを移動させる。
トラックパッドから指が離れたら、ボールを不可視にする』

という実装が組まれていることになります。



若干中途半端ですが、今回はここまでです。
次回は、このコントローラのユニットフローの中で、
2つか3つのグループの処理を説明していきます。

StingrayVRテンプレートのVR向けノードをまとめてみた


Stingrayのビジュアルスクリプティング機能、『Flow』では、
最初のテンプレートの選択によってVRに特化したノードを使用することができるため、
簡易的な物であれば建築分野用のVRデモなどを実装することもできます。

今回は、VR特化のノードについて、用途ごとに以下にまとめてみることにします。

ちなみにSteamVR(HTC Vive)用のノードを例にして挙げていますが、
StingrayにはOculus/GoogleVR/GearVR用のノードもあります。
ただし、どのHMDでも内容はほぼSteamVRと同一の為、割愛します。

最初に注意点ですが、
VR用ノードはStingrayのVRテンプレート実行時に同時に作成されるという仕様のため、
プロジェクト作成時に『VR HTC Vive』テンプレートを選択しないと、下記のノードが使用できません。
(使用するHMDによってテンプレートを選択してください)



※Viveコントローラの入力を取得したい

・SteamVR Button

画像1

このノードはUpdateピンに接続されたタイミングで
『Controller Index』に設定されたコントローラの
『Button Name』に設定されているボタンが押されたかどうかを取得し、
処理を分岐させています。
ボタンの割り当てはViveの公式ドキュメントを参考にしてください。
(尚、システムボタンだけどういうわけか反応がありませんでした)

『Pressed』は最初にボタンが押された時
『Held』ボタンを押し続けている時
『Released』ボタンから指を離した時にそれぞれ呼ばれます。
『Value』入力の状態を0~1の範囲で返します。
(指を離している時が0、完全に押し込んだ時が1。)

以下はトリガーの入力の範囲をログに出力するサンプルです。
画像のようにノードを接続しています。



画像2

・SteamVR Touch
こちらのノードは上述したButtonの『Touch Up』~『Touch Right』までをより詳細にしたノードです。

Buttonの方と同じ、『Pressed』『Held』『Released』の他、
タッチパッドに触れている間呼ばれ続ける『Touched』
タッチパッドから指を離したときに呼ばれる『Untouched』が追加されています。
X/Yは指先が触れている座標を中央を0として1~-1の範囲で返します。

ちなみに、どちらも『SteamVR』->『Input』の中にあります。



※Viveコントローラに振動を与えたい

・SteamVR Controller Feedback

画像3

このノードは『Controller Index』に設定されたコントローラに対し、
『Seconds』秒間の振動を与えます
ただし、0.003999以上の値を設定すると、
強制的に0.003999に合わせられてしまいます。


VRのデモなどで『何かに触れた』という事を表す場合は単体で使用すればよいのですが、
ゲームなどの演出のように、長期的に振動させたい場合は、
画像のように連続で呼ばれるような処理を作る必要があります。



※HMDの画面をフェードさせたい


・SteamVR Fade In
・SteamVR Fade Out


画像4

シーン移動や演出の為に画面にフェードを入れたい場合はこれらのノードを使用します。
『Color』には何色にフェードするか、
『Seconds』には何秒でフェードが完了するかを設定します。
基本的には『Fade In』と『Fade Out』をセットで使用すると思います。

なお、フェードするのはHMDの画面だけですので、
HMDではない通常の画面をフェードさせたい場合は、別途処理を追加する必要があります。



※HMDとの接続やトラッキング状態をチェックしたい


・SteamVR Is Enabled
・SteamVR Is Tracked


画像5

『Is Enabled』はViveが有効に接続されているかどうかをチェックします。
あくまで、『有効であるか』だけをチェックするため、『トラッキングされているか』は考慮されません

『トラッキングされているか』をチェックしたい場合、『Is Tracked』の方を利用します。
引数に設定した対象がトラッキングされているかどうかをチェックします。



※コントローラやHMDの位置を取得したい


・SteamVR HMD Pose
・SteamVR Controller Pose


画像6

『HMD Pose』はHMDの頭や左右の目の位置の座標や回転
『Controller Pose』は各種コントローラの位置や回転を取得できます。
どちらもワールド・ローカルを選択できます。

画像0



また、このブログで触れたノードは全てLuaによる実装が行われています。
更に踏み込んだ実装の調査をしたい場合は、直接Luaのソースコードをチェックしてみてください。

Stingrayに触れてみよう



近年、VR/AR技術はゲーム業界のみならず、医療分野やその他の分野でも利用されるようになりました。
特に建築分野では、ウォークスルーアニメーションのプレゼンムービー等、
VIVEコントローラーによる入力を伴ったビジュアライゼーションの現場で活用されています。
液晶画面上に(内覧用の)モデルルームを表示したいとき、あるいは室内の家具の配置を考えるときに、VR/AR技術は有用です。

なぜなら実際の建築物・家具を設置する必要がなく、
以前より制作会社に蓄積されたCGアセットを活用でき、大幅な省力化が図れるからです。
この点は、建築分野においてVR/AR技術が注目を集めている大きな理由です。

通常、建築系のVRのコンテンツ開発にはゲームエンジンが用いられます。
代表的なゲームエンジンとして、UnityやUnrealEngine4が挙げられます。

ゲームエンジンとは文字通り、『ゲームを作るためのエンジン』です。
(近頃は建築などゲーム以外の用途にも使われることも増えています。)

さて、話は変わりますが、『Stingray』というゲームエンジンがあります。
Stingrayは2年前にAutodesk社がリリースしたゲームエンジンで、
プログラマでない方にも親しみやすく、3D機能に非常に優れています。

拡張性の高いシステムに、一目でわかるビジュアルスクリプティングが特徴です。
また、Mayaや3dsMaxで有名なAutodesk社がリリースしたエンジンであるため
上記の3Dデザインツールとの連携も容易というメリットがあります。

ただ、UnityやUnrealEngineに比べると情報が少ないのが難点です
Autodesk公式が運営しているチュートリアルと、
Stingrayそのもののヘルプページを除くと、Stingrayについての情報を見つけるのはかなり難しいと思います。

前置きが長くなりましたが、
数回に分けてStingrayについて、このブログに書いていくことにします。

Stingray自体がデザイナー向けのエンジンという事もあり、
ビジュアルスクリプティングをメインに書いていく予定です。



—————————————————–
・Stingrayに興味があるが触ったことのない方
・あまりゲーム開発やゲームエンジンにあまり詳しくない方
・HTC Viveのセットアップが既にできている方
・プログラムが全く分からない方
—————————————————–

このページは上記のような方々を対象にしています。

今回は、『Stingrayの起動』から、『VRテンプレートのプレイ』までを書いていきます。


1.まずはプロジェクトを作成を行う


最初はプロジェクトの作成を行います。
StingrayのランチャーからStingrayを起動します。
起動直後の画面では、いくつかのテンプレートが表示されているはずです。
(表示されていない場合、画面のタブから『Templete』を選択してください)
このテンプレートの中から、使用したい物を選びます。


今回はHTC Viveで動かすため、『VR HTC Vive』のテンプレートを使用します。
『VR HTC Vive』のテンプレートをクリックして、右下の『Create』ボタンをクリックしましょう。

すると、下の画像にあるようなウィンドウが出て来ます。



『Name』はプロジェクトの名前なので好きな名前にしましょう。
『Directry』はファイルを保存する場所ですが、何かしらのこだわりがない限りはそのままで大丈夫です。
設定が終わったら『Create』ボタンをクリックします。

これで新規プロジェクトの作成は完了です。


2.プロジェクトをプレイする


しばらく待つと、上の画像にあるような画面が表示されます。
これがStingrayのメイン画面になります。

お気付きの方もいるかもしれませんが、
Stingrayはいくつものタブの組み合わせによって構成されています。
タブは閉じたり、追加したり、別のウィンドウに表示したりもできるため、
自分が使いやすいようにカスタマイズができます。
ちなみに、タブはドラッグによって動かせます。

『Level Viewport』というタブに部屋のようなものが映し出されているはずです。
このタブが、Stingrayのメインとなるもので、現在開いているレベルを操作することができます
まずは、この状態でプレイしてみます。

画面左側の緑色の三角形をクリックするとプレイが始まります。

HMDを被ってみると、部屋の中にいることがわかるはずです。
部屋にいないように見える場合や、画面が真っ暗な場合は、
そもそもHTC Viveが接続されているか確認してください。


この時、頭の位置が普通の高さにある事を確認してください。
床の上にあるように感じたり、もしくは明らかに高い位置にいるように感じた場合は、
HTC Viveのトラッキングに失敗しているため、再度トラッキングを行ってください。


親指の位置にあるボタンを押すと、向いている方向に移動、
ボールなどの物に近づいて人差し指のトリガーを引くと、物を拾うことができます。
物の位置をリセットしたい場合は、『Reset』のボタンに近づいて、人差し指トリガーを引いてください。

尚、コントローラが見えない場合は、コントローラの電源ボタンを再度押してください。

キーボードのESCキーでプレイを終了します。


『VR HTC Vive』テンプレートの機能は以上です。

さて、いかがでしたでしょうか。

次回は、『Stingray』の大きな機能の一つである『Flow』と、
テンプレートですでに用意されている機能について触れます。

HTC VIVEでポジションリセンターを行う(UNITY)

Oculus Riftに比べて、HTC Viveのドキュメントは決して豊富とはいえません。
UnityのUnityEngine.VR.InputTracking.Recenter(); の関数が使えないなど、UnityのネイティブVRサポートも正しく動作しないことがあります。
例えば、作成中のゲームでStanding ModeやSeated Mode使おうとした場合SteamVRのValve.VR.OpenVR.System.ResetSeatedZeroPose ();
を利用することになるとおもいますが、Room-Scaleでのプレイヤー位置のリセットの場合はその関数は動かないことを前提としえいる為利用することができません。
そこでルームスケールでの位置リセットを実現するため、スクリプトを作成しましたのでシェアしたいとおもいます。

[sourcecode lang="c-sharp"]
using System.Collections;
using System.Collections.Generic;
using UnityEngine;

public class PositionRecenter : MonoBehaviour{

//必要な GameObjectをグラブします。
public GameObject avatar; //カメラリッグ
public GameObject eye; //カメラ
public GameObject[] hands; //両手

//ゲーム内のデフォルトポジションとスケールを設定します。
Vector3 defaultPos ;
public float defaultZ = 0f;
public float defaultY = 1f;
public float defaultX = 0f;

//ポジションOffsetを0に設定します。
float yDis=0f;
float xDis=0f;
float zDis=0f;

void Start (){

/*ゲームスタートのとき defaultPosを決めた
ゲーム内のスタート位置のデフォルト座標をX,Y,Zとして与えます。
パブリックフロートなのでインスペクターから変更可能です。
最後にSetPosの関数でゲームスタートのときポジションを
ゲーム内の初期ポジションにリセンターします。*/

defaultPos = new Vector3 (defaultX, defaultY, defaultZ);
SetPos ();
}

void Update (){

//In Gameでリセンターする場合矢印「↑」
if (Input.GetKeyDown (KeyCode.UpArrow)){
SetPos ();
}
}

public void SetPos(){

/*プレイヤーの頭のポジションと デフォルトポジション(ゲーム内での初期位置)のOffsetから計算しAvatarのポジションにoffsetの値を加えるとプレイヤーの位置とゲーム内での初期位置を合わせることができます。
Avatarのポジションはプレイヤーの現在の頭の位置の座標。*/

yDis = defaultPos.y - eye.transform.position.y;
xDis = defaultPos.x - eye.transform.position.x;
zDis = defaultPos.z - eye.transform.position.z;
avatar.transform.position = avatar.transform.position + new  Vector3 (xDis, yDis, zDis);

//手のポジションを、Avatarと一緒に移動します。
foreach (GameObject h in hands){
h.transform.position = h.transform.position + new Vector3  (xDis, yDis, zDis);
}
}
}
[/sourcecode]


上記のスクリプトでは、VRの体験者はPlayRoomのRoomScale内のどこでもいても、ゲームを起動するとスタートの際、ゲーム内の初期ポジションに配置されます。
そしてゲーム始まった後、またその決めた場所に戻させるスクリプトです。
ゲームが一旦始まった場合でも矢印↑キーをおせば、ゲームの初期ポジションに戻すことができます。
細かい部分についてはまた次回に説明したいと思います。