超時空惑星おきゅごー

〜 Oculus Goで未来が変わる 〜


[PR]って書けっていうから書きますが、商品提供などがあったとしても特に記載がない限り率直な意見を述べたレビューであり、忖度した広告記事ではありません。アフィリエイトは利用しています。

VRでSFドラマの世界に入り込む!「Stranger Things VR」

NETFLIXの人気SFシリーズ「STRANGER THINGS」
僕も大好きなシリーズで全シーズン観ています♪

そんなSFドラマの世界がVRゲームになりました。
その名も「STRANGER THINGS VR」

www.meta.com

レビュー用にアプリコードを頂きましたので、早速プレイしてみました。

本作はストーリーが9部構成になっており、VRゲームプレイ時間は合計約5時間ほどとなっています。

  • チャプター1:「悪夢」 A Nightmare
  • チャプター2:「マインドレイヤー」The Mind Lair
  • チャプター3:「ウィル・バイヤーズの呪い」The Possession of Will Byers
  • チャプター4:「スパイ」The Spy
  • チャプター5:「人間を超越した形態」Transcending the Human Form
  • チャプター6:「ビリー・ハーグローブの呪い」The Possession of Billy Hargrove
  • チャプター7:「仕掛けられた罠」The Trap is Sprung
  • チャプター8:「イレブン」Eleven
  • チャプター9:「マッドマックスの復活」The Resurrection of Mad Max

最初ちょっと混乱したのですが、各チャプターによってプレイするキャラが変わるみたいです。
第一章ではイレブン目線で操作していたのに、場面が変わると自分がヴェクナになっていました。
色んな視点でストーリーを楽しめると言ったことなのでしょうけど、作品を見ていないと理解が追いつかないかも知れません。

このスクリーンショットを見るだけでも、ストレンジャー・シングスの世界観がよく再現されているのが分かると思います。
ドラマのファンであれば、この世界に自分も入り込めるとなればワクワクしますよね♪

さらにMeta Quest シリーズでは、ボーナスシナリオのMRチャプター「Murray’s Worries」(マレーの心配)と、繰り返しプレイ可能なMRアーケードモード「Vecna’s Arcade」(ヴェクナのアーケード)も用意されています。
こちらは現実世界に異世界への扉が開き、実際に自分の手で操作(ハンドジェスチャー)するMRモード。
ストーリー制覇後も長く楽しめる仕組みになっています。

冒頭にストーリーは5時間ほどとお伝えしましたが、難易度が3段階用意されているのでさらなるチャレンジも可能です。
独特な世界観なので苦手な人もいるでしょうが、作品のファンであれば間違いなくハマれると思います。

ただしコントロールが難しいのと、異世界や思考内のビジュアルがVR酔いし易いかも知れません。
休み休み少しずつ進めていくと良いでしょう。
www.meta.com

「Among Us VR」はじめての期間限定イベント『Lights Out モード』

「Among Us VR」に期間限定イベント「Lights Out モード」が登場。

www.meta.com

VR仲間と一緒に遊んでみました♪

いつもの「Among Us VR」と違うのは、クルーがエンジニアとなって通気孔を自由に使えるということ。

停電状態で視界も良くないので今までとはプレイスタイルが違ってくるし、全員が通気孔で移動できるのでインポスターの推理の仕方も変わってきます。

エンジニア インポスター
・短いクールダウンで通気孔を使用できます
・10秒後に通気孔から追い出されます
・タスクを完了するとビジョンが増加します
・短いクールダウンでキルが可能です
・クールダウンなしで通気口を自由に使用できます
・エンジニアをキルするとエンジニアのビジョンが減少します

これはこれでスピーディーで面白い展開になるので、期間限定じゃなくていつでも遊べるモードにして欲しいです♪

本イベントは3月12日までの期間限定イベントとなっています。
もうひとつの宇宙船のマップでもこのモードで遊んでみたいです。

The first Limited Time Event "Lights Out Mode" features the Engineer role inspired by the original Among Us game, and a new animated hat. This event runs from Feb 8 - Mar 12, 2024

Apple Vision Proを体験して未来が少し見えてきた

Appleの技術をこれでもかとモリモリに詰め込んで登場したVision Pro(以下AVP)
先日TechnoEdge主催で開催されたパーティーに動画記録係として参加し、少しの時間ではあるけれども実際に触れることができました。
現在は当日の様子を3D撮影した動画を編集中です。(下の画像はアナグリフです)

今回は自分で触ってみた感想と、現場でAVPが複数台集まった時に生じた使い勝手や未来について直感的にまとめてみます。

実際に体験してみて

僕は目が悪いので、処方箋で各々に作られるレンズがないと全くピントは合いません。
そんなボヤケた状態でも画質が良いのは一目瞭然。アイトラッキングのキャリブレーションもすんなり完了して、その精度の高さには驚きました。

大袈裟でなくメガネを外した裸眼で見ている感覚とのズレはあまり感じませんが、それでも裸眼と比べて絶対的に視野が狭いので階段を降りたりするには注意が必要。
当然周辺視野などはありませんから、移動しながら使うようなものではありません。
使おうと思えばできなくはないのだろうけれど、周辺視野での危険察知などは全くできないので絶対に危ないです。
そういう使い方を想定するなら、現時点ではXREALやVitureなどのスマートグラスタイプでしょうね。

視線誘導でのポインティングは直感的ではありますが、少し慣れが必要。
逆に注視しなければならないというのは、長時間使っていると目の負担にもなりそう。
個人的にはQuestのハンドトラッキングの方が直感的に操作してる感があります。

ちなみに上の画像はパーティー当日の様子を360度カメラQooCam 3で撮影したものをQuest 3のブラウザアプリで見ている様子。(リンク:https://kuula.co/share/5MBdt
右上のCardboardアイコンをタップするとVR表示に切り替わり、その場に参加しているような体験ができます。
このページでぐるぐる回してみたい方は、下の画像をドラッグしてご覧ください。

複数人で使うと未来が見えてくる

今までのデモではAppleの言う「空間コンピューティング」ということで、Mac/iPad/iPhoneが合体して目の前の仮想画面で操作できるという感覚くらいしか伝わらなかったのではないかと思います。
でもこれはひとりで、もしくはAVP単体で使うものではないのかも知れません。

今はiPhoneで撮った写真を「AirDropで送って〜」なんてやり取りをしていると思いますが、これが単に写真や動画だけでなく色んな体験を共有できちゃうんですよ。
自分が今見ている景色を遠隔地の友人にそのままの立体感(臨場感)で同時に体験できたり、それぞれの家に居ながら3D映画を一緒に観賞したり。そんな未来が見えてきます。

AppleはVRやメタバースという言葉を使わないでくれと言ってますが、まぁやってることは大体同じようなことですよね。
それを特別なものと感じないような、生活の一部となって使っていく未来を想定しているのだと思います。

それには超えなければいけないハードルがいくつもあるのですが、AVPそのはじめの一歩というところで技術を詰め込んでユーザー(開発者)に送り出したのでしょう。

まとめ

最後にマイナスポイントをいくつか挙げてまとめてみます。

  • とにかく高価(現時点で可能な体験に対しハードがオーバースペック)
  • EyeSightが思ったような効果を出せていない
  • 重くて前重心なので長時間利用には向いていない
  • 外部バッテリーとの有線接続が邪魔くさい
  • 使ってみたいアプリは当然まだまだ少ない

ってことで、結論としてはまだ一般人がすぐに買うようなものではありません
初代iPhoneが登場した時と同じ様な状況ですので、今後数年で本当に使ってみたいデバイスになっていくのではないでしょうか。

ただ、現時点で入手している方たちのことは覚えておきたいです!(尊敬の念を込めて)

Vision Proで撮影した「空間写真」をQuest 3で表示する方法

ついに米国で発売になった「Apple Vision Pro」

早速購入してきたトリニティ株式会社代表のほっしー(星川)さんのVision Proで撮影した空間写真データを送って頂きました。

データはHEIC形式で左目の画像だけが見えている状態で、右目の画像はデータに内包されていて表面上は見えません…。
解像度は思ったよりも小さい2560 × 2560ピクセル。正方形です。
Photoshopで開いてファイル情報を見てみるとこんな感じ。

Macでファイル情報を見てみると、焦点距離は0.5959 mm、露出時間は1/229ともうちょっと細かく記録されていました。

Meta Questで空間ビデオの再生が可能に?

Meta Quest v62ソフトウェア・アップデートで「空間ビデオ」の再生に対応とのリリースがありました。
www.meta.com

早速アップデートして手順通りに操作してみたのですが、肝心な「空間ビデオ」のメニューが現れません…。
どうやらv62にアップデートした後に、段階的に機能が開放されていくようです。
ってことでQuestでも再生できるSBS(Side by Side)に変換して見てみることにします。

データ変換

このデータのままではVision Proでしか立体視できないので、なんとか右目のデータを抽出したいのです。
そこで使用したのが「Spatialify」
iPhone 15 Proシリーズで撮影した空間ビデオをSBSに変換するのが大きな目的のアプリですが、動画だけでなく空間写真も変換できるのです。

Spatialify

Spatialify

天 吴¥400posted withアプリーチ

ちなみにこの「Spatialify」のカメラを使うと、iPhone 15 Proシリーズでも空間写真の撮影もできちゃいます。(標準カメラアプリでは空間ビデオのみ対応)

使い方はめちゃめちゃ簡単♪
アプリを起動したら、ライブラリから空間写真のファイルを選択。

中央のプルダウンメニューから表示したいフォーマットを選択するだけ。
裸眼立体視アナグリフデータをその場で表示できます。

Cardboard表示にして横向きにすれば、スマホ用VRゴーグルなどでも立体視できます。

Optionでサイズと左右の距離を調節できるので、うちのVRグラスでも問題なく立体視できました。

360.hatenablog.jp

エクスポート

右上のエクスポートから各種データに変換して保存できます。

とりあえずSBSで出力しておけば色々応用ができますね♪

アナグリフ


裸眼立体視


Quest 3でVR表示

Vision Proを被った状態での目線の写真も頂きました。

このSBSデータをQuest 3に転送して見てみると、問題なくVision Pro目線を擬似体験できました。
使用したアプリは「Pigasus VR Media Player」です。
https://www.meta.com/ja-jp/experiences/2436667223120459/

ただし解像度も高くない単なる立体写真程度の感想しかありませんでした…。
同じデータでもVision Proで見ると全然体感が違うんでしょうか?

次は空間ビデオでも試してみたいですね。

でもQooCam EGOで良いんじゃないかな?とか思ったりなんかしちゃったりして…w
360.hatenablog.jp

VRヘッドセットをお手軽装着♪「Quest 3 キャップクリップ」

Quest 3をもっと手軽に使いたいと思って3Dデータを物色していて見つけたのが「Meta Quest 3 Cap Clip」

帽子のツバの部分にQuest 3を装着できるというクリップ型のアダプターです。
発想としてはメチャメチャ面白いのですが、実際に使ってみるとどうなのでしょうか?

使用したデータ(.stl)はこちら。
www.thingiverse.com


これを3Dプリンターで左右2つ出力します。

このパーツを帽子のツバの部分にクリップの様に挟み込み、Quest 3のストラップ部分をスライドして装着します。

あとは普通に帽子を被るように、簡単にヘッドセットを装着できるという訳です。

さらに度入りレンズとフェイスパッドも外して、メガネのまま使ってみました。

この状態で快適に使えたらメチャメチャ便利なのですが、残念ながら長時間の使用には向いてない感じでした。
帽子を普通の感じで被ってしまうと、ヘッドセットの位置が全然合わないのですよ…。
浅く被っている感じでおでこの一部に負荷がかかってしまいました。

とはいえ頭の形状や帽子の種類によっても違ってくると思いますので、3Dプリンターをお持ちの方は試してみる価値はあると思います。
ランニング用とかの浅い帽子の方が向いているのかな?