Unityの検索機能

目次(新機能の概要)

VR、AR、MR、XR、360 度動画とは?

ここ数年前からバーチャルリアリティ (VR) が話題になり始め、ゲーム業界では急速に VR コンテンツの普及が進んでいます。専門用語や頭字語についていくのは時にやる気をくじかれるような場合がありますが、ユーザーに絶えず最新情報を提供するために、私たちは AR から XR に至るさまざまな没入型技術に関して、増え続ける用語を集めた用語集を作成しました。

360 Video

定義:

「球面ビデオ」あるいは「没入型ビデオ」と呼ばれている 360 度動画 とは、あらゆる方向の映像を、一度に撮影できるビデオ録画機能を指します。それらは、通常、スペシャリストが使う全天球カメラ、または独立したカメラを 1 つの球面アレイの形に接続したものを使用して撮影されます。 360 度動画は、実写(アニメーションを使用しないシネマトグラフィまたはビデオグラフィ)、アニメーション(3D シーンからキャプチャ)、もしくはコンピュータグラフィックスと実写の組み合わせのいずれかの形をとります。これらの映像を、3Dゲームエンジンなどのテクノロジーを使ってディスプレイを用意した後、ユーザーはヘッドセットを通じて視聴することができます。

360 度動画には非インタラクティブなものもインタラクティブなものもあります。非インタラクティブな 360 度動画とは、ビデオを一時停止したり、頭を動かして異なるカメラアングルで観る以外に、視聴体験に影響を与えられないようなものを指します。対して、インタラクティブな 360 度動画とは、視聴者が視線やコントローラーを用いて、UI やインタラクティブな要素を操作し、体験に介入していくことができるものを指します。

有効に使える場面 :

クリエイターがマーケティングやエンターテインメント向けにコンテンツを提供したがっている業界からの仕事を得たいときに、360 度動画は非常に有効な技術となります。360 度動画の制作手順の中には、デジタルアセットから構築する場合と異なる部分もありますが、ポストプロダクション処理はゲームやその他のデジタル MR コンテンツを制作する場合と比較的似ています。

アンビソニックなオーディオ

定義:

このサラウンド技術は、ユーザーの上下方向へと伸びる音をカバーします。正式には「立体音響」技術で、水平面に配置されたオーディオソースにも対応しています。アンビソニックはマルチチャンネル形式で保存されます。それぞれのチャンネルが特定のスピーカーにマッピングされる代わりに、アンビソニックはより全般的な方法で音場を表します。音場はリスナーの向き(つまり VR、AR、MR におけるユーザーの頭部の回転)に基づいて回転させることができます。また、音場はスピーカーの設定と一致する形式にデコードすることもできます。アンビソニックは、通常 360 度動画とペアになっており、離れた周囲の音のためのオーディオスカイボックスとしても使用できます。

有効に使える場面 :

アンビオニックなオーディオは、メモリと制作予算の両方でより多くの経費がかかる可能性がありますが、VR 体験を完全な没入型 のサウンドスケープとして提供することができます。オーディオのデザインと制作は従来の表示方式よりも VR にとって重要であり、「3D サウンド」は、ほとんどのバーチャルリアリティ体験を一層説得力のある、よりリアルなものにします。

アンチエイリアス

定義:

最も基本的なレベルでは、アンチエイリアシングは、立体感のあるアセットの境界部や斜線のギザギザを滑らかにするテクニックです。このアプローチは、隣接ピクセルの色をブレンドして形状を滑らかに見せます。アンチエイリアシングでは、没入感プレゼンスを弱める可能性がある境界部や斜線のギザギザが VR において特に重要なのです。

有効に使える場面 :

アンチエイリアシングは、3D バーチャルコンテンツの視覚的な忠実度を向上させるための、直接的で確立された手段を提供します。Unity のような 3D エンジンは多くの場合、マルチサンプルアンチエイリアシングを実行するために、開発者がフォワードレンダリングを使えるようにします。一方、デファードレンダリングはマルチサンプルアンチエイリアシングを実行できませんが、そのような場合には、開発者はアンチエイリアシングをポストエフェクトとして適用することもできます。

API(Application Programming Interface)

定義:

API(Application Programming Interface)は、VR/AR コンテンツ作成を通じて見られるソフトウェア開発の共通の概念です。基本的には、ソフトウェアをオペレーティングシステムに接続し、そのリソースを利用できる標準的なインターフェイスです。API は VR/AR 体験のユーザーには表示されません。

有効に使える場面 :

オペレーティングシステムのリソースへのアクセスや潜在能力の活用は、よりシンプルに標準化され、効率的になりました。

ARCore

定義:

AR 向けソフトウェアのみのソリューション は、Android Nougat か、それ以降の OS バージョンで実行している Android 搭載のスマートフォンで動作します。このソリューションは、ARKit が iOS 向けに提供する方法と同じような方法で、モバイル AR 体験の規模を拡大できるようになりました。実際、SDK 自体も ARKit と同様の機能を持っています。ARCore が Android に搭載されるかどうか、あるいはスタンドアロン製品になるかは Google には分かりません。それらは Daydream ブランドには含まれないことが確認できました。

有効に使える場面 :

ARCore が Google の期待どおりに成功した場合、幅広いオーディエンスにアクセス可能な AR プラットフォームを提供することができます。 そうなれば、大規模なオーディエンスがあなたの AR コンテンツにリーチするでしょう。

ARCore SDK for Unity

定義:

Android デバイスをターゲットとする AR アプリARCore 向けの開発を可能にする ソフトウェア開発キット

有効に使える場面 :

ARCore デバイスのコンテンツを作成するための便利で効率的な方法です。

ARKit

定義:

iPhone や iPad 向けに拡張現実体験を作り出し、ローンチ できるフレームワークです。

有効に使える場面 :

規模の大きい iOS のオーディエンスへと AR 体験を届けたいとき、手軽に使えるツールです。

ARKit プラグイン

定義:

Unity のソフトウェアパッケージ は、ARKitでターゲットとする iOS 向けのアプリの開発ができます。

有効に使える場面 :

iOS プラットフォーム向けにアクセスしやすく、高品質な AR 体験を作ります。

AR Light Estimation

定義:

AR セッションからキャプチャされたビデオフレームに関連するシーンについて計算された、近似値に基づいた情報。

有効に使える場面 :

AR Light Estimation を使用すると、カメラフィードの上にレンダリングされた仮想オブジェクトが、環境に属しているように見えるようになります。これは、没入感には必要不可欠です。

オーディオ立体化

定義:

オーディオソースから周辺空間に音を送信する方法を変更する機能。 この種のプラグインはオーディオソースを取得し、左右の耳に入ってくる音量を調整します。Unity のような3Dエンジンにおける計算は AudioListener と AudioSource 間の距離とアングルに基づいています。

有効に使える場面 :

より説得力のある臨場感のあるサウンドで、作成した VR コンテンツに 3 次元性を引き立たせます。

オーディオ立体化 SDK

定義:

オーディオソースから周辺空間に周囲のスペースへのオーディオの伝わり方を調整できるネイティブオーディオプラグイン SDK を拡張します。ビルトインのオーディオソースのパニングは、シンプルな形式の空間音響です。AudioListener と AudioSource 間の距離とアングルに基づいて、ソースを取得し、左右の耳に入ってくる音量を調整します。これは、水平面上でプレイヤーに対して簡単な指向性キューを提供します。

有効に使える場面 :

この SDK はオーディオスぺシャライザー機能を使って提供される可能性を実行に移し、シンプルかつ多くを求めない、効率的な手段を提供します。

拡張現実(AR)

定義:

拡張現実とは、現実世界の風景にデジタルコンテンツを重ね合わせる技術です。拡張現実、あるいは「AR」では、ユーザーが現実世界の要素とデジタル情報の両方、あるいは拡張現実の要素と対話することが可能になります。AR は Microsoft の HoloLens のようなヘッドセットを介して、またはスマートフォンのビデオカメラを通してユーザーに提供することができます。

実用的および実験的な実装において、拡張現実感は現実の環境におけるユーザーの視覚的認識を置き換えたり、減少させることもできます。この変えられた知覚には、医療訓練の用途で眼症状のシミュレーションやゲームの世界を広げるための実際に起きる段階的な妨害も含むことができるでしょう。拡張現実とバーチャルリアリティが融合する、もしくはオーバーラップする可能性がある点で注目に値します。「複合現実」も併せてご確認ください。

有効に使える場面 :

消費者の関心、投資活動、業界の誇大宣伝の大半は、まずバーチャルリアリティ (VR) に注目していましたが、専用ハードウェアが必須であるという高いハードルがあり、手軽な拡張現実 (AR) が普及しつつあります。ユーザーのビジョンを完全に制限しないことで、AR が提供するアクセスのしやすさは、限界のない使用法の大きな可能性と共にその人気が増加しています。 『Pokémon GO』の驚異的な成功と、AR の急速な普及で証明されているように、AR は多くのオーディエンスにリーチするチャンスがあるのでかなりの成功を収めることができます。AR のチャンスに関する洞察については、Unity のブログの Part 1Part 2 をご覧ください。拡張拡張現実の未来を探索しましょう!

拡張されたバーチャルリアリティ

分かりやすい定義:

複合現実という連続したつながりの中で、拡張現実感は AR と VR の間のどこかにあります。正確な定義は、現実世界のオブジェクトに相互のやりとりが可能なバーチャルの世界が重ねられ、創り出された世界のことを指します。それは、現実とバーチャルな世界を逆転させているのか、それとも現実の風景と仮想のオブジェクトを一緒に映し出しているのかによって、拡張現実とは何かを考えることができます。

拡張されたバーチャルリアリティはおそらく、MR の具体的な例としてよく話題に上ります。「拡張されたバーチャルリアリティ」という用語には確かな定義がなく、そういう点で「拡張されたバーチャルリアリティ」は何にでも適応する用語であると言えるのです。

有効に使える場面 :

拡張されたバーチャルリアリティは、UI パースペクティブから VR 空間をより直観的に作成できるようにする方法を示すだけでなく、新しいユーザーにより身近な「分かりやすい」方法を提示します。

シネマティックなVRコンテンツ

定義:

VR は映画制作者とオーディエンスに限りない可能性を与え、物語を届ける新しい方法を提供し、VRの没入型のポテンシャルを活用してプレゼンスを引き出します。分岐する物語やゲームのような要素を持つ、視聴者が「映画」に参加することができるリニアな物語体験から、シネマティックな VR まで、注目すべき例が数多くあります。この用語にはさまざまな解釈がありますが、シネマティック VR は、バーチャルリアリティのコンテンツを映画製作の方法に使用または採用し、ナラティブ体験を届けるための様々なアプローチを本質的にカバーします。

有効に使える場面 :

あなたが映画の制作者であれば、これが革命的な創造性を発揮できるものであることが分かるでしょう。また、あなたが映画の視聴者であれば、内容の充実したエキサイティングな映像を見ることができるでしょう。ゲームなど、VR のコンテンツを制作した場合、シネマティック VR は、あなたの能力を試し、新しい産業を創造するための扉を開くかもしれません。

CPU (Computer Processing Unit)

定義:

CPU は単一の集積回路で構成されているものです。CPU のジョブとは、コンピュータプログラムが出す命令を実行することです。コンピュータ処理装置は、現代のコンピュータの中心的な構成要素であると考えることができます。

有効に使える場面 :

ゲームエンジンのプロファイラーを使用して、開発者は CPU でレンダリングの要求がどのくらい届いているかを知ることができます。このデータを理解することで、VR コンテンツの領域を最適化して、より高品質で、より快適なユーザー体験を実現できます。

サイバー酔い(VR 酔い、シミュレーション酔い)

定義:

「乗り物酔い」は、車や飛行機での長旅でしばしば体験するものです。物理的に移動していても身体が実際に動いていないと、脳が「身体が静止している」と錯覚して感覚の乱れを起こし、それが乗り物酔いとして現れます。対照的に、サイバー酔いは被験体は静止しているのに、変化する視覚的イメージを見て、脳に動いている感覚が強く引き起こされることによって起こります (Arns and Cerney, 2005)。

サイバー酔いの感覚は乗り物酔いの体験とよく比較されます。

サイバー酔いには、乗り物酔いを引き起こす要因は 1 つもありません。しかし、ラグ、フレームレート、ビジュアルディスプレイの更新レートなどの要素が、それぞれ酔いを引き起こす可能性があります。そのほか、酔いを発生させる可能性のある要因として、コントラスト、解像度、カラー、有効視界、表示領域、両眼視野、シーンの内容、ちらつき、カメラの動きなども挙げられます。

現世代の VR の初期段階では、シミュレーション酔いがもっとも一般的とみなされ、多くのユーザーに VR との関係においてネガティブなイメージを与え続けています。サイバー病を防ぐための方法として、ハードウェア上におけるコンテンツに当てはめることが一般的に認められています。その多くが、ユーザーがサイバー病に対する耐性を高めることができると考えられています。体験については、特に若いユーザーへの影響が見られるなど、多くの実例が残されています。

有効に使える場面 :

サイバー酔いは、個々のプロジェクトと VR に関する全体的な評判と可能性の両方に、重大な課題をもたらします。サイバー酔いを引き起こす VR コンテンツは、採用を厳しく制限されることがあり、VR の評判を損なう可能性もあります。リサーチを実施し、さまざまなテストも行ってください。幸いにも、サイバー酔いに関するベストプラクティスは、業界で共有されています。

Direct3D 変換パイプライン

定義:

Direct3D 変換パイプラインは、Microsoft Windows 向け Direct3D グラフィックス API 固有のグラフィックス変換パイプラインです。このグラフィックス変換パイプラインの実装では 3 つの Direct3D 行列(ワールド トランスフォーム、ビュー トランスフォーム、射影トランスフォーム)が使用されます。Direct3D 行列は、高水準グラフィックス変換パイプラインで見られる行列のように作用します。

有効に使える場面 :

グラフィックス変換パイプラインは、Direct3D で動作するデバイスに合わせてご利用することができます

アイトラッキング

定義:

ヘッドマウントディスプレイに視線追跡機能を付加したカメラは、ユーザーがどの方向を見ているかを追跡することができます。アイトラッキングは新しい入力方式として使用できます。 たとえば、ドッグファイトシューティングゲームで敵機を標的にするために使用されます。例を挙げると、「FOVE」は、Kickstarter キャンペーンの有望な視線追跡機能と Foveated Rendering(中心窩適応レンダリング) SDK でローンチした HMD です。

アイトラッキングは、Foveated Rendering の必須条件ではありませんが、ユーザーの視線方向に基づいて高解像度領域を移動することができるため、大幅な改善を実現することが可能です。さらに、新しいユーザーは自身の視線で周囲を見渡すために、自然な傾きを克服するのが困難である傾向があります。問題は、HMD 光学系だと画面の中心に向かって真っ直ぐに見るときに最もよく見える傾向があることで、本来であれば、ユーザーが自身の頭を回して周囲を見渡せるのが理想となります。アイトラッキングは、ユーザーが自身の視線を使って自然に VR 内を追跡できる第一歩となるでしょう。

有効に使える場面 :

没入感が高く、VR 酔いのない快適で直感的な VR コンテンツを実現する方法です。

顔分析

定義:

一定の顔の特徴をリアルタイムで追跡することによって、静止画像とビデオシーケンスからデータを取得するように設計されたコンピュータビジョン技術。

有効に使える場面 :

より納得のいく、自然なゲーム内キャラクターやインタラクション、ストーリーテリング、イマージョンプレゼンスを実現しながら、革新的な新しいインタラクションのメカニズムの可能性を提供します。

動眼視野

定義:

視界に関連する「動眼視野」は、ユーザーが目、頭、首を動かすときを含め、一定の位置から見ることができる空間をカバーします。

有効に使える場面 :

動眼視野は、通常の視野に加えて、VR、AR、MR 体験のシネマトグラフィや、フレーミングを構築している視聴者の視点です。

視野角(別名「FOV」)

定義:

視野角とは、まっすぐ前方を見ているときに、見えている範囲のすべてを指します。 また、FOV とは、現実の世界と MX コンテンツの両方において自然に見えている範囲を指します。ちなみに、人間の視野角の平均は約 200 ° です。

バーチャルリアリティヘッドセットやヘッドマウントディスプレイ (後者は別名「HMD」とも呼ばれている) を研究する際、視野角のスペックがあることに気付くでしょう。最新の VR ヘッドセットは 90° ~ 110° という最小限の視野角を持っており、これが大きな VR 体験の基準 (ベースライン) となります。視野角が大きければ大きいほど、ユーザーは見える範囲が広がり、その結果、より没入感のある体験が可能になります。これは、IMAX シアターのスクリーンと通常のムービーシアターのスクリーンとの違いに似ています。IMAX スクリーンは通常のシアターよりはるかに大きいため、全視野をほぼカバーし、通常のシアターでは感じることの出来ない奥行を演出できるため、より臨場感のある体験を実現できます。

レンズ光学系 (色収差と樽型歪曲)の制限が厳しくなり、光学系自体がより大きく、あるいはより複雑になったため、広い視野角を実現することが難しくなりました。HMD スクリーン上に映し出される画像は、HMD の光学系が主な原因で、魚眼レンズで撮影された写真のように歪んでいます。また、視野範囲を広げると表示可能なディスプレーの解像度が拡大されます。これは、より高い FOV で同じ画素密度を維持するために解像度を上げる必要があることを意味します。それらによる潜在的な影響は、Multi-res VR Shading と Foveated Rendering 機能の使用によって軽減できます。

また、HoloLens などのヘッドセットでは、視野角 (FOV) が制限により規定されています。 これは厳密な定義ではありませんが、スマートフォンの AR 体験の「field-of-view」が表示可能な画面サイズであることが含まれる場合があります。

なお、まれに field-of-view を「field-of-vision」と呼ぶこともあります。

参考として「Field-of-Regard」も併せてご確認ください。

有効に使える場面 :

もしあなたが HMD メーカーなら、検討してみなければならない FOV の課題がたくさんあります。コンテンツクリエイターにとってハードウェアの FOV の制限は、VR や AR のビジョンを描くことができる「キャンバス」を効果的に設定します。これは、マルチフォーマットのリリースでは特に重要な要素です。

フォービエイテッドレンダリング(Foveated Rendering)

定義:

高度な VR レンダリングエンジンは、ヒト生物学を補完するように機能して視野を中心に多くの時間を費やし、field-of-view (視野角) の周辺部のディテールをより小さくレンダリングします。

コンピュータが低解像度だったり、簡略化されたオブジェクトでレンダリングできたりする場合、シーン全体をより高速でレンダリングすることができます。人間の目は視野の中心ほど詳細に認識できるため、各フレームには表示されないディテールもたくさんあります。フレームの外側に行くに従って低解像度でレンダリングすることで、中心で処理にかかる時間をより長くしたり、逆に単一のフレームをより高速でレンダリングすることもできます。

有効に使える場面 :

フォビエイテッドレンダリングは、処理能力を大幅に削減します。また、GPU については、より多くのメモリを提供し「シーン全体を最高の解像度でレンダリングする」という制限なく、VR であなたのアイデアを実現します。

Frames-Per-Second(FPS、フレーム数/秒)

定義:

FPS とは「フレーム数/秒」の意味で、「画面上の映像が 1 秒間に何回リフレッシュされるか」を表します。

有効に使える場面 :

毎秒のフレーム数が高ければ高いほど、動きは滑らかになり、VR 体験がより快適になります。ゆっくりした動きや不安定な動きはしばしばシミュレーション酔いを引き起こすことがあるため、フレームはバーチャルリアリティにとって非常に重要な要素です。ユーザーが快適に VR を体験するためには、デスクトップやコンソール VR では少なくとも 90 FPS 以上、モバイルでは少なくとも 60 FPS 以上の VR ヘッドセットを用意する必要があります。現在市場に出回っているほとんどの VR ヘッドセットは、毎秒 60~120 フレームを実現できる性能を持っています。これは、画面のリフレッシュレートとしても知られており、しばしばヘルツで識別されます (90 Hz など)。

視界外カリング(Frustum Culling)

定義:

Near Clip Plane と Far Clip Plane のプロパティーは、カメラのビューの開始および終了場所を決定します。カメラの方向に対して垂直に面が配置され、その位置から測定されます。Near plane はレンダリングされるもっとも近い場所、逆に Far plane はもっとも遠い場所になります。Near と Far の Clip Plane はカメラの視野角で定義された平面のほか、一般的にカメラの錐台として知られているものを定義します。 錐台カリングは、錐台の外にあるオブジェクトが表示されません。Unity の 3D エンジンでは、ゲーム内でオクルージョンカリングが使用されているか否かに関係なく錐台カリングが発生します。

有効に使える場面 :

錘台カリングは、バーチャルリアリティのパフォーマンスを大幅に向上させ、より快適で、優れた、臨場感のある体験を実現するのに役立ちます。

視線追跡 (別名「アイトラッキング」)

定義:

ユーザーの視線の方向や動きを追跡したり、追跡したデータを入力して追跡データを使用することがあります。「頭部追跡」もあわせてご確認ください。

有効に使える場面 :

非常に微妙なニュアンスを含んだユーザーコントロールの入力方法、およびユーザーが特定の体験時に行ったコミュニケーションに関するデータを取得する方法です。視線追跡が限られる物理的な移動など、ユーザーとコミュニケーションを取る手段を用意することで、アクセスができるようになる強力なツールを提案します。

グラフィックス変換パイプライン

定義:

グラフィックス変換パイプラインは、グラフィックスソフトウェア、ゲームエンジンなど、シーン内で作成されたオブジェクトを意図した空間に、そして最終的にはユーザーの視点に配信するための方法です。グラフィックス変換パイプラインは、より伝統的な 3D の表示方式のように VR/AR と同じく効果的に動作します。

有効に使える場面 :

意図したとおりに VR/AR シーンでオブジェクトが表示されるようにするための信頼できる確立したやり方です。 Unity ではグラフィックス変換パイプラインとそれに関連するマトリックスは提供されることが多く、ユーザーの画面上で VR/AR ホームへの 3D オブジェクトの移動についてあまり気にする必要はありません。

GPU(または、Graphics Processing Unit)

定義:

グラフィックス プロセッシング ユニット (GPU) は、おもにフレームバッファ内でイメージの作成を加速するために使用されるコンポーネント (電子回路を意味する) で構成されています。この場合、そのようなイメージは、スクリーンまたはそれに類似するものに表示する目的で作成されます。それらは、パーソナルコンピュータ、ワークステーション、ゲームコンソール、モバイル機器やその他、多くの場所で見られます。バーチャルリアリティは、ユーザーの左右の目にそれぞれ異なるイメージを作成する必要がある表示方法のため、GPU にかなりの負担をかけます。

有効に使える場面 :

Oculus Rift や HTC Vive など、高性能の VR ソリューションをサポートするには十分な GPU パワーを得なければならないため、消費者はかなりの投資を行う必要があります。価格については、VR の潜在顧客を大幅に制限できるほか、さまざまな方法でバーチャルリアリティにおける GPU のパフォーマンスを最適化できるようになりました。その多くは、この用語集で定義されています。

Haptics(別名:触覚フィードバック)

定義:

Haptics は、画面内のオブジェクトや動きと連動してユーザーに触知を促すために使われます。入力デバイスや特定の触覚ウェアラブルを通して、さまざまな力、一般的にはおもに振動を伝えてユーザーに刺激を与えます。Haptics は幅広く利用されており、古典的な例では振動機能を搭載したゲームコントローラが挙げられます。そのほか、スマートフォンの画面を介して伝えられる振動や、VR ユーザーがコンテンツと利用するときに感じるテクスチャを空中に投影するアレイ型超音波スピーカー など、現代的なアプローチもあります。

有効に使える場面 :

VR の没入感、特に VR のプレゼンスを改善するもう 1 つの方法

ヘッドセット (「ヘッドマウントディスプレイ」または「HMD」)

定義:

バーチャルリアリティや拡張現実のヘッドセットは、一般的にはユーザーが頭部に装着し、目を覆ったり囲んだりするゴーグルのようなデバイス形態をとります。VR ヘッドセットには、通常、ユーザーがバーチャルワールドを見ることができるスクリーンとレンズ、あるいは拡張現実のコンテンツを表示できる半透明のスクリーンが含まれます。注目すべきヘッドセットは、さまざまなハードウェアプラットフォームに対応しており、モバイル端末からコンソールに至るまで VR コンテンツの制作を行うことが可能です。つまり、できるだけ多くの異なる VR プラットフォームをサポートするクリエイティブなツールと技術を活用して作業することが最も良い方法です。

有効に使える場面 :

VR ヘッドセットは現代のバーチャルリアリティの基盤であり、今日では AR や他の HMD に続くテンプレートを確立しました。その技術は、過去 50 年から 60 年に渡って長い道のりを歩み、70 年代初頭頃は非常に高価かつ大型で性能も低かった VR ヘッドセットも、現在ではスキーやスノーボードのゴーグルと同じサイズにまで進化し、性能も向上しています。さらに VR ヘッドセットの中には、Samsung Gear VR や Google Cardboard のように、携帯端末をスクリーンとして使用できるものさえあります。 VR ヘッドセットを調べるときは、スクリーンが内蔵されているか、携帯端末を使用する必要があるかどうかを確認してください。最高の没入型体験をお探しなら、Oculus Rift や HTC Vive などの高性能の VR ヘッドセットを検討することをオススメします。ただし、最高品質の VR ヘッドセットで最高の VR 体験をするためには、高性能なコンピュータを必要とします。素晴らしい品質のモバイル版 VR 体験をお探しなら、Samsung Gear VR と Google Daydream が Google Cardboard 対応の認定ビューアよりもニュアンスの高い体験を提供します。とくに後者は、非常に手頃で、かつ VR の基本的な簡便さを実証できる素晴らしい方法と言えます。

ヘッドトラッキング

定義:

頭部追跡は、さまざまなアプローチを用いて指定したユーザーの首と頭の位置と動きをモニターして追跡を行い、入力や対話のための潜在的な手段を提供します。..

たとえば、ユーザーの首と頭がわずかに傾いていると、その頭部の傾きを追跡し、 HMD で見えるものが同じ角度にシフトすることがあります。また、ユーザーは首を均等に伸ばして周囲を見渡したり、見上げたりできます。そのほか、同じユーザーが特定のゲームプレイアクションをアクティブにするために、「床を見ている」などの動きを取ることができます。

有効に使える場面 :

VR が提供するものの中心とも言えるのが頭部追跡です。 ユーザーが現実世界と情報を交換するように、ユーザーが探索できる世界を創るチャンスです。

没入感

定義:

「没入感」とは、ユーザーをバーチャル世界に完全に引き込むことを指します。VRでの「プレゼンス」は、与えられた体験の範囲内に存在する感覚や潜在意識的な思考を具体的に指しますが、「没入感」は、映像と音の世界に完全に包まれ、現実との境界線を忘れそうになる意味でより一般的な用語になる傾向があります。VRでは、実際的な意味合いにおいては、ユーザーの目、耳、時には手と体が関与しているので、実際の感覚入力や動作を促す指示を遮断しています。

有効に使える場面 :

没入感は、バーチャルな空間が知覚的に説得力があるとユーザーが感じる体験に浸しているか、あなた自身が浸漬していると感じられるかどうか、VR/AR コンテンツ制作の主要な動力になっています。また、没入感は VR の魅力であり、オーディエンスの関心を惹きつけるチャンスを提供します。

没入型体験

定義:

没入型体験の概念は現在の VR / AR の世代よりも前からありましたが、これらの形式をはじめ、MRXR といったコンテンツも含まれます。この用語は、ウェブサイトのデザインや遊園地の乗り物の設計など、特定のアプローチをカバーするために使用されることさえあります。ただし、VR については最小限のインタラクティブかつ非ゲーミングな体験を指します。これらは、本物の VR と360 度動画の両方で提供することが可能です。 この用語は、非常に広範な用語であり「XR」とよく似ていますが、このコンテキストにおいて、従来のフラットスクリーンで消費される伝統的なデジタル体験や映画のワンシーンのような体験は含まれていません。

有効に使える場面 :

ユーザーの興味を引き付けたり、新たなクリエイティブの形を探求できるほか、教育、エンターテイメント、トレーニング、販売促進、サービスその他、さまざまな用途にチャンスを提供します。

没入型エンターテイメント/ハイパーリアリティ

定義:

現実の世界の物性を VR / AR と組み合わせたエンターテイメント、プロモーション、経験的コンテンツ、さらにThe Voidのような体験で見られる物語体験や映画制作など、他の形態も含まれます。

有効に使える場面 :

アミューズメントパーク、アーケード、モール、その他多くのコンテンツを手掛けることができます。これにより、一般の人々が VR を初めて体験できる幅広いアクセスポイントを提供できるようになります。

慣性計測装置 (IMU または Odometry)

定義:

IMU (慣性計測ユニット) は、さまざまな手段や技術によって動きを検出できる電子デバイスです。IMU は、加速度計、ジャイロスコープ (姿勢制御装置)、コンパスなどで構成され、レイテンシーが非常に低いデバイスの絶対回転を測定し、たとえば、ヘッドトラッキングで使用されます。また、光学追跡システムと組み合わせると、IMU を使用して HMD の視野角を決定することができます。

あらゆる追跡システムと同様に、レイテンシー (遅延) と精度は IMU (慣性計測装置) にとって重要な要素です。 一般的にこれらの機能はデバイス間で大きく異なっていません。一方、Samsung GearVR には、Google Cardboard と Daydream とは対照的に専用の IMU が含まれています。どちらも、特定の IMU 内蔵型携帯端末がヘッドセットにもたらすものに依存しています。

有効に使える場面 :

風景やポートレート写真から携帯端末を反転させる、またはモバイルゲームに傾斜制御を加える際に基本となる技術は、VR HMD でバーチャルカメラをユーザーの頭部の方向で合わせるために使用されます。これは、あらゆるタイプの革新的な制御の形態と VR 体験の没入感を提供します。

入力

定義:

入力は、マシン、コンピュータ、その他デバイスと対話処理する方法です。一方で、VR / AR の場合の「入力」とは、バーチャルリアリティやそれに関連するフォームに使用する制御方法のことを指します。これは、コントローラを使った動作追跡 (motion tracking) を意味しますが、多くの VR / AR ではマウスやキーボード、またはゲームパッドを使用してユーザーが情報のやりとりをします。

VR 技術が発展するにつれて、個々の指の動きを追跡するグローブから、体全体を VR 体験で追跡できるボディスーツまで、多くの入力方式が手頃な価格で利用できるようになりつつあります。

有効に使える場面 :

入力は、デザイナーにとってユニークなゲームのメカニクスを実現するための方法となります。また、ユーザーにとってはデジタルな世界と対話し、没入感を得るための手段のひとつです。VR コンテンツ内で感覚や体験を補完しない入力アプローチは、ユーザーをコンテンツに引き込むために多くのことを行い、VR 形態最大の可能性を損ないます。そのため、3Dクリエイターは入力に関する意思決定を十分に行う必要があります。

Inside-Out/Outside-In 方式のトラッキング

定義:

デスクトップ向けバーチャルリアリティの主な 2 つのプラットフォーム、HTC Vive と Oculus Rift は、どちらもカメラまたは「Lighthouse」のいずれかに依存し、 HMD 自体の外部空間の所定の位置に設置します。これは、位置追跡「アウトサイドイン」を定義するものです。一方、Windows Immersive Mixed Reality ヘッドセットや Microsoft HoloLens などのデバイスは、HMD 自体に搭載されたカメラからのイメージを分析するために Odometry (自己位置認識)と呼ばれる技術を使用し、その周囲の環境に対する相対的な位置を追跡します。こちらの方法は、外部カメラの設定とは対照的に「インサイドアウト」の位置追跡が行えます。

有効に使える場面 :

ハードウェアコンベンションは、主にプラットフォーム所有者自身の手に委ねられていますが、利用できる 2 つのオプションでは、VR / AR が関連する設定の数を増やすことで、オーディエンスに新たな体験をもたらします。

瞳孔間距離 (別名 IPD)

定義:

ユーザーの左目と右目の瞳孔がどれくらい離れているかを表す数値。IPD は、VR のスケールの基礎を提供する「基本測定」が何か理解することができます。一部の HMD は、個々のユーザーの IPD により良く適合させるため、レンズの水平変位を物理的に調整できるようにします。

有効に使える場面 :

ハードウェアコンベンションは、主にプラットフォーム所有者自身の手に委ねられていますが、利用できる 2 つのオプションでは、VR / AR が関連する設定の数を増やすことで、オーディエンスに新たな体験をもたらします。

レイテンシー

定義:

レイテンシ (遅延) は、バーチャルの世界がユーザーの動きに反応する速度です。簡単なルールとして、レイテンシーが短ければ短いほど、ユーザーが体験する世界は快適なものとなります。具体的には、レイテンシーが 20 ミリ秒以下であることが理想です。このミリ秒のコマ数が少ないほど、より良い体験が得られます。

レイテンシは、ユーザーの頭部が動いてからと更新された画像がスクリーンに表示されるまでの割合も参照することができます。

有効に使える場面 :

低レイテンシであればサイバー酔いを防ぎ、没入感プレゼンスが高まります。

世界 (シーン) の更新に関して、レイテンシーを最小限に保つことはシーンをより説得力のあるものにし、インタラクティブな体験をよりリアルなものにします。

レイテンシーは、XR 体験の全体的なクオリティにおける重要な要素なのです。

ライトフィールドテクノロジー

定義:

ライトフィールド技術は、キャプチャした画像や動画を加工・変更できるほか、さまざまな計算イメージングやディスプレイ技術、ハードウェアと画像処理ソリューションをグループ化することが可能です。この技術を利用すれば、ビデオコンテンツの焦点距離と絞りをポストで調整したり、さらには一般ユーザーの個人的な経験を元に調整することができます。 Lytro 社が開発したライトフィールド技術を生かしたカメラは、現代のデジタルカメラに基本的に類似した方法で動作します。ライトフィールド技術カメラは複数の角度からカメラのプロセッサーを照らし出せるように、無数の異なる視点でキャプチャするため、約 20 万個の小さなレンズから作られた「マイクロレンズ・アレイ」を使用しています。一方、従来のデジタルカメラのイメージセンサーは、ライトフィールド技術カメラとは対照的に、従来のフィルムカメラと同じく単一の視点から入る光をキャプチャします。

それらの作業の大部分は、処理および較正ソフトウェアで行われます。「ライトフィールドビデオ」もあわせてご確認ください。

有効に使える場面 :

ライトフィールド技術は、革新的な相互作用の可能性を秘めています。また、ユーザーがキャプチャカメラ独自の視点に固定されずにビデオ体験を進められるリアルで立体感のある 360 度動画、VR / AR、MR コンテンツ制作の可能性を提供します。

ライトフィールド動画

定義:

従来の DSLR ビデオカメラとライトフィールドカメラ Lytro Illum を組み合わせた独自のセットアップを用い、バークレーとサンディエゴのアカデミックチームが一般消費者向けのハードウェアでライトフィールドを体験できるハイブリッドなデバイスを構築しました。通常、ライトフィールド技術を生かしたカメラは最大フレームレートがわずか 3 FPS で動画には適していません。この新しいアプローチは、ライトフィールドカメラのすべての利点をビデオワークにもたらします。 つまり、動画ですべてキャプチャした後で、再フォーカス、表示の変更、絞りの変更などを行うことができます。

有効に使える場面 :

ポストプロダクションプロセス、インタラクティブなデザイン、そしてクリエイティビティについて言えば、360度動画といった他のタイプの 没入型ビデオに大きな可能性と柔軟性をもたらす新興テクノロジーです。さらに広い意味では、ライトフィールド技術は VR と360度動画コンテンツにおいて、焦点、視点、距離に関する実世界の手がかりをシミュレーションする方法を提供します。

低残像(Low-Persistence)ディスプレイ

定義:

プレイ中に好きな方向を見回せる機能は、VR が提供する技術のなかでも最も基本的な強みの 1 つです。ただし、初期の VR 技術は、ユーザーの動きが速いと映像がぼやけてしまって不快感を与えたり、没入感を阻害したりすることがあったため、衰退化していきいました。低残像 (low-persistence) ディスプレイは、この問題に対処する方法を提供します。

Google Daydream 仕様のスマートフォンディスプレイの低持続モードは、「レンズを搭載したスマートフォンを使用するだけ」から、モバイルプラットフォームへのアクセスを容易にしました。また、真の VR HMD にくらべて、はるかに多くのものを提供するという特徴的な機能を備えています。Samsung Gear VR のスイッチは HMD に挿入されると、この特殊モードで表示され、Gear VR の開発者モードを使って手動で起動できます。このモードは、HMD の外側から見ると、デバイスがちらついて見えます。そのため、低持続性の状態は一時的であることが重要です。

有効に使える場面 :

VR 技術はより洗練され、ユーザーが思いどおりに移動したり、創造した世界で真のプレゼンスを楽しむことができます。

複合現実 (MR)

定義:

複合現実の体験とは、現実の世界 (風景) と仮想のデジタルコンテンツをシームレスで融合させ、両方の映像が共存して相互に作用する機能を言います。これは VR の体験でもしばしば見られることがあり、純粋な VR / AR がリアル (現実) の対極にあるわけではなく、連続的に変化していくものだということが分かります。これは、没入型エンターテイメント / ハイパーリアリティに類似しています。

「複合現実」は、マーケティング用語として非常に広い範囲にわたって使われてきました。今日では、AR 体験や VR と AR の間を行き来する体験を含め、多くの代替定義が共存しています。それらの定義は、用語の合意された解釈としてますます広がっています。

有効に使える場面 :

複合現実感は 多くの設計上の課題 をもたらし、それをホストし、サポートするプラットフォームに関して多くの進歩が必要ですが、MRを通じて体験の多様性や表示方法をオーディエンスにもたらす計り知れないチャンスがあります。それは、従来の VR / AR では能力や快適さ、好み、予算などの折り合いがつかなかったユーザーへ、より良い VR / AR をお届けできるはずです。

Mixed Reality Capture (MRC または Mixed Cast)

定義:

主にOculus が提唱している用語とアプローチでは、複合現実キャプチャは VR を体験していない人に「コンテンツがどんな内容なのかを感じさせる」という部分が含まれます。このアプローチを使うと、Oculus が提唱しているように、VR アプリのゲーム内映像で現実世界の Rift とTouch を使用している人のライブ映像をマージするビデオや、その他のコンテンツを作成することができます。

有効に使える場面 :

複合現実キャプチャーは、VR 体験を共有、マーケティング、促進し、それを伝えるための魅力的な方法を提供します。

Motion-to-Photon Latency

定義:

Motion-to-photon latencyとは、実際に動作を始めてから HMD 内の映像パネルに反映されるまでの遅延時間のことです。動作開始後は高速で映像に反映されるため、遅延時間は短く測定はかなり難しいのですが、レイテンシの観点から見れば VR システムの総合的な有効性を表しています。ユーザーは時々、同じ条件下で「ラグ」として、この現象を訴えることがあります。

有効に使える場面 :

フレームレートが高ければ、スムーズな動作をレンダリングして、乗り物酔いの原因となる「ストロボ」の出現を回避できます。ただし、VR の不快感は、実際の身体の動きと視覚的な認識の相違が根本的な原因です。このようなとき、コンピュータはフレームを迅速にレンダリングしますが、トラッキングデータが遅延している場合や、フレームをエンコードしてストリーミングする必要がある場合、high motion-to-photon latency は依然として乗り物酔いを引き起こしてしまいます。この問題により、現在、クラウドベースのレンダリングで VR を実行することは困難になっています。

モーショントラッキング

定義:

モーショントラッキング(Motion Tracking)は、VR ユーザーの動作と現実世界のオブジェクトの動作を追跡および記録し、それらを入力として読み取り、動作をリアルタイムにバーチャルリアリティで再現する機能です。

有効に使える場面 :

モーショントラッキングは、VR ユーザーがバーチャルな世界を現実と同じように移動できるようにする機能です。あなたがバーチャルな世界でオブジェクトを見たいときには、実生活と同じようにオブジェクトに近づき、かがみこむことでしょう。モーショントラッキングは、あなたがバーチャルな世界に没入するために必要となる、最も重要なコンポーネントの 1 つです。 同様に、コンテンツ制作者に VR 内から VR コンテンツを作成して形作る方法を提供しています

マルチパスステレオレンダリング

定義:

バーチャルリアリティがユーザーに立体的な 3D を提供するためには、左右それぞれの目に異なるイメージを提供しなければなりません。 これは、2 つの明確な 3D 画像を HMD にレンダリングすることを意味します。ただし、マルチパスステレオレンダリングは、シングルパスステレオレンダリングよりも性能が低いので、複雑なシーンを忠実に再現する場合に、制限がかかる可能性があります。

有効に使える場面 :

ゲームや他の VR コンテンツを制作するツールを作っている人が、マルチパスステレオレンダリングを有効に活用するには多くの努力が必要です。また、あなたが VR を利用するユーザーの場合は、マルチパスレンダリングがバーチャルリアリティ用の HMD を使用する上で、強力なプラットフォームが必要となることがあります。

ノンゲーミング向けバーチャルリアリティー/拡張現実

定義:

教育アプリ、医療トレーニングソフトウェア、建築の視覚化、軍事用シミュレーション、プロモーション用のインストール、テーマパークの乗り物、リテール向け、クリエイティブツールなど、ゲームではない VR 体験は数多くあります。このようなタイプの体験は、今日作られている VR コンテンツの重要な部分を占めるようになるでしょう。

有効に使える場面 :

VR を利用している産業やセクターが増えれば増えるほど、バーチャルリアリティのエコシステムが拡大する可能性も高まります。つまり、それが VR クリエイターであれユーザーであれ、ツールの数や投資、人材が増えていくことにつながります。

OpenGL パイプライン変換

定義:

OpenGL 変換は、OpenGL パイプラインで行われます。そうすることによって、一般的なグラフィックス変換パイプラインと同じ基本プロセス、つまりクロスランゲージやクロスプラットフォームグラフィックス API を利用できます。OpenGL 行列 (マトリックス) は、行列に合わせた Direct3D 変換パイプラインで見られるのと同じ方法で使用します。

有効に使える場面 :

OpenGL API に精通しているユーザーについては、特注のグラフィックス変換パイプラインをご利用いただけます。

OpenVR SDK/API

定義:

Valve がリリースした SDK および API は、SteamVR / HTC Vive、そして類似の VRヘッドセットの開発をサポートしています。対照的に、「OpenXR」イニシャチブは、VR / AR のコンテンツ、ツール、ハードウェアの作成と配布をサポートする一般的基準を定めたいと考えているより幅広いワーキンググループです。

有効に使える場面 :

現世代の VR において、最も多く、かつ人気が高いプラットフォームの 1 つのコンテンツを作成する方法です。

OpenXR

定義:

VR / AR アプリおよびデバイス向けのオープンスタンダードを作成し、業界の断片化を解消するイニシアチブ。併せて「OpenVR SDK / API」もご覧ください。

有効に使える場面 :

VR / AR コンテンツを制作するための、より堅固で、より信頼性の高い高度なエコシステムです。

パノラマ式 2D/3D 動画

定義:

VR / AR 空間に登場する多くの用語と同じく、パノラマ式の 2D / 3D 動画も比較的広い分野をカバーします。それらの用語は、一般的には目線と同じ高さの 360 度全帯域として、または全天球として完全にユーザーを囲うような動画コンテンツを定義します。この用語は、基本的には VR HMD のコンテクストで見られる 360 度動画と、アミューズメントパークのような会場でのスクリーンベースのインストールの両方が含まれます。今日のライブアクション 360 度動画コンテンツはほとんどが 2D 画像ですが、適切な機器と予算があれば立体的なパノラマ式 3D 動画を実現することも可能です。

有効に使える場面 :

360 度動画が提供するパノラマ式動画は、実際のジオメトリの代わりにプリレンダリングされた背景に動画を含めることができます。これにより、ゲーム開発者やマーケティング担当者などのコンテンツクリエイターに、シーンの複雑さを軽減することが可能です。Unity では、この種のビデオコンテンツのビルトインサポートを提供します。

位置トラッキング

定義:

位置トラッキングとは、ユーザーやオブジェクトの動きをリアルタイムで記録することです。ユーザーがバーチャル空間を実際に動き回るので、相互作用として現実世界での動きをバーチャルな世界で再現します。

「頭部追跡」「視線追跡」と同じ分野の用語として「位置追跡」があります。位置追跡は、実際の複合現実体験で見られる HMD、コントローラ、小道具など、実世界のオブジェクトをカバーします。

有効に使える場面 :

基本レベルで、位置トラッキングの相対的な技術は、納得でき没入感を高めることができる VR 体験に影響を与えます。それだけでなく、位置追跡可能なオブジェクトや入力の種類の拡大は、バーチャルリアリティが提供できる体験の範囲を大幅に広げています。

VR 対応の PostFX(またはポストプロセッシングスタック)

定義:

VR 対応の Post FX を使えば、シーンが作成された後でもさまざまなビジュアルエフェクトを適用できます。ポストプロセッシングスタックは、一連の画像エフェクトを単一の後処理パイプラインと組み合わせることで、シングルパスにおける正しい順序でのエフェクト適用を保証しつつ、映画の 1 シーンのような効果を直接かつ効率的に適用し実現します。

有効に使える場面 :

ポストプロセッシングスタックで見られるようなアプローチは、VR の世界にニュアンスとディティールを加え、VR コンテンツの説得力を極限まで高めるための、簡単かつこれまでより素早くできる方法を提供します。

プレゼンス (または、実在感)

定義:

リアリティでもバーチャルリアリティでも、そこにいるといった感覚です。現実には、実在する人が特に意識しており、社会的にインタラクティブな場合があります。VR では、この用語は、あなたがバーチャルな世界を独占していると思わせるような体験に適用されます。現実の世界が存在することや、フィクションの世界が現実であることを忘れたとき、おそらく、本や映画に「実在する」と理解することは可能です。VR は、その他多くのメディア / 形態に比べ他に類を見ない実在感を提供します。

有効に使える場面 :

プレゼンスは VR の基礎であり、プレイヤーの没入感を高めるために欠かせないツールです。エンジニアリングは、クオリティの高い VR を作るために多くの技術が使用されていますが、おそらく最も重要なポイントは、VR を体験しているユーザーに現実を連想させず、プレゼンスを演出することです。それは、矛盾したメニューや一瞬のラグなどによって瞬時に損なってしまう可能性があります。

レンダ―ループ (別名 レンダ―パイプライン)

定義:

レンダーループは、レンダリングされたフレームの構成方法を指示する論理的なアーキテクチャを提供します。一般的なレンダーループは、次のような構造と順序を取ることができます。

Culling > Shadows > Opaque > Transparent > Post Processing > Present

レンダーループは 3D エンジンがシーンを構成するために経由する一連のステップですが、グラフィックス変換パイプラインは、オブジェクトを独自の空間から物理的なスクリーン空間に変換する一連のステップです。

有効に使える場面 :

VR について、2 つの異なる画像を左右それぞれの目にレンダリングしなければなりません。 2 つのレンダーループを実行することは可能ですが、CPUと GPU リソースが要求されます。ただし、Unity のシングルパスステレオレンダリングのような技術の開発は、VR コンテンツをサポートするレンダリングループをより効率的に行い、GPU および CPU の制限を緩和させます。

レンダーターゲット (レンダーターゲットアレイを含む)

定義:

レンダーターゲットは、描画する場所を効果的に機能させるメモリバッファで、エンドユーザーが装着しているヘッドセットにオブジェクトを表示できます。レンダーターゲットの配列によっては、複数のレンダーターゲットに同時に出力させることもできます。

有効に使える場面 :

レンダーターゲットは、ゲームや、それに関連する開発における伝統的な表現法であり、オブジェクトを画面外にレンダリングするのに役立つ機能を提供します。

レンダーテクスチャ

定義:

レンダーテクスチャは、ランタイムで作成・更新される特殊なテクスチャです。使用するには、まず新しいレンダーテクスチャを作成してカメラ の 1 つを指定し、そこにレンダリングします。

有効に使える場面 :

マテリアル内のレンダーテクスチャを使用して、ランタイムの利点をもたらします。

シーングラフ

定義:

シーングラフは、シーンをレンダリングするのに必要な情描画要素を管理する特殊なデータ構造です。シーングラフは、レンダラによって消費され、どのように描画されるのかを理解します。シーングラフは、シーンの全体またはビューに表示される部分のいずれかを参照することができます。後者のコンテキストでは、「カリングシーングラフ」という用語が使用されます。

有効に使える場面 :

秩序立った VR の世界は効率的で信頼性が高く、シーン内のオブジェクトの効率的な位置決めとスケーリングを行い、システムの負荷を最小限に抑えます。

スクリーン解像度

定義:

スクリーン解像度とは、画面に表示されるピクセル数のことを指します。コンピュータのモニターやテレビのように、高画素になればなるほど、画質はより鮮明でリアルに描写されます。ただし、VR ヘッドセットのスクリーン解像度の場合、画像が目から数インチしか離れていないので、ユーザーは個々のピクセル間のギャップを認識させないために、より高いスクリーン解像度が必要となります。さらに、VR ヘッドセットの場合、画面を半分に分割し、左の目は左半分の、右の目は右半分の画像だけを見るようにします。

有効に使える場面 :

開発者や消費者として、中規模からハイエンドの VR ヘッドセットをお探しのときは、最小で 2160 × 1200 (または、片眼辺り 1080 × 1200) のスクリーン解像度を持つものをお探しください。それより解像度が低いものは、画面に小さな黒いドットやラインが見えてしまう「スクリーンドア・エフェクト」と呼ばれる現象に気付いてしまう場合があります。

シングルパスステレオレンダリング

定義:

シングルパスステレオレンダリングは、左右の画像を同時に 1 つのまとまったレンダーテクスチャにレンダリングします。シーン全体が 1 回だけレンダリングされ、CPU 処理時間が大幅に短縮されます。

シングルパスステレオレンダリングステレオインスタンシングを有効にすると、Unity のような3D エンジンは、カメラの3D空間内のどこにオブジェクトが存在するかや、両眼のシャドウデータを元にレンダリングするかどうかに関係なく、カリングを共有します。したがって、レンダリングは表示されるオブジェクトごとに 1 回だけ実行されます。その結果、かなりのスピードアップをもたらす一方で、安定したパフォーマンスを提供することができます。

ステレオインスタンシングは、シングルパスレンダリングにくらべてパフォーマンスが高いのが利点ですが、ハードウェアによるサポートが必要です。この機能がない場合、3Dエンジンは、最初に左目の画像をレンダリング、次に右目の画像をレンダリングというように、シーンを 2 回レンダリングします。

Unity 2017.3 以降は、サポートされているプラットフォームはいずれもシングルパスステレオに加え、入手可能な場合はシングルパスインスタンシングが含まれます。

有効に使える場面 :

従来のレンダーループは CPU 処理時間の短縮が求められているため、VR プロジェクトとは別の場所で作業することが増えています。

Six Degrees of Freedom (6DoF)

定義:

6DoF が提供するシステムは、オブジェクトの位置と回転を 3 次元で追跡することができます。3 つの回転軸と組み合わされた 3 つの軸位置は、自由に制御できる 6 つの「度」の合計です。

有効に使える場面 :

3DoF 回転トラッキング とフル 6DoF トラッキングは、実行できることには大きな違いがあります。たとえば、Wii コントローラはもともと回転だけをトラッキングしていたため、ゲーム開発者はボールを投げたり、テニスラケットをスイングするような際に、コントロールの「メタファー」を使用する必要がありました。一方、HTC Vive と Oculus Touch コントローラーは、VR 空間でユーザーの手がどこにあるかを認識して正確な制御が可能なため、よりリアルなプレゼンスを実現できるようになりました。

SLAM (別名:Simultaneous Localization and Mapping)

定義:

同時ローカライゼーションとマッピングは、空間を車両で移動するエージェントを追跡しつつ、その空間の地図が生成・更新されるプロセスです。今日では、数多くの異なるアプローチが存在し、自動車や家庭用ロボット、AR アプリケーションなどにとって欠かせない技術となっています。

有効に使える場面 :

最新技術 SLAM とそれを動かすアルゴリズムの確立は、AR の進化に大きな影響を与える可能性を秘めており、ゲームやその他のエンターテイメントコンテンツだけでなく、複数の実用的なアプリケーションのツールを提供します。

Spatial Audio (3D オーディオ)

定義:

Spatial Audio は VR ユーザーの頭の動作に反応して音を鳴らすことができます。結果として、3D シーンで特定の位置から音が立体的に聞こえるようにオーディオアセットを構築・配置することが可能です。これは、ホームシアターのセットアップや映画館でのサラウンドサウンドのようなもので、VR におけるプレゼンス没入感を高めるのに、非常に重要な役割を担っています。

有効に使える場面 :

臨場感あふれる VR 体験を実現するにあたり、サウンドは不可欠な要素の一つです。空間のサウンドは、音があなたを取り囲むように前後左右から響き、実生活において頭を動かすことで音の聞こえ方が変わるように、音を鳴らすことが可能です。つまり、VR 開発者は、ユーザーにリアリティや臨場感を与えたり、音を使ってプレイヤーを誘導したりなど、VR とは異なる革新的な方法を提供できると言えるでしょう。

ステレオスコピー (立体視映像)

定義:

写真やその他グラフィックスの手段による立体視を用いた効果を再現します。言い換えれば、人間の体験を再現することは、左右の目で現実の世界を見ることから得られます。 通常は、立体視アプローチは、同じシーンの2つの異なる画像を提供します。1つはユーザーの左目用、もう1つは右目用です。これは、たとえば、HMD の左右のレンズを通して起こります。ユーザーの脳は、2つの画像を結合して左右の目がどのように見えるかと同様に、奥行きと遠近感を備えた 3D シーンを構築し、現実にはそれらの画像をどのようにコンパイルするのかを示します。

有効に使える場面 :

VR コンテンツは、より没入感があり、より多くのプレゼンスを提供し、従来のフラットなディスプレーで見ることのできる、よりはっきりとした体験を実現します。

ステレオインスタンシング

定義:

シングルパスレンダリングの進化と、最新のレンダリング最適化アプローチによって、開発者が VR でよりスムーズな体験を実現させるためのフレームレートの予算は、従来のゲーム開発と比べて信じられないほど少額で実現できるようになりました。

有効に使える場面 :

開発者が CPU 処理時間を節約し、どこでも使用できる電力を無料で提供する方法です。

Tracked Pose Driver

定義:

実世界のデバイスやオブジェクトの位置と回転を、対応する仮想オブジェクトの位置に合わせることで、プレイヤーの動きや周辺機器のトラッキングの設定を簡略化する内蔵型クロスプラットフォームのドライバーコンポーネントです。

有効に使える場面 :

リアリティがあり、納得が行き、かつ応答性の高いトラッキングを提供することは、クリエイターにとってそれほど難しいことではありません。一方、プレイヤーにとっては、没入感プレゼンスが大幅にサポートされるようになります。

トラッキング

定義:

トラッキングは、完全没入型の VR 体験に必要不可欠です。VR HMD の位置や専用コントローラーなどの周辺機器をトラッキングすることで、「ユーザーがどこを見ているのか」や「何をしているのか」をコンピュータに伝え、正確かつ適切に仮想世界を描画することができます。トラッキングが正確であればあるほど、VR 体験もより快適なものになります。モーショントラッキング位置トラッキングアイトラッキングも併せてご確認ください。

有効に使える場面 :

ゲームを制御する革新的な方法であり、没入感プレゼンスを高めることに成功しています。また、クオリティの高いトラッキングは、サイバー酔いを防ぐ対策としても有効です。

不気味の谷

定義:

1970 年代に、ロボット工学の世界的なパイオニアである森政弘名誉教授が提唱した不気味の谷は、人間が人間の容姿に近い物理的またはデジタル的なオブジェクトと関わるとき、「人間にどの程度似ているか」によって感情が変化する現象を明らかにしています。オブジェクトが人間の容姿に近づけば近づくほど、人間はそのオブジェクトに対して好意的な感情を抱くでしょう。 ただし、人間が抱く感情を折れ線グラフとして表したとき、決してシンプルな右肩上がりの線を形成するわけではありません。「人間にどの程度似ているか」がある一定のラインを超えると、人間がそのオブジェに抱く感情は一気にネガティブなものへと変化し、不気味で気味が悪いと感じるようになります。 そして、そのラインを超えてさらに人間に近づいていくと、人間が抱く感情は、再び好意的なものになっていきます。このネガティブな感情への変化が、タイトルである「不気味の谷」と呼ばれる現象です。

人間的なオブジェにおいて、多くの場合、ほぼ完全で説得力のある人間の姿よりも、リアルでない物理的・デジタル的な人間の姿のほうが、より魅力的なものになります。

有効に使える場面 :

不気味の谷効果は、VR や他の MX 型における没入感プレゼンスを壊してしまう可能性があります。そのため、視聴者に否定的な感情を抱かせないように、コンテンツクリエイターは、リアルを追求した忠実度の高いデザインのキャラクターよりも、あえて忠実度の低いキャラクターを採用する場合があります。

前庭系(Vestibular System)

定義:

動作感知装置として機能する内耳道を通るすべての神経。私たちの動きを感知してバランスを保つ役割があります。視覚と前庭器官の衝突、すなわち「前庭感覚からの情報のミスマッチ」は、サイバー酔いと乗り物酔いを感じる要因の中核を成します。

有効に使える場面 :

前庭器官は、VR、AR、MR コンテンツの解釈と、その成功を考える上で基本となるものです。基本的な理解は、より説得力のある没入型体験をユーザーに提供するための役に立ちます。

バーチャルリアリティ

定義:

バーチャルリアリティが進化し多くの分野でさまざまな用途が見つかったことにより、いくつかの異なる定義が出てきました。そのほとんどが大幅に重複しており矛盾が見られます。ただし、VR が提供している枠組みにおいて、以下の要素についてはほぼ普遍的です。

  • ユーザーを完全に取り囲む CG(コンピュータ合成)のステレオ視によるビジュアルを使用すると、周りの現実世界の環境をすっぽり覆ってしまう。多くの人は、この定義が真の VR から360度動画を正しく除外していると考えている。
  • ビューア中心の観点からコンテンツは消費および体験される。
  • 詳細な情報のやりとりを通じ、仮想環境内においてユーザーとリアルタイムに相互作用が発生する。ここで言うリアルタイム要素とは、アプリケーションかフィールドに「固有かつ特定の間隔で反応が起きること」を意味する。

有効に使える場面 :

VR ヘッドセットとヘッドホンを使用すると、2つの最も優れた感覚、視覚と聴覚を引き付けることによりハイレベルのVR没入感が実現できます。VR ヘッドセットでは、バーチャルな世界または体験を自然視でビューのフィールドの端まで視界をほぼ完全に覆います。周りを見渡すと、実生活で見渡すときと同じように環境を体験するでしょう。ヘッドホンは、周囲の騒音を遮ることで体験を増幅し、VR 体験内の音を聞くことができます。頭を動かすと VR 環境内で実生活を模擬するように頭の向きに応じて音が移動します。

Unityでは、高度に洗練された VR コンテンツを作成し、提供することができるようになりました。 このようなソリューションでは、 さらに身近に体験できる VR の作成 を追求することで表示方法がますます一般的になってきていることを意味します。つまり、VRコンテンツ制作を習得 して、増えつつあるオーディエンスの関心を引き付けるチャンスができるのです。

VR/AR プログラミング

定義:

VR と AR のプログラミングは、他の表示方法や従来のタイプのコンテンツのプログラミングに匹敵します。AR / VR 開発のプログラミングについては、特にC++とC#で実装されるケースが一般的です。すでに確立されている開発ツールがコーディングの指定された達成水準を維持しながら、VR / AR の到来にどのように適応したのかをツールに反映しています。

有効に使える場面 :

あなたが身に付けた、あるいはチームメンバーのプログラミングスキルで、VR / AR の開発に対応できます。

ボリューメトリックビデオ

定義:

最も美しい 3D 360 度動画でも、ユーザーが自由に世界を移動できるようになるためには限界があります。今日まで、ほとんどの 360 度動画は、動画をキャプチャするために使用されたときのカメラの元の位置を選び、それに従うようにユーザーを制限します。 ボリューメトリックビデオでは、撮影される空間のボリュームデータをキャプチャすることで、各フレームごとにその制限に対処します。このデータを使用すると、シーンをレンダリングされたグラフィックシーンであるかのように表現することができます。つまり、ユーザーは動画の周りを歩き回ることができます。

有効に使える場面 :

動画内を動き回れるライブアクションの立体的な360度動画コンテンツ。それは将来の VR がどのようになるかについて、根拠のない何かの予測をするかもしれません。

VR インスタレーション

定義:

VR インスタレーションは、場所またはサイト固有の VR 体験です。それらは、アートインスタレーションのようなもので見られるか、アミューズメントパークのような複数の場所に再現される一度だけの作品になる可能性があります。これらは、しばしばマーケティングエンティティとして使用されます。 たとえば、ComicCon で映画を宣伝したり、音楽フェスティバルでブランドを宣伝する、といったものが該当します。このようなコンテキストでは、手の込んだ物理的環境や物理的な効果、たとえば、風や動くフロアの生成などがサポートされています。さらに、小売業者はサイトで一時的または永続的な VR インスタレーションを実装することも可能。消費者はショールームにストックされていない新しい車の体験をテストすることができます。

有効に使える場面 :

VR インスタレーションは、機器を揃えずともハイエンドのバーチャルリアリティをサンプリングする機会を消費者に提供します。また、より多くのブランドがマーケティングツールとして VR を使うようになるにつれて、クリエイターにも確かなチャンスを提供していきます。

WebAR

定義:

専用のアプリをダウンロードする代わりに、ブラウザ上で AR 体験を可能にするオープンスタンダード。WebVR と比較することができます。

有効に使える場面 :

WebAR は、スマートフォンブラウザを介して AR 体験を実現できるモバイル端末や、AR コンテンツを制作する簡単な Web アプリを提供できるモバイル端末にとって特に重要です。これは、AR コンテンツ制作とユーザーの AR コンテンツにアクセスするためのハードルを大幅に下げるだけでなく、AR 開発者にとって便利なテスト能力を提供することもできます。

WebVR

定義:

専用のアプリを最初にダウンロードする代わりに、ブラウザ上で VR 体験を可能にするオープンスタンダード。

有効に使える場面 :

VR はハイエンドのコンピューティングハードウェアを導入しなければならないものではなく、ヘッドセットと Web ブラウザのみを使用しています。その結果、アクセス可能な VR が増え、コンテンツクリエイターの潜在的な視聴者も拡大します。WebAR と同様に、この方法は開発者に便利なテストオプションを提供する場合もあります。

XR

定義:

バーチャル環境と実世界の環境を組み合わせた技術を介した体験。ここでは「X」は V(R) / A(R) / M(R) のプレースホルダーとして見られるが、未定義または可変の品質 / 数量も意味します。XRでは、バーチャルリアリティ複合現実拡張現実、シネマティック・リアリティー(映画的現実)、そしてそれ以外のリアリティなどを実現するハードウェア、ソフトウェア、方法や体験などを取り上げています。XR について常識的に考えれば、ユーザーがデジタルオブジェクトを現実世界に持ち込むこともでき、逆に、デジタルシーンに存在する物理的オブジェクトを見ることができるコンテンツとプラットホームも含まれます。

XR 体験には、デジタルオブジェクトを物理世界に持ち込み、物理世界のオブジェクトをデジタル空間に持ち込んだ環境を見るユーザーが、新しい形のもう一つの現実を作り出すという体験が含まれます。

「XR」という用語は総称として一般的に用いられていて VR / AR / MR などの技術をグループ化するためのカジュアルな省略表現として頻繁に使用されています。

有効に使える場面 :

特定の環境に集中するのではなく、XR を広範に研究し理解することで、クリエイターは単一フォームへの取り組みで抑えられることなく、新しく出てきた XR のタイプに対して柔軟性を維持しながら進化させることができます。

OK

弊社のウェブサイトは最善のユーザー体験をお届けするためにクッキーを使用しています。詳細については、クッキーのポリシーのページをご覧ください。