Unity durchsuchen

Auf dieser Seite

Was ist AR, VR, MR, XR, 360?

Virtual Reality (VR) findet seit einigen Jahren immer mehr Beachtung und die Branche entwickelt sich schnell. Es kann schwierig sein, mit all den neuen Begriffen und Abkürzungen Schritt zu halten. Um Ihnen dabei zu helfen, haben wir ein Glossar zum Bereich der immersiven Technologie zusammengestellt, von AR bis XR.

360-Video

Definition:

Häufig als "sphärische Videos" oder "immersive Videos" bezeichnet, sind 360-Videos Videoaufnahmen, bei denen ein Blick in unterschiedliche Richtungen gleichzeitig aufgenommen wird. eine Ansicht gleichzeitig in mehrere Richtungen aufgenommen wird. Normalerweise werden diese Videos mit einer speziellen omnidirektionalen Kamera oder mehreren separaten, miteinander verbundenen Kameras, die als sphärische Anordnung aufgebaut sind, aufgenommen. 360-Videos können Live-Action sein (Kinematografie oder Videografie ohne Animation), animiert (aus einer 3D-Szene) oder eine Mischung aus computergenerierten Grafiken und Live-Action. Nach der Vorbereitung zur Ansicht mittels einer Technologie wie z. B. einer 3D-Game-Engine werden 360-Videos dann vom Benutzer mit einem Headset angesehen.

360-Videos können nicht-interaktiv oder interaktiv sein. Nicht-interaktive 360-Videos sind Erfahrungen, bei denen der Betrachter das Seherlebnis nicht beeinflussen kann, ohne das Video zu unterbrechen oder seinen Kopf zu bewegen, um andere "Kamerawinkel" einzunehmen. Interaktive 360-Videos sind Erfahrungen, bei denen der Betrachter per Blick oder per Controller mit der UI oder anderen Elementen interagieren kann.

Die Möglichkeiten:

360-Videos bieten Entwicklern die Möglichkeit, mit einer Vielzahl von Branchen zusammenzuarbeiten, die Inhalte als Marketing- oder Unterhaltungsform anbieten möchten. Während sich manche Aufgaben bei der Produktion von 360-Videos von der Erstellung digitaler Assets unterscheiden, ist der Nachbearbeitungsprozess vergleichbar mit der Erstellung von Spielen und anderen digitalen MR-Inhalten.

Ambisonic Audio

Definition:

Diese Surround-Sound-Technik deckt Klangquellen unterhalb und oberhalb des Benutzers ab. Eigentlich handelt es sich um eine "Full-Sphere"-Technik, die auch Klangquellen erfasst, die auf der horizontalen Ebene positioniert sind. Ambisonics werden in einem Mehrkanalformat gespeichert. Anstatt jedem Kanal einen Lautsprecher zuzuordnen, geben Ambisonics das Klangfeld auf allgemeinere Weise wieder. Das Klangfeld kann dann basierend auf der Ausrichtung des Hörers gedreht werden – zum Beispiel basierend auf einer Drehung des Kopfes in XR. Das Klangfeld kann auch in ein Format decodiert werden, das dem Lautsprecher-Setup entspricht. Ambisonics werden häufig in 360-Videos und als Audio-Skybox für entfernte Umgebungsgeräusche verwendet.

Die Möglichkeiten:

Ambisonic-Audio bedeutet zwar potenziell höhere Belastungen – sowohl hinsichtlich des Speicherplatzes als auch des Produktionsbudgets – verleiht Ihrer VR-Erfahrung aber eine vollständig immersive Klanglandschaft. Audio-Design und -Produktion sind für VR besonders wichtig, und "3D-Sound" lässt die meisten Virtual-Reality-Erfahrungen überzeugender und immersiver wirken.

Anti-Aliasing

Definition:

Einfach ausgedrückt, ist Anti-Aliasing eine Technik, die gezackte Linien an den Rändern von dreidimensionalen Assets "glättet". Beim Anti-Aliasing wird die Randfarbe der Farbe der Pixel angeglichen, die sich in der unmittelbaren Umgebung befinden. Anti-Aliasing ist in VR von großer Bedeutung, da "unsaubere" Ränder Immersion und Präsenz negativ beeinflussen bzw. verhindern können.

Die Möglichkeiten:

Anti-Aliasing ist ein einfaches und bewährtes Mittel, die visuelle Wiedergabetreue von virtuellen 3D-Inhalten zu verbessern. 3D-Engines wie Unity ermöglichen Entwicklern, die Forward-Rendering nutzen, in vielen Fällen das Multisample-Anti-Aliasing. Während das verzögerte Rendering kein Multisample-Anti-Aliasing zulässt, können Entwickler in diesen Fällen Anti-Aliasing als Nachbearbeitungseffekt anwenden.

API (auch: "Application Programming Interface"; "Programmierschnittstelle")

Definition:

Eine API oder "Application Programming Interface" (Programmierschnittstelle) ist ein übliches Konzept in der Softwareentwicklung, das im gesamten Prozess der VR- und AR-Inhaltserstellung anzutreffen ist. Im Wesentlichen handelt es sich um eine standardisierte Schnittstelle, über die sich Software mit einem Betriebssystem verbinden und dessen Ressourcen nutzen kann. APIs sind für die Benutzer einer VR- oder AR-Erfahrung nicht sichtbar.

Die Möglichkeiten:

Der Zugriff auf die Ressourcen eines Betriebssystems und ihre Nutzung ist einfacher, standardisiert und effizienter.

ARCore

Definition:

Eine reine Software-Lösung für AR, die auf allen Android-Telefonen mit Android Nougat oder einer späteren Version des Betriebssystems läuft. Sie soll mobile AR-Erfahrungen in einer ähnlichen Größenordnung wie ARKit für iOS ermöglichen. Tatsächlich bietet das SDK selbst ähnliche Funktionen wie ARKit. Google hat sich bisher nicht festgelegt, ob ARCore in Android enthalten sein soll oder ob es sich um ein eigenständiges Produkt handeln wird. Es wurde allerdings bestätigt, dass es nicht zur Marke Daydream gehört.

Die Möglichkeiten:

Wenn ARCore so erfolgreich wird, wie Google hofft, bietet es einem breiten Publikum eine leicht zugängliche AR-Plattform. Dies würde wiederum ein enormes potenzielles Publikum für Ihre AR-Inhalte bedeuten.

ARCore-SDK für Unity

Definition:

!link, das die Entwicklung von AR-Apps für Android-Geräte und ARCore ermöglicht.

Die Möglichkeiten:

Eine praktische und effiziente Methode, Inhalte für ARCore-Geräte zu erstellen.

ARKit

Definition:

Ein Framework, mit dem Sie Augmented Reality-Erfahrungen für iPhone und iPad erstellen und starten können.

Die Möglichkeiten:

Eine zugängliche Methode, mit der AR-Erfahrungen dem breiten iOS-Publikum zur Verfügung gestellt werden können.

ARKit-Plugin

Definition:

Das Unity-Software-Paket, das die Entwicklung von Apps für ARKit für iOS ermöglicht.

Die Möglichkeiten:

Besser zugängliche, qualitativ hochwertige AR-Entwicklung für iOS-Plattformen.

AR Light Estimation (AR-Lichtabschätzung)

Definition:

Informationen – basierend auf berechneten Annäherungen – über jede Szenenbeleuchtung, die mit aufgenommenen Video-Frames aus einer AR-Session in Verbindung steht.

Die Möglichkeiten:

AR Light Estimation ermöglicht Ihnen sicherzustellen, dass virtuelle Objekte, die über den Kamera-Feed gerendert werden, so aussehen, als gehörten sie in die Umgebung, was für Immersion maßgeblich ist.

Audio-Spatializer

Definition:

Eine Funktion, die die Art und Weise ändert, mit der der Klang von einer Klangquelle in den umgebenden Raum übertragen wird. Ein solches Plugin reguliert an der Klangquelle die Verstärkungen der Klangaufnahme durch das linke und rechte Ohr; in einer 3D-Engine wie Unity basiert die Berechnung auf der Entfernung und dem Winkel zwischen dem AudioListener und der AudioSource.

Die Möglichkeiten:

Überzeugender, immersiver Sound, der die 3D-Eigenschaften Ihrer VR-Inhalte ergänzt.

Audio-Spatializer-SDK

Definition:

Eine Erweiterung des nativen Audio-Plugin-SDK, mit der die Art und Weise der Klangübertragung geändert werden kann, die eine Audioquelle in den umgebenden Raum abgibt. Das integrierte Panning von Audioquellen ist eine einfache Form des Spatial Audio – es übernimmt die Audioquelle und reguliert die Verstärkung der Klangaufnahme durch das linke und rechte Ohr basierend auf der Entfernung und dem Winkel zwischen dem AudioListener und der AudioSource. Dies liefert dem Spieler einfache Richtungshinweise auf horizontaler Ebene.

Die Möglichkeiten:

Dieses SDK bietet eine einfache und effiziente Möglichkeit, das gesamte Potenzial von Audio-Spatializer-Funktionen zu implementieren.

Augmented Reality (AR/erweiterte Realität)

Definition:

Augmented Reality ("erweiterte Realität") ist die Überlagerung der realen Welt durch digital erstellte Inhalte. Augmented Reality – oder "AR" – ermöglicht dem Benutzer, sowohl mit der realen Welt als auch mit digitalen Elementen oder Augmentationen zu interagieren. AR kann Nutzern über Headsets wie Microsofts HoloLens oder über die Videokamera eines Smartphones zugänglich gemacht werden.

Sowohl in praktischen als auch in experimentellen Implementierungen kann Augmented Reality die Realitätswahrnehmung des Benutzers ersetzen oder verringern. Diese geänderte Wahrnehmung kann beispielsweise auch zur Simulation eines Augenleidens für medizinische Ausbildungszwecke oder für eine allmähliche "Aussperrung" der Realität zur Einführung einer Spielwelt genutzt werden. Es ist erwähnenswert, dass es einen Punkt gibt, an dem Augmented Reality und Virtual Reality verschmelzen oder sich überschneiden können. Siehe auch: "Mixed Reality".

Die Möglichkeiten:

Während sich das Interesse der Verbaucher, Investitionen und der Branchen-Hype zunächst auf die virtuelle Realität konzentrierten, wird erweiterte Realität heute immer wichtiger. Die Zugänglichkeit, die AR bietet, indem die Sicht des Benutzers nicht vollständig eingeschränkt wird, hat zusammen mit dem enormen Potenzial der ungebundenen Verwendung ihre Popularität erhöht. Wie der phänomenale Erfolg von Pokémon GO zeigt – und auch die schnelle Aufnahme von AR als Tool an industriellen und kreativen Arbeitsplätzen – bietet AR die Möglichkeit, bei einem breiten Publikum große Erfolge zu erzielen. Weitere Einblicke in die Möglichkeiten von AR finden Sie in Teil 1 und Teil 2 des Unity-Blogs über die Zukunft der erweiterten Realität.

Augmented Virtuality (Erweiterte Virtualität)

Einfache Definition:

Im Mixed Reality-Kontinuum ist "Augmented Virtuality" (erweiterte Virtualität) zwischen AR und VR angesiedelt. Die genauere Definition bezieht sich darauf, reale Objekte in virtuelle Welten zu bringen, wo mit ihnen interagiert werden kann. Dies könnte als eine Umkehrung – oder ein Spiegelbild – der erweiterten Realität (AR) angesehen werden.

"Augmented Virtuality" lässt sich vielleicht am besten als spezifisches Beispiel für oder Implementierung von MR verstehen. Der Begriff "Augmented Reality/erweiterte Virtualität" ist ungenau und sollte als flexible Terminologie aufgefasst werden.

Die Möglichkeiten:

Augmented Virtuality stellt eine Möglichkeit dar, VR-Räume aus UI-Perspektive intuitiver zu machen und sie für neue Benutzer vertrauter und "freundlicher" zu gestalten.

Cinematic VR

Definition:

VR bietet Filmemachern und Zuschauern enorme Möglichkeiten und neue Wege, Geschichten zu erzählen, das immersive Potenzial von VR auszuschöpfen und die Kraft der Präsenz zu nutzen. Es gibt viele unterschiedliche Beispiele für Cinematic VR ("filmische VR"), von linearen Erzählungen, an denen der Zuschauer teilhaben kann, bis zu "Filmen" mit Gameplay-ähnlichen Elementen. Es gibt verschiedene Interpretationen des Begriffs, aber im Wesentlichen deckt "Cinematic VR" die vielen Ansätze ab, bei denen sich Virtual-Reality-Inhalte Filmmethoden bedienen, um narrative Erfahrungen zu liefern.

Die Möglichkeiten:

Filmemacher erleben eine wahre "Kreativitätsrevolution". Für Zuschauer werden Filme deutlich abwechslungsreicher und spannender. Und für Ersteller von VR-Inhalten wie beispielsweise Spiele kann Cinematic VR Türen öffnen, sodass sie sich weiterentwickeln und für neue Branchen erstellen können.

CPU (oder: "Computer Processing Unit"; zentrale Recheneinheit)

Definition:

Die CPU kann als zentrale Komponente eines modernen Computers angesehen werden. Die Aufgabe der CPU besteht darin, die Anweisungen eines Computerprogramms auszuführen. Heute sind CPUs meist Mikroprozessoren, bestehen also aus einem einzigen integrierten Schaltkreis.

Die Möglichkeiten:

Mit dem Profiler einer Game-Engine können Entwickler sehen, wie hoch die Rendering-Anforderungen an die CPU sind. Wenn Sie diese Daten verstehen, können Sie Teilbereiche von VR-Inhalten optimieren, um Benutzern eine bessere und angenehmere Erfahrung zu ermöglichen.

Cyber Sickness (auch: "Virtuelle Realitäts-Krankheit", "Simulatorkrankheit")

Definition:

"Bewegungskrankheit" oder "Reiseübelkeit", wie sie oft auf langen Autofahrten oder Flügen zu spüren ist, tritt auf, wenn Menschen sich durch den physischen Raum bewegen, ihr Gehirn aber erfasst, dass sie stillstehen bzw. -sitzen, da der Körper nicht zur Bewegung beiträgt. Die Cyber-Krankheit tritt dagegen auf, wenn eine Person sich nicht durch den Raum bewegt, durch die Veränderung der visuellen Bilder aber ein zwingendes Bewegungsgefühl hervorgerufen wird. (Arns und Cerney, 2005)

Trotzdem ist die Cyber-Krankheit mit der Reiseübelkeit/Bewegungskrankheit vergleichbar.

Es gibt keinen bestimmten Einzelfaktor, der Bewegungskrankheit verursacht. Elemente wie Verzögerung, Bildwiederholrate und Aktualisierungsrate der visuellen Anzeige können gleichermaßen Übelkeit hervorrufen. Andere beeinflussende Faktoren sind Kontrast, Auflösung, Farbe, Sichtfeld, Betrachtungsbereich, binokulare Betrachtung, Szeneninhalt, Flackern und Kamerabewegung.

In der Anfangszeit der heutigen VR-Generation wurde Simulationskrankheit als häufiges Phänomen angesehen und viele Nutzer verbinden auch weiterhin negative Assoziationen mit VR. Heute wird allgemein angenommen, dass es in erster Linie an den Inhalten und erst in zweiter Linie an der Hardware liegt, wenn Cyber-Krankheit auftritt. Viele glauben, dass Benutzer durch häufige VR-Nutzung eine Toleranz gegenüber Cyber-Krankheit aufbauen können. Es sind noch viele Fragen offen, was dieses Phänomen angeht, insbesondere seine Wirkung auf jüngere Benutzer.

Die Möglichkeiten:

Cyber Sickness stellt sowohl für einzelne Projekte als auch für den allgemeinen Ruf und das Potenzial der VR eine große Herausforderung dar. VR-Inhalte, die zu Cyber-Krankheit führen, können die Akzeptanz deutlich einschränken und den Ruf von VR schädigen. Recherchieren Sie. Testen Sie. Glücklicherweise werden die besten Vorgehensweisen in Bezug auf Cyber-Krankheit jetzt von der Branche weitergegeben.

Direct3D-Transformationspipeline

Definition:

Die Direct3D-Transformationspipeline ist eine Grafikpipeline speziell für die Direct3D-Grafik-API für Microsoft Windows. Diese Implementierung einer Grafik-Transformationspipeline verwendet drei Direct3D-Matrizen: World Transform, View Transform, Projection Transform. Direct3D-Matrizen funktionieren wie die Matrizen, die in High-Level-Grafikpipelines verwendet werden.

Die Möglichkeiten:

Für Nutzer von Direct3D ist eine maßgeschneiderte Grafikpipeline verfügbar.

Eye-Tracking (Blickerfassung)

Definition:

Kameras im Head-Mounted-Display können verfolgen, in welche Richtung der Benutzer blickt. Eye-Tracking kann als neue Input-Achse verwendet werden, zum Beispiel zum Zielen auf feindliche Flugzeuge in einem Luftkampfspiel. Das FOVE-Headset, ein Kickstarter-Projekt, ist beispielsweise ein HMD, das Eye-Tracking-Funktionen und ein foveales Rendering-SDK verspricht.

Eye-Tracking ist zwar keine Voraussetzung für foveales Rendering, kann jedoch eine deutliche Verbesserung darstellen, da Bereiche mit hoher Detailgenauigkeit basierend auf der Blickrichtung des Benutzers verschoben werden können. Darüber hinaus haben neue Benutzer oft Schwierigkeiten, dem natürlichen Drang, sich per Augenbewegung umzusehen, zu widerstehen. Das Problem ist, dass die HMD-Optik am besten funktioniert, wenn direkt durch sie hindurch auf die Mitte des Bildschirms geblickt wird und der Benutzer idealerweise den Kopf und nicht nur die Augen bewegt, um sich umzusehen. Die Eye-Tracking-Funktion ist der erste Schritt, um Benutzern den natürlichen Gebrauch ihrer Augen in VR zu ermöglichen.

Die Möglichkeiten:

Eine Möglichkeit, angenehmere und intuitivere VR-Inhalte zur Verfügung zu stellen, die immersiver sind.

Face-Tracking

Definition:

Computer-Bilderkennungstechnologie, durch die Daten von Standbildern und Videosequenzen durch das Tracking bestimmter Gesichtsmerkmale in Echtzeit gewonnen werden.

Die Möglichkeiten:

Überzeugendere und natürlichere In-Game-Charaktere und Interaktionen, die Storytelling, Immersion und Präsenz verbesssern sowie großes Potenzial für innovative neue Interaktionsmechanismen.

Field-of-Regard (Blickfeld)

Definition:

Bezogen auf Field-of-View (Sichtfeld) deckt "Field-of-Regard" (Blickfeld) den Raum ab, den ein Benutzer von einer gegebenen Position aus sehen kann, einschließlich bei der Bewegung von Augen, Kopf und Hals.

Die Möglichkeiten:

Neben Field-of-View (Sichtfeld) ist Field-of-Regard (Blickfeld) die Betrachterperspektive, auf der sich die Kinematographie oder das Framing einer gegebenen VR-, AR- oder MR-Erfahrung gründet.

Field-of-View (auch "FOV"; Sichtfeld)

Definition:

Das Sichtfeld (Field-of-View/FOV) umfasst alles, was Sie sehen können, wenn Sie geradeaus schauen. FOV ist das Ausmaß Ihrer natürlichen Sichtweite, sowohl in der Realität als auch in MX-Inhalten. Das durchschnittliche menschliche Sichtfeld beträgt ungefähr 200 Grad.

Wenn Sie sich Virtual-Reality-Headsets ansehen – auch Head-Mounted-Displays oder HMDs genannt –, werden Sie feststellen, dass es eine Spezifikation für das Sichtfeld (Field-of-View) gibt. Die meisten aktuellen VR-Headsets verfügen über ein minimales Sichtfeld von 90 bis 110 Grad, was die Basis für ein gutes VR-Erlebnis ist. Je größer der Sichtfeld-Wert, desto mehr der Umgebung können Benutzer wahrnehmen, da diese bis an die Grenze ihrer Sichtweite reicht, und desto immersiver wird die jeweilige Erfahrung. Der Unterschied ähnelt dem zwischen einer IMAX-Kinoleinwand und einer normalen Kinoleinwand. Die IMAX-Leinwand ist viel größer und beansprucht daher mehr von Ihrem Sichtfeld, wodurch Sie mehr sehen können und eine immersivere Art der Erfahrung erschaffen wird.

Ein weites Sichtfeld ist nur schwer zu erreichen, da die Einschränkungen der Linsenoptik – chromatische Aberration und Tonnenverzerrung – sich stärker bemerkbar machen und die Optik selbst größer oder komplexer werden muss. Wie bei einer Fotografie mit einem Fischaugen-Objektiv werden die Bilder auf dem HMD-Bildschirm verzerrt, um die Optik des HMD zu berücksichtigen. Darüber hinaus "dehnt" die Erweiterung des Sichtfelds die verfügbare Bildschirmauflösung, was bedeutet, dass die Auflösung erhöht werden muss, um die gleichen Pixeldichten bei höheren Sichtfeld-Winkeln beizubehalten – die möglichen Auswirkungen können durch Multi-Res-VR-Shading und foveales Rendering abgeschwächt werden.

Es ist erwähnenswert, dass einige Headsets – wie zum Beispiel HoloLens – auch ein begrenztes Sichtfeld bieten. Man könnte das Sichtfeld ("Field-of-View") einer Smartphone-AR-Erfahrung als die verfügbare Bildschirmgröße ansehen, obwohl dies keine genaue technische Definition ist.

In seltenen Fällen wird das Sichtfeld/Field-of-View auch als "Field-of-Vision" bezeichnet.

Siehe auch: "Field-of-Regard" (Blickfeld)

Die Möglichkeiten:

Für HMD-Hersteller geben FOV-Probleme viel Anlass zum Nachdenken. Für Ersteller von Inhalten legen die Hardware-Einschränkungen hinsichtlich des FOV die "Leinwand" fest, auf der Ihre VR- oder AR-Vision "gemalt" werden kann. FOV ist somit ein wichtiger Faktor, insbesondere bei Multiformat-Veröffentlichungen.

Foveales Rendering

Definition:

Fortschrittliche VR-Rendering-Engines sollen die menschliche Biologie ergänzen und konzentrieren sich mehr auf das Zentrum des Blickfelds. In den Randbereichen des Field-of-View (Sichtfelds) werden dabei weniger Details gerendert.

Der Computer kann die gesamte Szene schneller rendern, wenn er zulässt, mit einer geringeren Auflösung oder vereinfachten Objekten zu rendern. Da das menschliche Auge mehr Details im Zentrum des Blickfelds wahrnimmt, gibt es in jedem Frame viele Details, die wir nicht sehen. Durch Rendern mit geringer Qualität am Rand eines Frames kann der Computer entweder mehr Zeit auf das Rendern von Details im Zentrum des Blickfelds verwenden oder einen einzelnen Frame schneller rendern.

Die Möglichkeiten:

Foveales Rendering kann die Abläufe enorm beschleunigen und bietet Ihnen außerdem mehr Speicherplatz hinsichtlich der GPU. So haben Sie mehr Freiheiten für die Umsetzung Ihrer Ideen in VR, ohne dass Sie durch die Anforderung, ganze Szenen in höchster Auflösung zu rendern, eingeschränkt sind.

Frames-Per-Second (auch: FPS, Bildwechselfrequenz)

Definition:

"Frames-Per-Second" – kurz: FPS – bezieht sich darauf, wie oft ein Bild auf dem Bildschirm jede Sekunde aktualisiert wird.

Die Möglichkeiten:

Je höher die Zahl der "Frames-Per-Second" ist, desto glatter erscheint die Bewegung und desto angenehmer wird ein VR-Erlebnis. Dies ist äußerst wichtig für die virtuelle Realität, da langsame oder abgehackte Bewegungen oft Simulatorkrankheit hervorrufen. Damit Benutzer eine angenehme VR-Erfahrung erleben, sollten sie ein VR-Headset erwerben, das mindestens 90 FPS für Desktop- oder Konsolen-VR und mindestens 60 FPS für Mobilgeräte erreichen kann. Die meisten VR-Headsets auf dem Markt erreichen heute 60 bis 120 FPS. Dies wird auch als Bildrate bezeichnet und manchmal in Hertz angegeben – z. B. 90 Hz.

Frustum-Culling

Definition:

Die Eigenschaften der vorderen und hinteren Schnittebene ("Clipping Plane") bestimmen, wo die Sicht einer Kamera in einer Szene beginnt und endet. Die Ebenen sind senkrecht zur Kamerarichtung angeordnet und werden von ihrer Position aus gemessen. Die vordere Ebene ist der nächste Bereich, der gerendert wird, die hintere Ebene der am weitesten entfernte. Die vordere und hintere Schnittebene bestimmen zusammen mit den Ebenen, die durch das Sichtfeld der Kamera festgelegt werden, das sogenannte Kamera-Sichtvolumen (Kamera-Frustum). Beim Frustum-Culling werden keine Objekte angezeigt, die sich komplett außerhalb dieses Bereichs befinden. Bei 3D-Engines wie Unity läuft das Frustum-Culling unabhängig davon ab, ob Sie Occlusion-Culling in Ihrem Spiel verwenden.

Die Möglichkeiten:

Frustum-Culling kann die Performance in der virtuellen Realität erheblich verbessern und dabei helfen, Erfahrungen zu bieten, die angenehmer, beeindruckender und immersiver sind.

Gaze-Tracking (auch: "Eye-Tracking", "Blickerfassung")

Definition:

Das Tracking, also die Erfassung der Blickrichtung und Bewegung der Augen eines Benutzers und manchmal auch die Verwendung der Tracking-Daten als Input. Siehe auch: "Head-Tracking".

Die Möglichkeiten:

Ein Verfahren, das eine sehr subtile, nuancierte Benutzersteuerung und -eingabe ermöglicht und die Möglichkeit bietet, Daten über die Interaktion eines Benutzers mit einer bestimmten Erfahrung zu beziehen. Gaze-Tracking ist auch ein leistungsfähiges Tool für die Zugänglichkeit, indem es beispielsweise für Benutzer mit eingeschränkter körperlicher Bewegungsfähigkeit eine Möglichkeit zur Interaktion bereitstellt.

Grafik-Transformationspipeline

Definition:

Die Grafik-Transformationspipeline ist ein bewährtes Verfahren, um mit Grafik-Software, Spiel-Engines und dergleichen erzeugte Objekte zu verarbeiten und sie an ihren beabsichtigten Platz in einer Szene und schließlich in die Ansicht des Benutzers zu setzen. Grafik-Transformationspipelines funktionieren für VR und AR auf die gleiche Weise wie für herkömmliche 3D-Anzeigemethoden.

Die Möglichkeiten:

Eine zuverlässige und bewährte Methode, um sicherzustellen, dass Ihre Objekte wie beabsichtigt in einer VR- oder AR-Szene angezeigt werden. Grafik-Transformationspipelines und die zugehörigen Matrizen werden häufig von 3D-Game-Engines wie Unity bereitgestellt, was bedeutet, dass Sie sich nicht allzu viele Gedanken über die Reise Ihrer 3D-Objekte in ihre neue VR- oder AR-Heimat auf dem Bildschirm eines Benutzers machen müssen.

GPU (oder: "Graphics Processing Unit"; "Grafikprozessor")

Definition:

Eine GPU besteht aus einer Komponente – einem elektronischen Schaltkreis –, die speziell dazu verwendet wird, die Erzeugung von Bildern innerhalb eines Bildspeichers ("Frame Buffer") zu beschleunigen. In diesem Fall werden die Bilder zur Anzeige auf einem Bildschirm oder ähnlichem erzeugt. GPUs sind in PCs, Workstations, Spielekonsolen, mobilen Geräten und vielem anderen zu finden. Virtuelle Realität stellt hohe Ansprüche an eine GPU, hauptsächlich aufgrund der Notwendigkeit, dass getrennte Bilder für das linke bzw. rechte Auge des Benutzers erzeugt werden müssen.

Die Möglichkeiten:

Verbraucher müssen für eine GPU-Leistung, die High-End-VR-Lösungen wie Oculus Rift und HTC Vive unterstützt, recht viel investieren. Diese Kosten können die potenzielle Zielgruppe für VR erheblich einschränken, es stehen aber mittlerweile zahlreiche Methoden zur Optimierung der GPU-Leistung in VR zur Verfügung, von denen viele in diesem Glossar definiert sind.

Haptics (auch: "Touch-Feedback", Haptik)

Definition:

"Haptics" simulieren und stimulieren den Tastsinn durch verschiedene Kräfte – meist Vibrationen –, die der Benutzer spürt und die durch Eingabegeräte oder spezielle haptische Wearables hervorgerufen werden. "Haptics" werden eingesetzt, um einem Objekt oder einer Bewegung auf dem Bildschirm eine Greifbarkeit zu verleihen. Ein klassisches Beispiel sind vibrierende Game-Controller, es kann sich dabei aber auch um Vibrationen handeln, die über einen Smartphone-Bildschirm abgegeben werden. Moderne Ansätze sind Ultraschall-Lautsprecher-Arrays, die Texturen in die Luft projizieren, die der VR-Nutzer fühlen kann, wenn er mit dem Inhalt interagiert.

Die Möglichkeiten:

Eine weitere Möglichkeit, VR-Immersion und insbesondere Präsenz in VR zu verbessern.

Headset (auch "Head-Mounted Display" oder "HMD")

Definition:

Ein VR- oder AR-Headset ähnelt üblicherweise einer Brille, die der Benutzer auf dem Kopf trägt und die seine Augen bedeckt oder umgibt. VR-Headsets enthalten meist einen Bildschirm und Linsen, mit denen der Benutzer in die virtuelle Welt hineinsehen kann, oder einen lichtdurchlässigen Bildschirm, auf dem AR-Inhalte angezeigt werden können. Es gibt viele verschiedene Headsets für verschiedene Hardware-Plattformen, und Geräte vom Telefon bis zur Konsole können VR-Inhalte ausgeben. Das bedeutet, dass es sich empfiehlt, mit kreativen Tools und Technologien zu arbeiten, die so viele verschiedene VR-Plattformen wie möglich unterstützen.

Die Möglichkeiten:

Das VR-Headset ist die Basis der modernen virtuellen Realität und hat die Vorlage geliefert, auf der AR- und andere HMDs jetzt aufbauen. Die Technologie hat in den letzten 50 bis 60 Jahren große Fortschritte gemacht, und die schwerfälligen, unbequemen und sehr teuren VR-Headsets der frühen 70er Jahre haben sich zu Brillen entwickelt, die von der Größe her Ski- oder Snowboard-Brillen entsprechen. Manche VR-Sets nutzen sogar das Telefon des Benutzers als Bildschirm, z. B. Samsung Gear VR oder Google Cardboard. Wenn Sie sich ein VR-Headset zulegen möchten, achten Sie darauf, ob der Bildschirm integriert ist oder ob Sie ein Mobiltelefon benötigen. Wenn Sie nach der besten immersiven Erfahrung suchen, kommen zum Beispiel Headsets wie Oculus Rift oder HTC Vive infrage. Dabei sollten Sie allerdings bedenken, dass für High-End-Headsets auch ein High-End-Computer erforderlich ist, damit sie wie gewünscht funktionieren. Wenn Sie mobile VR-Erfahrungen in sehr guter Qualität erleben möchten, bieten Samsung Gear VR und Google Daydream nuanciertere Erfahrungen als Cardboard-VR-Geräte; dafür sind die letztgenannten äußerst günstig und ein hervorragender Weg, die grundlegende Einfachheit von VR zu veranschaulichen.

Head-Tracking

Definition:

Durch verschiedene Methoden überwacht und erfasst Head-Tracking die Position und Bewegungen des Kopfes und Halses eines Benutzers und bietet eine potenzielle Möglichkeit zur Eingabe und Interaktion..

Sind beispielsweise Nacken und Kopf des Benutzers leicht zu einer Seite geneigt, kann bei aktiviertem Head-Tracking das, was der Benutzer auf dem HMD sieht, in den gleichen Winkel verschoben werden. Ein Benutzer kann den Hals auch strecken, um sich umzusehen oder auf und über etwas zu schauen. Derselbe Benutzer könnte auch eine Bewegung wie "auf den Boden schauen" ausführen, um eine bestimmte Gameplay-Aktion zu aktivieren.

Die Möglichkeiten:

Head-Tracking gehört zu den wichtigsten Errungenschaften der VR: eine Möglichkeit, Welten zu erschaffen, die Benutzer auf die gleiche Weise erkunden können, wie sie auch die echte Welt erkunden.

Immersion

Definition:

Immersion bedeutet "Vertiefung" oder "Eintauchen" und bezieht sich darauf, einen Benutzer vollständig in eine virtuelle Welt zu ziehen. Während sich "Präsenz" in VR auf die Empfindung oder die unterbewusste Überzeugung bezieht, in einer virtuellen Erfahrung zu existieren, ist "Immersion" ein allgemeinerer Begriff dafür, vollkommen in die VR vertieft zu sein und die Realität zu vergessen. In der VR läuft die Immersion auch im praktischen Sinne ab, da Augen, Ohren und manchmal sogar die Hände und der Körper des Benutzers in Anspruch genommen werden, wodurch jegliche Hinweise oder Sinneseindrücke aus der Realität ausgeblendet werden.

Die Möglichkeiten:

Immersion ist die wichtigste Stärke der VR – und einiger AR-Erfahrungen – , unabhängig davon, ob es Ihnen in erster Linie darum geht, Ihre Nutzer in eine überzeugende Erfahrung eintauchen zu lassen oder dies selbst erleben möchten. Immersion macht den Reiz und die Faszination von VR aus und bietet Ihnen die Möglichkeit, Ihr Publikum zu fesseln.

Immersive Erfahrungen

Definition:

Der Begriff "immersive Erfahrung" wurde schon lange vor der aktuellen VR- und AR-Generation benutzt, schließt diese Erfahrungen – und potenziell alle MR- und XR-Inhalte – aber ein. Der Begriff wurde sogar für spezielle Ansätze des Website-Designs und bestimmte Freizeitpark-Erlebnisse verwendet. Hinsichtlich VR bezieht sich der Begriff auf vollständig interaktive, minimal interaktive und Non-Gaming-Erfahrungen. Diese können als echte VR oder als 360-Video angeboten werden. Der Begriff ist sehr weit gefasst (wie auch der Begriff "XR"), bezieht sich in diesem Kontext aber nicht auf traditionelle digitale oder filmische Erfahrungen, die über einen herkömmlichen Flat-Screen konsumiert werden.

Die Möglichkeiten:

Eine Möglichkeit, Benutzer zu fesseln, neue kreative Formen zu erkunden, zu lehren, zu unterhalten, auszubilden, zu werben und vieles mehr.

Immersives Entertainment/Hyperrealität

Definition:

Entertainment-, Werbe- und experimentelle Inhalte, die Echtwelt-Körperlichkeit mit VR oder AR kombinieren, sowie weitere Formen wie narrative Erzählungen und Filme, beispielsweise Erfahrungen wie The Void.

Die Möglichkeiten:

Eine Möglichkeit, Inhalte für Freizeitparks, Spielhallen, Einkaufszentren und andere öffentliche Orte und Einrichtungen zu erstellen, die einem breiten Publikum Zugang zu ihrer ersten VR-Erfahrung bieten.

Inertiale Messeinheit (auch: Inertial Measurement Unit/IMU; Odometrie)

Definition:

Eine IMU (oder "inertiale Messeinheit") ist ein elektronisches Gerät, das mit verschiedenen Methoden und Technologien Bewegungen erfassen kann. IMUs bestehen aus einem Beschleunigungsmesser, Gyroskop oder Kompass, um die absolute Rotation des Geräts mit sehr geringer Latenz zu messen und werden beispielsweise beim Head-Tracking eingesetzt. In Kombination mit optischen Tracking-Systemen kann mit einer IMU die Blickrichtung eines HMD bestimmt werden.

Wie bei allen Tracking-Systemen sind Latenz und Genauigkeit die Schlüsselfaktoren für eine IMU. Allgemein werden diese Funktionen nicht besonders beworben und unterscheiden sich zwischen den einzelnen Geräten kaum. Es ist erwähnenswert, dass die Samsung GearVR im Gegensatz zu Google Cardboard und Daydream eine eigene IMU enthält. Die letztgenannten Geräte müssen sich darauf verlassen, was die im Telefon integrierte IMU an die Headsets liefert.

Die Möglichkeiten:

In VR-HMDs wird die gleiche Technologie eingesetzt, die ihr Telefon von "Landschaft" zu "Porträt" wechseln lässt oder Neigungssteuerung für Mobilspiele bereitstellt, um die virtuelle Kamera der Kopfrichtung des Benutzers anzupassen. Dies bietet eine Möglichkeit für alle Arten innovativer Steuerungen und Immersion in VR-Erfahrungen.

Input (Eingabe)

Definition:

Eine Eingabe ist eine Methode, mit einer Maschine, einem Computer oder einem anderen Gerät zu interagieren. Bezogen auf VR und AR ist "Input" oder Eingabe die Steuerungsmethode, die Sie in der virtuellen Realität und ähnlichen Formen einsetzen. Dies bedeutet meistens Motion-Tracking mit Controllern, aber viele VR-, AR- und vergleichbare Erfahrungen lassen den Benutzer auch mit Maus und Tastatur oder einem Gamepad interagieren.

Je weiter sich VR entwickelt, desto mehr Eingabemethoden werden verfügbar und bezahlbar, von Handschuhen, die die Bewegung einzelner Finger erfassen, bis zu Ganzkörperanzügen, mit denen der gesamte Körper in einer VR-Erfahrung eingesetzt werden kann.

Die Möglichkeiten:

Für Designer bieten Eingaben viele Möglichkeiten, ungewöhnliche Spielmechaniken anzubieten. Für Benutzer sind sie eine Möglichkeit, mit digitalen Welten zu interagieren und in sie einzutauchen. Eingabemethoden, die nicht zu ihren VR-Inhalten passen, können den Benutzer aus seiner Erfahrung herausreißen und das größte Potenzial der VR, Immersion, untergraben. Aus diesem Grund überdenken 3D-Entwickler sehr gründlich, welche Eingabemethode sie anbieten.

Inside-Out-/Outside-In-Tracking

Definition:

Die beiden großen Desktop-Virtual-Reality-Plattformen – HTC Vive und Oculus Rift – basieren entweder auf einer Kamera oder einem "Leuchtturm", der an einer festgelegten Position im Raum außerhalb des HMD platziert wird. Dies wird als "Outside-In"-Tracking bezeichnet. Geräte wie die "Windows Immersive Mixed Reality"-Headsets und Microsoft HoloLens setzen mittlerweile eine Technik namens "visuelle Odometrie" ein, um Bilder von Kameras zu analysieren, die auf dem HMD selbst angebracht sind, wodurch die Position relativ zur Umgebung erfasst werden kann. Dieses Verfahren wird im Unterschied zu externen Kameraeinstellungen als "Inside-Out-Tracking" bezeichnet.

Die Möglichkeiten:

Hardware-Konventionen liegen primär in den Händen der Plattforminhaber selbst. Die beiden verfügbaren Optionen erhöhen aber die Anzahl der Umgebungen, in denen VR und AR relevant sind, und vergrößern somit die mögliche Zielgruppen- und Erfahrungslandschaft.

Interpupillary Distance (auch: IPD, Pupillendistanz, PD)

Definition:

Der gemessene Abstand zwischen den Pupillen der Augen eines Benutzers. IPD kann als "Basismesswert" verstanden werden, der eine Grundlage für die Skalierung in VR bietet. Einige HMDs ermöglichen die Anpassung des horizontalen Abstands der Linsen, um sich besser auf die IPD des Benutzers einzustellen.

Die Möglichkeiten:

Hardware-Konventionen liegen primär in den Händen der Plattforminhaber selbst. Die beiden verfügbaren Optionen erhöhen aber die Anzahl der Umgebungen, in denen VR und AR relevant sind, und vergrößern somit die mögliche Zielgruppen- und Erfahrungslandschaft.

Latenz

Definition:

Latenz ist die Geschwindigkeit, mit der die virtuelle Welt auf die Bewegung eines Benutzers reagiert. Eine virtuelle Welt mit hoher Latenz könnte als "verzögert" bezeichnet werden. Als einfache Regel gilt: Je geringer die Latenz, desto angenehmer wird eine bestimmte Erfahrung. Generell sollte die Latenzzeit unter 20 Millisekunden liegen – je weniger Millisekunden, desto besser das Erlebnis.

"Latenz" kann sich auch auf die Rate beziehen, mit der eine virtuelle Welt für den Benutzer aktualisiert wird.

Die Möglichkeiten:

Eine geringe Latenzzeit verhindert Cyber-Krankheit und verstärkt somit die Immersion und Präsenz. Und ganz grundlegend führt eine geringere Latzenzzeit dazu, dass man sich in einer virtuellen Welt wohler fühlt.

Hinsichtlich der Welt-Aktualisierungen lassen minimale Latenzzeiten Welten überzeugender wirken und machen interaktive Erfahrungen angenehmer.

Die Latenz ist ein wesentlicher Faktor für die Gesamtqualität einer XR-Erfahrung.

Lichtfeld-Technologie

Definition:

Die Lichtfeld-Technologie fasst verschiedene Computerbildverarbeitungs- und Anzeigetechnologien, Hardware- und Bildverarbeitungslösungen zusammen, die die Erfassung von Bildern und Videos ermöglichen, die nach der Aufnahme verändert werden können. Das Ergebnis, die Blendeneinstellungen und der Fokus der Videoinhalte können bei der Nachbearbeitung und gegebenenfalls auch in der individuellen Erfahrung eines einzelnen Benutzers angepasst werden. Die von der Firma Lytro entwickelten Lichtfeld-Technologie-Kameras arbeiten im Wesentlichen ähnlich wie die heutigen Digitalkameras. Sie verwenden allerdings ein "Mikrolinsen-Array", das aus etwa 200.000 winzigen Linsen besteht, mit denen sich unzählige unterschiedliche Perspektiven erfassen lassen, wenn Licht aus mehreren Winkeln auf den Prozessor einer Kamera trifft. Im Gegensatz dazu erfasst der Bildsensor einer herkömmlichen Digitalkamera das Licht, wenn es aus einer einzigen Perspektive eintritt, und ahmt im Wesentlichen eine herkömmliche Filmkamera nach.

Ein großer Teil der Arbeit wird auch durch Bearbeitungs- und Kalibrierungssoftware erledigt. Siehe auch: "Lichtfeld-Video".

Die Möglichkeiten:

Die Lichtfeld-Technologie bietet das Potenzial für viel differenziertere, realistischere und variablere 360-Video-, VR-, AR- und MR-Inhalte und damit für zahllose innovative Interaktionen sowie die Möglichkeit für Benutzer, sich durch Video-Erfahrungen zu bewegen, ohne im ursprünglichen Blickwinkel der erfassenden Kamera zu verbleiben.

Lichtfeld-Video

Definition:

Durch die einzigartige Kombination einer herkömmlichen DSLR-Videokamera mit einer Lytro-Illum-Kamera (eine Lichtfeld-Kamera) entwickelte ein Team von Akademikern aus Berkeley und San Diego ein Hybridgerät, das Lichtfeld-Videoaufnahmen auf Verbraucher-Hardware-Ebene ermöglicht. Üblicherweise verfügen Lichtfeld-Technologie-Kameras über eine maximale Framerate von nur 3 FPS, wodurch sie nicht für Videos einsetzbar sind. Dieser neue Ansatz bringt alle Vorteile von Lichtfeld-Kameras in die Videoarbeit, beispielsweise die Möglichkeit zur Neufokussierung, der Wechsel des Blickwinkels, Änderungen der Blendeneinstellungen und mehr, nachdem das Video aufgenommen wurde.

Die Möglichkeiten:

Eine aufstrebende Technologie, die 360-Videos ​​und anderen Formen von immersiven Videos in Bezug auf Nachbearbeitungsprozesse und interaktives Design und Kreativität ein enormes Potenzial und Flexibilität bietet. Im weiteren Sinne bietet die Lichtfeld-Technologie Möglichkeiten, um reale Anhaltspunkte bezüglich Fokus, Perspektive und Entfernung in VR- und 360-Video-Inhalten zu simulieren.

Low-Persistence-Display

Definition:

Die Möglichkeit, sich in einer Erfahrung umzuschauen, ist wahrscheinlich eine der grundlegendsten Stärken der VR. Viele frühe VR-Technologien litten jedoch darunter , dass schnelle Benutzerbewegungen zu unscharfen Visualisierungen, sofortigem Unwohlsein und zum Bruch der Immersion führten. Ein Low-Persistence-Display bietet eine Möglichkeit, dieses Problem zu beheben.

Als Teil der Daydream-Spezifikation von Google bietet der Low-Persistence-Modus für Smartphone-Displays ein wichtiges Unterscheidungsmerkmal. Er verbessert das Angebot von "ein Smartphone mit ein paar Linsen" zu einem echten VR-HMD, wenn auch mit der Anbindung an mobile Plattformen. Die Samsung Gear VR schaltet Displays in diesen speziellen Modus, wenn sie in das HMD eingesetzt werden. Er kann über den Entwicklermodus von Gear VR manuell aktiviert werden. In diesem Modus scheint das Gerät bei Betrachtung von außerhalb des HMD zu flackern. Aus diesem Grund ist es wichtig, dass der Low-Persistence-Zustand vorübergehend ist.

Die Möglichkeiten:

Eine immer weiter optimierte Methode, Benutzern uneingeschränkte Bewegungsmöglichkeiten zu bieten und echte Präsenz in den von Ihnen geschaffenen Welten zu erleben.

Mixed Reality (auch: MR)

Definition:

Eine Mixed-Reality-Erfahrung verbindet die reale Umgebung des Benutzers nahtlos mit digital erstellten Inhalten, wobei beide Umgebungen nebeneinander existieren und miteinander interagieren können. Mixed Reality kommt oft in VR-Erfahrungen und -Installationen vor und kann als Kontinuum angesehen werden, in dem sowohl VR und AR vorhanden sind. Vergleichbar mit "Immersive Entertainment/Hyper-Reality".

Der Begriff "Mixed Reality" wird im Marketing-Bereich häufig verwendet und es gibt zahlreiche verschiedene Begriffsdefinitionen. Manche davon schließen AR-Erfahrungen oder Erfahrungen, bei denen VR und AR sich abwechseln, ein. Die oben angegebene Definition wird allerdings mehr und mehr als die gültige Begriffsbestimmung angesehen.

Die Möglichkeiten:

Mixed Reality stellt Entwickler zwar vor viele Design-Herausforderungen und es ist noch viel Arbeit hinsichtlich der Plattformen nötig, die MR hosten und unterstützen, bietet aber enorme Möglichkeiten, Benutzern verschiedenste Erfahrungen und Display-Methoden zu liefern. Das bedeutet, dass mehr Inhalte einen größeren Personenkreis erreichen können, inklusive derjenigen Personen, für die herkömmliche VR oder AR aufgrund der eigenen Kenntnisse und Interessen, des persönlichen Geschmacks oder aus finanziellen Gründen bisher nicht relevant ist.

Mixed-Reality-Capture (auch "Mixed Cast")

Definition:

"Mixed Reality Capture" (MRC) ist ein Begriff und Ansatz, der hauptsächlich von Oculus vorangetrieben und ermöglicht wird. MRC vermittelt einer Person außerhalb einer VR-Erfahrung einen Eindruck davon, was sie innerhalb des Erfahrung erwartet. Laut Oculus können Entwickler durch dieses Verfahren "Videos und andere Inhalte erstellen, in denen Live-Aufnahmen der Personen, die Rift und Touch in der echten Welt benutzen, mit In-Game-Aufnahmen von VR-Apps verschmelzen".

Die Möglichkeiten:

Mixed-Reality-Capture bietet faszinierende Möglichkeiten, VR-Erfahrungen zu teilen, zu vermarkten, zu bewerben und weiterzugeben.

Motion-to-Photon-Latenz ("Bewegung zum Photon"-Latenz)

Definition:

Motion-to-Photon-Latenz ist das Maß für die Zeit zwischen dem Auftreten einer tatsächlichen Bewegung in der realen Welt und dem Zeitpunkt, zu dem das Auge ein Photon vom HMD-Bildschirm empfängt, das diese Änderung widerspiegelt. Wegen der extrem hohen Geschwindigkeiten und eher geringen Entfernungen ist diese Zeit schwierig zu messen, repräsentiert aber die Gesamtwirksamkeit eines VR-Systems, was die Latenz angeht. Laien setzen dieses Phänomen manchmal mit dem Begriff "Lag" (Verzögerung") gleich.

Die Möglichkeiten:

Eine hohe Framerate sorgt für weiche Bewegungen und verhindert das Auftreten von "Stroboskopeffekten", die zur Bewegungskrankheit beitragen können. Die eigentliche Ursache von VR-Beschwerden ist jedoch die Diskrepanz zwischen der realen Bewegung und der visuellen Wahrnehmung. In einem solchen Fall kann der Computer Frames sehr schnell rendern, wenn aber die Tracking-Daten eine Verzögerung aufweisen oder wenn die Frames codiert und gestreamt werden müssen, kann die hohe Motion-to-Photon-Latenz immer noch Bewegungskrankheit verursachen. Dieses Problem macht es derzeit schwierig bzw. nahezu unmöglich, VR mit cloudbasiertem Rendering zu erstellen.

Motion-Tracking (Bewegungserfassung)

Definition:

Motion-Tracking (Bewegungserfassung) ist die Fähigkeit, die Bewegung eines VR-Benutzers und die Bewegung realer Objekte zu erfassen und aufzuzeichnen, sie als Eingaben zu lesen und diese Bewegungen in virtueller Realität in Echtzeit zu replizieren.

Die Möglichkeiten:

Motion-Tracking ermöglicht es VR-Nutzern, sich in einer Umgebung wie in der Realität zu bewegen: Wenn man sich in einer virtuellen Welt vorbeugt, um etwas genauer anzusehen, kommt man diesem Objekt näher, genau wie im richtigen Leben. Motion-Tracking ist eine der wichtigsten Komponenten, um die Sinne dazu zu bringen, die virtuelle Umgebung als etwas "Greifbares" wahrzunehmen. Außerdem bietet Motion-Tracking den Entwicklern von Inhalten eine Möglichkeit, VR-Inhalte innerhalb der VR zu erstellen und zu gestalten.

Multi-Pass-Stereo-Rendering

Definition:

Damit die virtuelle Realität den Benutzern stereoskopisches 3D bieten kann, muss jedem Auge ein eigenes Bild zur Verfügung gestellt werden. Das bedeutet, dass zwei unterschiedliche 3D-Bilder zu einem HMD gerendert werden müssen. Multi-Pass-Stereo-Rendering ist jedoch weniger performant als Single-Pass-Stereo-Rendering und schränkt daher die visuelle Wiedergabetreue oder die Komplexität von möglichen Szenen ein.

Die Möglichkeiten:

Für Entwickler von Tools zur Erstellung von Spielen und anderen VR-Inhalten muss viel Aufwand betrieben werden, um Multi-Pass-Stereo-Rendering zu ermöglichen und zu unterstützen. Wenn Sie selbst VR-Benutzer sind, könnte Multi-Pass-Rendering der Grund dafür sein, dass Sie eine sehr leistungsstarke Plattform benötigen, über die Sie ein Virtual-Reality-HMD verwenden können.

Non-Gaming Virtual Reality/Augmented Reality (Virtuelle/erweiterte Realität außerhalb von Spielen)

Definition:

VR-Erfahrungen, die alle Inhalte umfassen, die nichts mit Spielen zu tun haben, beispielsweise Bildungs-Apps, medizinische Trainingssoftware, Architekturvisualisierungen, militärische Simulationen, Werbeinstallationen, Vergnügungsparkeinrichtungen, Einzelhandelsanwendungen und kreative Tools. Diese Arten von Erfahrungen machen einen wesentlichen Teil der heute erstellten VR-Inhalte aus.

Die Möglichkeiten:

Gute Nachrichten. Je mehr Branchen und Bereiche VR für sich entdecken, desto weiter wächst das Ökosystem der virtuellen Realität. Das bedeutet mehr Tools, mehr Investitionen und mehr talentierte Entwickler in diesem Bereich – fantastisch, ob Sie nun VR-Entwickler oder Verbraucher sind.

OpenGL-Transformationspipeline

Definition:

OpenGL-Transformation ("OpenGL-Umwandlung") erfolgt in der OpenGL-Pipeline und führt damit denselben grundlegenden Vorgang wie normale Grafik-Transformationspipelines durch, insbesondere für die sprachen- und plattformübergreifende Grafik-API. Es werden OpenGL-Matrizen verwendet, ähnlich wie bei den angepassten Matrizen der Direct3D-Transformationspipelines.

Die Möglichkeiten:

Für diejenigen, die mit der OpenGL-API vertraut sind, steht eine "maßgeschneiderte" Grafik-Transformationspipeline zur Verfügung.

OpenVR-SDK/API

Definition:

Ein SDK und eine API, die von Valve speziell für die Entwicklung von SteamVR/HTC Vive und ähnlichen VR-Headsets entwickelt wurden. Im Gegensatz dazu ist die "OpenXR" -Initiative eine breitere Arbeitsgruppe, die allgemeine Standards zur Unterstützung der Erstellung und Verbreitung von VR- und AR-Inhalten, Tools und Hardware begründen möchte.

Die Möglichkeiten:

Eine Möglichkeit, Inhalte für eine der erfolgreichsten und beliebtesten Plattformen der aktuellen VR-Generation zu erstellen.

OpenXR

Definition:

Eine Initiative zur Erarbeitung eines offenen Standards für VR- und AR-Apps und -Geräte sowie zur Verhinderung der weiteren Zersplitterung der Branche. Siehe auch: "OpenVR-SDK/API".

Die Möglichkeiten:

Ein robusteres, zuverlässigeres und fortschrittlicheres Ökosystem für die Erstellung von VR- und AR-Inhalten.

Panorama-2D-/3D-Video

Definition:

Wie viele Begriffe im aufstrebenden VR- und AR-Bereich deckt der Begriff "Panorama-2D-/3D-Video" ein relativ breites Spektrum ab. Allgemein sind damit Video-Inhalte gemeint, die den Benutzer gänzlich umfassen, sei es als 360-Grad-Band auf Augenhöhe oder als vollständige Sphäre. Im weitesten Sinne bezieht sich der Begriff sowohl auf 360-Videos, die in einem VR-HMD-Kontext angesehen werden, als auch auf bildschirmbasierte Installationen an öffentlichen Orten wie Vergnügungsparks. Die meisten Live-Action-360-Videoinhalte sind heute 2D-Bilder, aber mit der richtigen Ausrüstung – und dem passenden Budget – sind stereoskopische Panorama-3D-Videos absolut möglich.

Die Möglichkeiten:

Neben den Möglichkeiten, die 360-Videos bieten, bietet Panorama-Video anderen Entwicklern von Inhalten – Spieleentwicklern und Marketingexperten – die Möglichkeit, die Komplexität von Szenen zu reduzieren, indem Video als vorgerenderter Hintergrund statt echter Geometrie eingesetzt wird. 3D-Engines wie Unity bieten integrierte Unterstützung für diese Art von Video-Inhalten.

Positional Tracking (Positionserfassung)

Definition:

Positional Tracking oder Positionserfassung ist die Fähigkeit, die Bewegung von Benutzern und Objekten in Echtzeit aufzuzeichnen. Dies bedeutet, dass sich Benutzer in der Realität bewegen können und diese Bewegungen als Interaktionen in einer virtuellen Welt reproduziert werden können.

"Positional Tracking" berührt als Begriff ähnliche Bereiche wie "Head-Tracking" und "Gaze-Tracking", deckt aber HMDs, Controller, Requisiten und andere reale Objekte ab, einschließlich solcher, die in Mixed-Reality-Erfahrungen zu sehen sind.

Die Möglichkeiten:

Auf grundlegender Ebene beeinflusst die relative Finesse der Positionserfassung die Fähigkeit einer VR-Erfahrung, überzeugend und immersiv zu sein. Darüber hinaus erweitert das wachsende Potenzial der positionsverfolgbaren Arten von Objekten und Eingaben das Spektrum der Erfahrungen, die die virtuelle Realität bieten kann, erheblich.

Post FX für VR (oder "Post-Processing-Stack", Nachbearbeitungseffekte)

Definition:

Post FX für VR ermöglicht die Anwendung verschiedener visueller Effekte, nachdem eine Szene erstellt wurde. Ein Post-Processing-Stack kombiniert einen vollständigen Satz von Bildeffekten zu einer einzigen Post-Process-Pipeline, sodass filmische Effekte direkt und effizient in der richtigen Reihenfolge für einen Single-Pass angewendet werden können.

Die Möglichkeiten:

Methoden wie der Post-Processing-Stack bieten eine einfache, relativ schnelle Möglichkeit, VR-Welten mit zusätzlichen Nuancen und Details auszustatten, was sie letztendlich überzeugender macht.

Präsenz (oder: "Gefühl der Präsenz")

Definition:

Das Gefühl, sich an einem bestimmten Standort zu befinden, sei es in der echten oder einer virtuellen Realität. In der Realität kann eine "präsente" Person besonders bewusst auftreten oder besonders interaktiv sein. In der VR bezieht sich der Begriff auf die Erfahrung, davon überzeugt zu sein, die virtuelle Welt tatsächlich "einzunehmen". Man könnte wohl auch davon sprechen, in einem Buch oder Film "präsent" zu sein, wenn man die reale Welt vergisst und die Fiktion kurzzeitig zur Realität wird. VR bietet ein einzigartiges Gefühl der Präsenz, das so gut wie kein anderes Medium erreichen kann.

Die Möglichkeiten:

Präsenz ist wohl die grundlegendste Stärke von VR und ein entscheidendes Tool, um die Immersion der Spieler zu erreichen. Präsenz wird durch die zahlreichen Techniken erzeugt, die eingesetzt werden, um qualitativ hochwertige VR zu erstellen. Die wichtigste Regel ist aber vielleicht: "Alles, was einen Benutzer an eine VR-Erfahrung erinnert – statt an die Realität – wirkt der Präsenz entgegen". Das bedeutet, dass ein unpassendes Menü oder ein Moment der Verzögerung das Gefühl der Präsenz in kürzester Zeit aufheben kann.

Render-Loop (auch: "Render-Pipeline")

Definition:

Ein Render-Loop stellt die logische Architektur bereit, die festlegt, wie ein gerenderter Frame zusammengesetzt wird. Ein typischer Render-Loop kann beispielsweise die folgende Struktur und Reihenfolge aufweisen:

Culling > Shadows > Opaque > Transparent > Post Processing > Present

Während ein Render-Loop der Satz von Schritten ist, die von der 3D-Engine zur Komposition einer Szene durchlaufen werden, ist die Grafik-Transformationspipeline der Satz von Schritten, durch die ein Objekt aus seinem eigenen Raum in physischen Bildschirm-Raum umgewandelt wird.

Die Möglichkeiten:

Für VR müssen zwei verschiedene Bilder gerendert werden, eins für jedes Auge. Es können zwar zwei Render-Loops ausgeführt werden, die CPU- und GPU-Ressourcen werden dadurch jedoch sehr stark belastet. Die Entwicklung von Techniken wie Unitys Single-Pass-Stereo-Rendering macht Render-Loops, die VR-Inhalte unterstützen, jedoch sehr viel effizienter, wodurch GPU und CPU für andere Aufgaben zur Verfügung stehen können.

Render-Target (einschließlich "Render-Target-Array")

Definition:

Ein Render-Target ("Renderziel") ist ein Speicherpuffer, in den gerendert wird und der Objekten ermöglicht, im Headset eines Endbenutzers zu erscheinen. Ein Array von Render-Targets ermöglicht die gleichzeitige Ausgabe an mehrere Render-Targets.

Die Möglichkeiten:

Render-Targets sind eine bewährte Konvention in der Spieleentwicklung und ähnlichen Entwicklungsbereichen und bieten eine nützliche Möglichkeit, Objekte offscreen zu rendern.

Render-Textur

Definition:

Render-Texturen sind einzigartige Texturarten, die zur Laufzeit erstellt und aktualisiert werden. Sie können eine neue Render-Textur erstellen, bevor Sie eine Kamera festlegen, die in diese rendert.

Die Möglichkeiten:

Render-Texturen können in einem Material innerhalb einer Game-Engine verwendet werden, was Laufzeit-Vorteile mit sich bringt.

Szenen-Graph

Definition:

Szenen-Graphen sind spezielle Datenstrukturen, die die Informationen einrichten, die zum Rendern einer Szene notwendig sind. Der Szenen-Graph wird vom Renderer aufgenommen und erfasst. Der Szenen-Graph kann sich dabei entweder auf die gesamte Szene oder auf den Teil der Szene beziehen, der in der Ansicht sichbar ist. Im letzteren Kontext wird auch der Begriff "Culled Scene Graph" verwendet.

Die Möglichkeiten:

Geordnete VR-Welten sind leistungsfähig und zuverlässig und stellen durch die effiziente Positionierung und Skalierung von Objekten in einer Szene nur minimale Rechenanforderungen an ein System.

Screen Resolution (Bildschirmauflösung)

Definition:

"Bildschirmauflösung" bezieht sich auf die Anzahl der Pixel, die auf dem Bildschirm angezeigt werden. Wie bei einem Computermonitor oder Fernseher ist die Bildqualität umso klarer und realistischer, je mehr Pixel vorhanden sind. Bei einem VR-Headset ist jedoch eine höhere Bildschirmauflösung erforderlich, da das Bild nur wenige Zentimeter von den Augen entfernt ist und Benutzer die Lücken zwischen einzelnen Pixeln wahrnehmen könnten. Außerdem muss der Bildschirm von VR-Headsets in zwei Hälften geteilt sein, um je ein Bild für jedes Auge anzuzeigen.

Die Möglichkeiten:

Wenn Sie als Entwickler oder Verbraucher nach einem Mid-Level- oder High-End-VR-Headset suchen, empfiehlt sich eine Bildschirmauflösung von mindestens 2160×1200 (oder 1080×1200 je Auge). Eine niedrigere Auflösung kann zum sogenannten "Fliegengittereffekt" führen, durch den Sie den Eindruck haben, durch ein Fliegengitter zu schauen, also kleine schwarze Punkte oder Linien auf dem Bildschirm sehen.

Single-Pass-Stereo-Rendering

Definition:

Beim Single-Pass-Stereo-Rendering werden die Bilder für beide Augen gleichzeitig in eine gepackte Render-Textur gerendert. Das bedeutet, dass die gesamte Szene nur einmal gerendert und die CPU-Bearbeitungszeit deutlich reduziert wird.

Wenn Single-Pass-Stereo-Rendering oder Stereo-Instancing aktiviert ist, werden in einer 3D-Engine wie Unity Culling- (die Entscheidung, ob ein 3D-Objekt gerendert werden muss oder nicht, basierend auf der Sichtbarkeit für die Kamera) und Schatten-Daten für beide Augen freigegeben. Jedes sichtbare Objekt muss also nur einmal gerendert werden, was zu erheblichen Beschleunigungen führen kann und dennoch eine stabile Leistung liefert.

Der Unterschied zwischen Single-Pass-Rendering und Stereo-Instancing besteht darin, dass Stereo-Instancing noch leistungsfähiger ist, aber dafür Hardware-Unterstützung erfordert. Ohne diese Funktion rendert die 3D-Engine die Szene zweimal: zuerst, um das Bild für das linke Auge zu rendern, und dann noch einmal für das Bild für das rechte Auge.

Ab Unity 2017.3 verfügen alle unterstützten Plattformen über Single-Pass-Stereo und teilweise auch über Single-Pass-Instancing.

Die Möglichkeiten:

Befreit von den Anforderungen, die herkömmliche Render-Loops an die CPU-Bearbeitungszeit stellen, haben Sie mehr Möglichkeiten, sich mit anderen Bereichen Ihres VR-Projekts zu befassen.

Six Degrees of Freedom (oder: "6DOF"; "Sechs Freiheitsgrade")

Definition:

Ein System mit sechs Freiheitsgraden verfolgt die Position und Drehung eines Objekts in drei Dimensionen. Die drei Positionsachsen kombiniert mit den drei Drehachsen ergeben insgesamt sechs "Grade", die frei gesteuert werden können.

Die Möglichkeiten:

Vollständiges 6DOF-Tracking unterscheidet sich erheblich vom 3DOF-Rotations-Tracking. Der Original-Wii-Controller verfolgte beispielsweise lediglich Rotation, was Spieleentwickler dazu zwang, "Steuerungsmetaphern" für Aktionen wie das Werfen eines Balls oder das Schwingen eines Tennisschlägers einzusetzen. Im Gegensatz dazu können die HTC-Vive- und Oculus-Touch-Controller präzise im Raum gesteuert werden, sodass die Benutzer ein Gefühl dafür bekommen, wo ihre Hände sind. Dies lässt sie mehr Nuancen erfahren und ermöglicht mehr Präsenz.

SLAM (auch: "Simultaneous Localization and Mapping"; "Simultane Positionsbestimmung und Kartenerstellung")

Definition:

SLAM bezeichnet den Prozess, bei dem durch einen Agenten wie z. B. ein Fahrzeug, das sich durch den Raum bewegt, eine Karte generiert und aktualisiert wird, während dieser Agent gleichzeitig im Raum erfasst ("getrackt") wird. Derzeit gibt es viele verschiedene Ansätze, und die Technologie wird für den Einsatz in selbstfahrenden Autos, Haushaltsrobotern und AR-Anwendungen immer wichtiger.

Die Möglichkeiten:

SLAM-Technologien und die zugrunde liegenden Algorithmen haben ein enormes Potenzial, die Entwicklung von AR zu beeinflussen und bieten Möglichkeiten für zahlreiche praktische Anwendungen sowie für Spiele und andere Unterhaltungsformen.

Spatial Audio (oder "3D-Audio", "räumlicher Klang")

Definition:

Spatial Audio bietet eine Methode, Audio-Assets so zu erstellen und zu platzieren, dass – aus der Perspektive des VR-Benutzers – ein bestimmter Ton von einer bestimmten Position in einer 3D-Szene ausgeht. Dies ist vergleichbar mit Surround-Sound im Kino und sehr wichtig für die Präsenz und Immersion in VR.

Die Möglichkeiten:

Sound ist eine der wesentlichen Komponenten für die Erstellung eines immersiven VR-Erlebnisses. "Spatial Sound" ermöglicht Ihnen, überall um Sie herum Sound wahrzunehmen und die Wahrnehmung ihren Kopfbewegungen und damit der Realität anzupassen. VR-Entwickler können so nicht nur eine realistischere Sound-Erfahrung bieten, sondern Sound auch einsetzen, um einen Spieler anzuleiten oder zu führen und innovativere Mechaniken zu nutzen.

Stereoskopie

Definition:

Die Reproduktion der Effekte der binokularen Wahrnehmung durch fotografische oder andere grafische Mittel. In anderen Worten, die "Neuerschaffung" der Erfahrung, die Menschen machen, wenn sie mit beiden Augen die echte Welt sehen. Stereoskopische Verfahren bieten üblicherweise zwei verschiedene Bilder derselben Szene, eins für das linke und eins für das rechte Auge, zum Beispiel über die linke und die rechte Linse eines HMD. Das Gehirn des Benutzers setzt diese beiden Bilder dann zu einer 3D-Szene mit Tiefe und Perspektive zusammen, genau so, wie Bilder auch in der Realität über die Augen wahrgenommen und später "zusammengefügt" werden.

Die Möglichkeiten:

VR-Inhalte, die immersiver sind, mehr Präsenz bieten und individuellere Erfahrungen ermöglichen, als es mit herkömmlichen, flachen Bildschirmen der Fall ist.

Stereo-Instancing

Definition:

Eine Weiterentwicklung des Single-Pass-Renderings und der neueste von verschiedenen Rendering-Optimierungsansätzen, die Entwicklern helfen sollen, ein reibungsloseres VR-Erlebnis zu gewährleisten. Die Framerate-Budgets sind hierbei im Vergleich zu den Beschränkungen und Gegebenheiten bei der herkömmlichen Spieleentwicklung unglaublich klein.

Die Möglichkeiten:

Eine Möglichkeit für Entwickler, CPU-Bearbeitungszeiten zu verkürzen und die Leistung anderweitig zu nutzen.

Tracked-Pose-Driver

Definition:

Eine integrierte, plattformübergreifende Treiberkomponente, die das Einrichten des Trackings von Spielerbewegungen und Peripheriegeräten vereinfacht, indem der Standort und die Drehung von realen Geräten oder Objekten an ihre Position angepasst wird – die Position des entsprechenden virtuellen Objekts.

Die Möglichkeiten:

Die Bereitstellung eines überzeugenden, realistischen und reaktionsfähigen Trackings wird für Entwickler weniger anspruchsvoll. Für Spieler werden Immersion und Präsenz wesentlich unterstützt.

Tracking

Definition:

Tracking ist für eine vollständig immersive VR-Erfahrung entscheidend. Durch die Erfassung der Position des VR-HMDs – oder eines Peripheriegeräts wie z. B. ein spezieller Controller – teilt dieses Verfahren dem Computer mit, wo ein Benutzer hinsieht und was er tut, sodass die virtuelle Welt um den Benutzer herum präzise und passend erstellt werden kann. Je genauer das Tracking, desto angenehmer wird das VR-Erlebnis. Siehe auch: Motion-Tracking (Bewegungserfassung), Positional Tracking (Positionserfassung) und Gaze-Tracking (Blickerfassung).

Die Möglichkeiten:

Innovative Wege, ein Spiel zu steuern und – wieder einmal – stärkere Immersion und Präsenz. Ein qualitativ hochwertiges Tracking ist außerdem eine Gegenmaßnahme gegen Cyber-Krankheit.

Uncanny Valley ("Unheimliches Tal", Akzeptanzlücke)

Definition:

Der Begriff "Uncanny Valley" wurde ursprünglich vom Robotik-Professor Masahiro Mori in den 1970er Jahren geprägt und beschreibt ein Phänomen, das den Bezug von Menschen zu physischen oder digitalen Objekten, die eine menschliche oder menschenähnliche Form annehmen, bestimmt. Je mehr ein Objekt wie ein Mensch aussieht, desto positiver ist die Reaktion eines echten Menschen auf dieses Objekt. An dem Punkt jedoch, an dem ein Objekt fast wie ein fotorealistischer Mensch aussieht – aber nicht ganz –, gibt es einen Rückgang in der positiven Reaktion des Betrachters. Dieser Rückgang ist, wenn man ihn in einem einfachen Kurvendiagramm darstellt, das namensgebende Tal ("Valley"). Es ist zu spüren, wenn wir einen Roboter oder einen computeranimierten Charakter gruselig oder beunruhigend finden, weil er beinahe echt aussieht, aber nicht überzeugend bzw. vollkommen "schlüssig" auf uns wirkt.

In vielen Fällen kann eine physische oder digitale menschliche Form, die unrealistisch wirkt, fesselnder sein als eine, die fast vollkommen "echt" erscheint.

Die Möglichkeiten:

Der "Uncanny Valley"-Effekt in VR und anderen MX-Formen kann viel dazu beitragen, Immersion und Präsenz zu stören oder zu verhindern. Daher entscheiden sich Ersteller von Inhalten häufig dafür, menschliche Charaktere eher weniger genau statt möglichst realistisch zu entwerfen, um eine negative Reaktion der Benutzer zu vermeiden.

Vestibularsystem (Gleichgewichtsorgan)

Definition:

Ein Netzwerk von Kanälen im Innenohr, die als "Bewegungsmelder" dienen und uns ermöglichen, das Gleichgewicht zu halten und unsere Bewegungen einzuschätzen und zu erfassen. Konflikte des visuellen und vestibulären Systems – oder "vestibuläre Diskrepanz" – sind die Hauptursache dafür, dass wir Cyber-Krankheit und Bewegungsübelkeit empfinden.

Die Möglichkeiten:

Das Vestibularsystem ist so grundlegend für die Art und Weise, wie wir VR-, AR- und MR-Inhalte wahrnehmen – und warum diese Wahrnehmung manchmal gelungen sein kann und manchmal nicht –, dass Kenntnisse darüber Ihnen helfen können, bessere Inhalte zu erstellen, die den Benutzern eine überzeugendere Erfahrung der Immersion bieten.

Virtual Reality

Definition:

Da sich die virtuelle Realität in verschiedenen Bereichen und für verschiedene Anwendungsmöglichkeiten weiterentwickelt hat, sind verschiedene Definitionen entstanden, von denen sich die meisten überschneiden. Es gibt zwar auch Unterschiede, aber die folgenden Punkte können als nahezu allgemeingültig für VR angesehen werden:

  • Computergenerierte Stereo-Visuals, die den Benutzer vollständig umgeben und die reale Umgebung um ihn herum vollständig ersetzen. Viele meinen, dass diese Definition 360-Grad-Video zu Recht aus "echter" VR ausschließt.
  • Inhalte werden aus einer betrachterzentrierten Perspektive konsumiert und erlebt.
  • Echtzeit-Benutzerinteraktion innerhalb der virtuellen Umgebung ist möglich, sei es durch detaillierte Interaktionen oder einfach durch die Möglichkeit, sich in der Erfahrung umzusehen. Hier bedeutet das Echtzeit-Element, dass die Reaktion innerhalb eines bestimmten Zeitintervalls auftritt, das für die Anwendung oder den Bereich spezifisch ist.

Die Möglichkeiten:

Ein hohes Maß an VR-Immersion wird erreicht, indem Sie Ihren Seh- und Hörsinn mit einem VR-Headset und Kopfhörern "verbinden". Das VR-Headset sorgt dafür, dass die virtuelle Welt oder Erfahrung fast bis zum Rand Ihres natürlichen Sichtfelds reicht. Wenn Sie sich umschauen, erleben Sie die Umgebung genauso wie beim Umschauen im echten Leben. Kopfhörer verstärken das Erlebnis, indem sie Umgebungsgeräusche blockieren und Sie die Geräusche innerhalb der VR-Erfahrung hören lassen. Wenn Sie den Kopf bewegen, bewegen sich die Geräusche in der VR-Umgebung "um Sie herum" wie in der Realität.

3D-Engines wie Unity haben es möglich gemacht, ausgefeilte VR-Inhalte zu erstellen und bereitzustellen. Solche Lösungen machen das Ziel, VR-Erfahrungen zu erstellen, deutlich zugänglicher, was bedeutet, dass die Display-Methode immer üblicher wird. Und das bedeutet wiederum eine Möglichkeit, die VR-Inhaltserstellung so zu gestalten, dass ein wachsendes Publikum erreicht werden kann.

Virtual-Reality-/Augmented-Reality-Programmierung

Definition:

Die Programmierung für VR und AR ist mit der Programmierung für andere Display-Methoden und herkömmlichere Arten von Inhalten vergleichbar. C++ und C# sind besonders beliebte Programmiersprachen für AR und VR, was zeigt, wie sich bewährte Entwicklungs-Tools an die "neue" VR und AR angepasst haben, während althergebrachte Konventionen der Programmierung beibehalten wurden.

Die Möglichkeiten:

Mit Ihren vorhandenen Programmierkenntnissen – oder denen Ihres Teams – sind Sie bereit für die Entwicklung von VR und AR.

Volumetric Video (volumetrisches Video)

Definition:

Eine Einschränkung auch des schönsten 3D-360-Videos ist die Herausforderung, dem Benutzer zu ermöglichen, sich frei in der Welt bewegen und in ihr agieren zu können. Bislang beschränken die meisten 360-Videos den Benutzer darauf, die ursprüngliche Position der Kamera zu dem Zeitpunkt, an dem das Video aufgenommen wurde, zu übernehmen und zu verfolgen. Volumetrisches Video kann diese Einschränkung aufheben, indem es die volumetrischen Daten eines zu filmenden Raums für jeden Frame erfasst. Diese Daten können dann verwendet werden, um die Szene so darzustellen, als ob es sich um eine gerenderte grafische Szene handelt, was bedeutet, dass der Benutzer im Video umhergehen kann.

Die Möglichkeiten:

Stereoskopische Live-Action-360-Videoinhalte, in denen Sie sich bewegen können. Dies könnte einige der gewagteren Annahmen über die Zukunft der VR wahr werden lassen.

VR-Installation

Definition:

VR-Installationen sind VR-Erfahrungen für bestimmte Standorte und Zwecke. Es können einmalige Kreationen sein – wie z. B. Kunstinstallationen – oder sie können in mehreren Ausführungen an verschiedenen Standorten wie beispielsweise Vergnügungsparks genutzt werden. VR-Installationen werden häufig zu Werbezwecken eingesetzt, zum Beispiel, um einen Film auf einer ComicCon oder eine Marke auf einem Musikfestival zu bewerben. In diesem Fall werden sie oft durch aufwändige Aufbauten und physische Effekte wie Wind oder bewegte Böden unterstützt. Auch Einzelhändler können temporäre oder permanente VR-Installationen vor Ort einsetzen, sodass Kunden beispielsweise ein neues Auto, das nicht im Austellungsraum auf Lager ist, per VR-Installation testen können.

Die Möglichkeiten:

VR-Installationen bieten Verbrauchern die Möglichkeit, High-End-VR zu testen, ohne in eine eigene Ausstattung investieren zu müssen. Sie stellen auch für YouTuber eine echte Chance dar, da immer mehr Marken VR als Marketing-Tool einsetzen möchten.

WebAR

Definition:

Ein offener Standard, der es ermöglicht, AR in einem Browser zu erleben, statt Apps herunterladen zu müssen. Vergleichbar mit WebVR.

Die Möglichkeiten:

WebAR ist insbesondere für Mobilgeräte von Bedeutung, mit denen Websites AR-Erlebnisse über Smartphone-Browser bereitstellen und Entwickler einfache Web-Apps mit AR-Inhalten anbieten können. Dies sollte sowohl die Erstellung von AR-Inhalten als auch den Zugriff für Benutzer erheblich demokratisieren. WebAR könnte auch eine praktische Testmöglichkeit für AR-Entwickler darstellen.

WebVR

Definition:

Ein offener Standard, der es ermöglicht, VR über einen Browser zu erleben, statt zuerst spezielle Apps herunterladen zu müssen.

Die Möglichkeiten:

VR nur über ein Headset und einen Webbrowser nutzen zu können, ohne die Kosten für High-End-Computerhardware tragen zu müssen. Dies führt zu einer leichter zugänglichen VR und zu größeren potenziellen Zielgruppen für die Ersteller von Inhalten. Wie WebAR könnte dieses Verfahren in einigen Fällen eine praktische Testmöglichkeit für Entwickler darstellen.

XR

Definition:

Durch Technologie vermittelte Erfahrungen, die virtuelle und Echtwelt-Umgebungen und Realitäten kombinieren. Hier kann das "X" als Platzhalter für V(R), A(R) oder M(R) angesehen werden, obwohl es auch für eine undefinierte oder variable Qualität/Quantität stehen kann. XR deckt die Hardware, Software, Verfahren und Erfahrungen ab, die Virtual Reality, Mixed Reality, Augmented Reality, filmische Realität und andere erst zur Realität machen. Die meisten Definitionen von XR umfassen Plattformen und Inhalte, bei denen der Benutzer digitale Objekte in die Realität bringen oder umgekehrt physische Objekte in einer digitalen Szene sehen kann.

XR-Erfahrungen beinhalten auch Erfahrungen, in denen Benutzer neue Formen der Realität erzeugen, indem sie digitale Objekte in die physische Welt bringen und Erfahrungen, in denen Objekte der physischen Welt in die digitale Welt gebracht werden.

XR wird allgemein als Oberbegriff und einfache Abkürzung verwendet, um sich mit einem Begriff auf verschiedene Technologien wie VR, AR und MR zu beziehen.

Die Möglichkeiten:

Das umfassende Erforschen und Verstehen von XR – statt sich auf bestimmte Umgebungen zu konzentrieren – sollte es Entwicklern ermöglichen, flexibel zu bleiben und sich mit neuen entstehenden Arten von XR weiterzuentwickeln, statt sich "unumkehrbar" auf eine Form festzulegen.