Buscar en Unity

En esta página

¿Qué es AR, VR, MR, XR, 360?

La Realidad Virtual (VR) comenzó a ser tendencia entre las conversaciones generales un par de años atrás y la industria está avanzando rápidamente. Mantenerse al día con los términos y las siglas puede ser extremadamente difícil. Para ayudarte a que te mantengas al día, hemos creado un glosario de términos que va más allá del espectro de la tecnología inmersiva de AR a XR.

Video 360

Definición:

Denominados con frecuencia «videos esféricos» o «videos inmersivos», Videos 360 son grabaciones de video en las que se graba de manera simultánea una vista en una serie de direcciones. Normalmente se filman con una cámara onmidireccional especializada, o una combinación de cámaras independientes pero conectadas que se instalan en un array esférico. Los videos 360 pueden ser de acción en vivo (cinematografía o videografía que no usen animación), animados (capturados a partir de una escena 3D) o una mezcla de gráficos generados por computadora y acción en vivo. Después de estar preparado para mostrarse a través de la tecnología como un motor de juegos 3D, los videos 360 son visualizados por el usuario en un casco.

Los videos 360 pueden ser interactivos o no interactivos. Los videos 360 no interactivos son experiencias en las que el espectador no puede influir en la experiencia de visualización además de, tal vez, pausar el video o mover la cabeza para apreciar los diferentes 'ángulos de la cámara'. Los videos 360 interactivos son experiencias en las que el espectador puede interactuar con la UI u otros elementos interaccionables a través de un controlador o dispositivo de seguimiento con la mirada.

La oportunidad:

El video 360 es una oportunidad para que los creadores trabajen con una serie de industrias que ahora desean brindar contenido en una forma compatible con el marketing o el entretenimiento. Si bien parte de la producción del video 360 es distinta del desarrollo a partir de assets digitales, el proceso de posproducción es relativamente similar al de la creación de juegos y otro contenido digital MR.

Audio ambisónico

Definición:

Este técnica de sonido envolvente cubre las fuentes de sonido tanto por debajo como por encima del usuario. Oficialmente se trata de una técnica que 'cubre todo el espectro, que atiende también a las fuentes de audio posicionadas en el plano horizontal. Ambisonics se guarda en un formato de multicanal. En lugar de que cada canal se asigne a un altavoz específico, Ambisonics representa el campo de sonido de una manera más general. El campo de sonido puede rotar entonces a partir de la orientación del oyente. Por ejemplo, la rotación de la cabeza del usuario en XR. El campo de sonido también puede decodificarse en un formato que coincida con la configuración del altavoz. Ambisonics normalmente se empareja con videos de 360 grados se utiliza como un Skybox de audio para sonidos ambientales distantes.

La oportunidad:

Si bien el audio ambisónico potencialmente implica mayor gastos (tanto en lo que respecta a memoria como a presupuestos de producción), le da a tu experiencia VR un paisaje sonoro totalmente immersivo. El diseño y la producción de audio son más importantes para la VR que los métodos de visualización previos, y el 'sonido 3D' hará que la mayoría de las experiencias de realidad virtual sean las más convincentes e inmersivas.

Antialiasing

Definición:

En su nivel más fundamental, antialising es una técnica que suaviza las líneas irregulares en los bordes de assets tridimensionales. El método suaviza el color de un borde con el color de los píxeles contiguos. Antialiasing es especialmente decisivo en VR, donde los bordes irregulares pueden comprometer la immersión y la presencia.

La oportunidad:

Antialising ofrece un método directo y bien establecido a través del cual es posible mejorar la fidelidad visual del contenido virtual en 3D. Los motores 3D como Unity permiten a los desarrolladores utilizar el forward rendering para poder multimuestrear el antialising en muchos casos. Si bien el renderizado en diferido no permite multimuestrear el antialising, en estos casos los desarrolladores pueden optar por aplicar el antialising como un efecto posterior.

API (conocida también como «Interfaz de programación de aplicaciones»)

Definición:

Una API, o «Interfaz de programación de aplicaciones», es un concepto común en el desarrollo de software, que se encuentra a lo largo del desarrollo de contenido VR o AR. En resumen, es una interfaz estandarizada que permite al software conectarse con un sistema operativo y hacer uso de sus recursos. Las API no son visibles para el usuario de una experiencia VR o AR.

La oportunidad:

Acceder y aprovechar los recursos y el potencial de un sistema operativo es más fácil, estandarizado y más eficiente.

ARCore

Definición:

Una solución basada solo en software para AR que funciona en todos los teléfonos Android que ejecuta Android Nougat o cualquier versión posterior del OS. Hará posible experiencias AR móvil a escala de manera similar a la forma en que ARKit lo hace para iOS. De hecho, el SDK mismo tiene una funcionalidad similar a ARKit. Google no sabe a ciencia cierta si ARCore se alojará en Android, o si será un producto independiente. Han confirmado que no formarán parte de la marca Daydream.

La oportunidad:

Si ARCore tiene tanto éxito como espera Google, entonces un público enorme tendrá una plataforma AR a su alcance. Esto, por supuesto, significa un público inmenso para tu contenido AR.

SDK de ARCore para Unity

Definición:

El kit de desarrollo de software que hace posible el desarrollo para Las apps de AR apuntan a dispositivos Android y ARCore.

La oportunidad:

Una forma conveniente y eficiente de crear contenido para dispositivos ARCore.

ARKit

Definición:

Un framework que te permite crear y lanzar experiencias de realidad aumentada para iPhone e iPad.

La oportunidad:

Un medio accesible a través del cual puedes introducir experiencias AR a un público grande con iOS.

Plugin ARKit

Definición:

El paquete de software de Unity que permite el desarrollo de apps que apuntan a ARKit para iOS.

La oportunidad:

Desarrollo de AR más accesible y de alta calidad para plataformas iOS.

AR Light Estimation

Definición:

Información (basada en cálculos aproximados) acerca de la iluminación de cualquier escena asociada con fotogramas de una sesión de AR.

La oportunidad:

AR Light Estimation te permite asegurarte de que los objetos virtuales renderizados encima de las imágenes de video se ven como si pertenecieran al ambiente, lo que es fundamental para la immersión.

Audio Spatializer

Definición:

Una función que cambia la forma en la que el audio se transmite desde una fuente de audio al espacio circundante. Un plugin de este tipo toma la fuente y regula las ganancias de las contribuciones del oído izquierdo y del derecho; en un motor 3D como Unity, el cálculo se basa en la distancia y el ángulo entre el AudioListener y el AudioSource.

La oportunidad:

Sonido más convincente e inmersivo que complementa la naturaleza 3D de su contenido de VR.

Audio Spatializer SDK

Definición:

Una extensión del SDK del plugin de audio nativo que permite cambiando la forma en que se transmite el audio de una fuente de audio al espacio circundante. Las panorámicas integradas de las fuentes de audio son una forma sencilla de audio espacial - toma la fuente y regula las ganancias de las contribuciones de los oídos izquierdo y derecho de acuerdo con la distancia y el ángulo entre el AudioListener y el AudioSource. Esto proporciona matices direccionales sencillos para el reproductor en el plano horizontal.

La oportunidad:

Este SDK ofrece un medio sencillo, poco exigente y eficiente a través del cual se puede implementar el potencial ofrecido por las características del espacializador de audio.

Realidad Aumentada (AR)

Definición:

La realidad aumentada es la superposición de contenido creado digitalmente encima del mundo real. La realidad aumentada, o AR, permite al usuario interactuar tanto con el mundo real como con elementos digitales o aumentos. La AR puede ofrecerse a los usuarios a través de audífonos o cascos como los HoloLens de Microsoft, o a través de la videocámara de un smartphone.

En implementaciones tanto prácticas como experimentales, la realidad aumentada puede reemplazar también o reducir la percepción que un usuario tiene de la realidad. Esta percepción alterada podría incluir la simulación de una enfermedad ocular para fines de entrenamiento médico, o la obstrucción gradual de la realidad para introducir un mundo de juego. Vale la pena mencionar que hay un punto en el que la realidad aumentada y la realidad virtual probablemente se fusionan, o superponen. Consulta también 'Realidad mixta'.

La oportunidad:

Si bien gran parte de los intereses de los consumidores, las actividades de inversión y la publicidad de la industria se enfocaron primero en la realidad virtual, la realidad aumentada es cada vez más visible gracias a que no requiere hardware especializado. La accesibilidad brindada por la AR al no restringir por completo la visión del usuario así como el amplio potencial del uso libre han incrementado su popularidad. Tal como ha demostrado el éxito impresionante de Pokémon GO, así como la rápida aceptación de la AR como una herramienta en los centros de trabajo industriales y creativos, la AR ha una oportunidad para disfrutar el éxito rotundo llegado a públicos grandes. Para mayor información sobre la oportunidad que representa la AR, revisa parte uno y parte dos del blog de Unity que exploran el futuro de la realidad aumentada.

Virtualidad Aumentada

Definición simple:

En el espectro de la realidad mixta, la realidad aumentada se ubica en algún punto entre AR y VR. La definición precisa hace referencia a introducir objetos del mundo real en mundos virtuales donde estos pueden interactuar. Podría verse como una inversión, o un reflejo, de lo que es la realidad aumentada.

La realidad aumentada se entiende de mejor manera tal vez como un ejemplo o implementación específicos de MR. El uso de la «realidad aumentada» es impreciso, por lo que la «virtualidad aumentada» debe considerarse una terminología flexible.

La oportunidad:

La virtualidad aumentada presenta un medio a través del cual se puede hacer que los espacios de VR sean más intuitivos desde una perspectiva de UI, así como más familiares y «amigables» para los usuarios nuevos.

Cinemática VR

Definición:

La VR ofrece un potencial enorme a cineastas y públicos, poniendo a su disposición una nueva forma de entregar historias, aprovechando todo el potencial inmersivo de la VR, y valiéndose del poder de la presencia. Hay muchos ejemplos distintos de la VR cinemática, desde narrativas lineales en las que el espectador puede participar hasta historias y «películas» derivadas con elementos similares a la mecánica de juego. Si bien existen diferentes interpretaciones del término, La VR cinemática prácticamente cubre los muchos enfoques en los que el contenido de realidad virtual se apropia o emplea métodos de cinematografía para generar experiencias narrativas.

La oportunidad:

Si eres un cineasta, hay una revolución en la creatividad en marcha. Si eres un espectador, una película se trata de sacar partido con más variedad y emoción. Y si estás creando contenido para VR, como juegos, la VR cinemática podría abrirte las puertas para que puedas desplegar tus alas y crear para industrias nuevas.

CPU (o «Unidad de procesamiento de la computadora»)

Definición:

La unidad de procesamiento de la computadora puede considerarse el componente principal de una computadora moderna. El trabajo del CPU es ejecutar las instrucciones dadas por un programa informático. Hoy en día, normalmente los CPU son microprocesadores, y están compuestos por un solo circuito integrado.

La oportunidad:

Con un perfilador de motores de juego, los desarrolladores pueden ver cuánta demanda de renderizado se coloca en el CPU. Al comprender estos datos, usted puede optimizar áreas de contenido de VR para garantizar una experiencia mejor y más conveniente para los usuarios.

Ciberenfermedad (conocida también como «Enfermedad de realidad virtual» o «Mareo por simulación»)

Definición:

El «mareo por movimiento», que con frecuencia se experimenta al recorrer largas distancias en un automóvil o un avión, se produce cuando la gente se mueve por un espacio físico y su cerebro entiende que no se está moviendo, y su cuerpo no contribuye con la dinámica. La ciberenfermedad, por el contrario, ocurre cuando la persona no se mueve pero tiene una sensación apremiante de movimiento que es inducida a través de la exposición a imágenes visuales cambiantes. (Arms and Cerney, 2005)

Sin embargo, la sensación de ciberenfermedad es similar a la experiencia del mareo por movimiento.

No hay un factor único que produzca el mareo por movimiento. Por ejemplo, elementos como desfase, frecuencia de actualización y velocidad de actualización de la representación visual pueden provocar mareo. Otros factores que podrían influir en el mareo son contraste, resolución, color, campo visual, región de visualización, visualización binocular, contenido de la escena, parpadeo y movimiento de la cámara.

En la fase inicial de la generación actual de VR, el mareo por simulación se consideraba común, y sigue ofreciendo una asociación negativa con VR para muchos usuarios. Ahora por lo general se acepta que la mayor parte de la responsabilidad de evitar la ciberenfermedad está en el contenido que se transmite a través del hardware. Muchos usuarios pueden desarrollar tolerancia a la enfermedad por mareo con el uso. Queda mucho por aprender acerca de la experiencia; especialmente acerca de su efecto en los usuarios más jóvenes.

La oportunidad:

Esto implica un desafío importante, tanto para proyectos individuales como para la reputación y potencial generales de la VR. El contenido de VR que induce a la ciberenfermedad puede limitar drásticamente su adopción, y dañar la reputación de VR. Haz tu investigación. Y muchas pruebas. Por suerte, la industria ahora comparte mejores prácticas en relación con la ciberenfermedad.

Direct3D Transformation Pipeline

Definición:

La Direct3D Transformation Pipeline es un pipeline de transformación de gráficos que es específico de API para Microsoft Windows. Esta implementación de un pipeline de transformación de gráficos hace usode tres matrices Direct 3D: transformación del mundo; transformación de vistas; transformación de proyecciones. Las matrices de Direct3D funcionan como aquellas que se ven en los pipelines de transformación de gráficos de alto nivel.

La oportunidad:

Está disponible un pipeline de transformación de gráficos a la medida de aquellos que trabajan con Direct3D.

Seguimiento ocular

Definición:

Las cámaras al interior del casco de realidad virtual puede seguir la dirección a la que el usuario está mirando. El rastreo visual puede utilizarse como un nuevo eje de entrada; por ejemplo, para apuntar a una aeronave enemiga en un juego de combate (dogfighting). Por ejemplo, el FOVE es un HMD que se lanzó en Kickstarter, con prometedoras capacidades de seguimiento visual y un SDK de renderizado foveal o foveated rendering.

Si bien el seguimiento ocular no es un requisito para en renderizado foveal, puede ofrecer una mejora significativa al poder cambiar la región con un alto nivel de detalle de acuerdo con la dirección que siga el ojo del usuario. Además, los usuarios nuevos tienden a tener dificultades para superar la inclinación natural para mirar alrededor con sus ojos. El problema es que las ópticas HMD tienden a funcionar mejor cuando se mira directamente a través de ellas hasta el centro de la pantalla, de manera ideal, el usuario mueve la cabeza para mirar alrededor. El seguimiento ocular es el primer paso hacia permitir que los usuarios utilicen sus ojos para seguir el movimiento naturalmente dentro de la VR.

La oportunidad:

Una forma de ofrecer contenido de VR de manera más conveniente e intuitiva y que es más immersivo.

Seguimiento facial

Definición:

La tecnología de visión por computadora se diseñó para obtener datos a partir de imágenes fijas y secuencias de video a través del seguimiento de determinados gestos faciales en tiempo real.

La oportunidad:

Personajes e interacciones dentro del juego más convincentes y naturales, un storytelling estimulante, immersión y presencia, a la vez que se ofrece la posibilidad de mecanismos de innovación nuevos e innovadores.

Campo de observación

Definición:

En relación con campo visual, el «campo de observación» cubre el espacio que un usuario puede ver desde una determinada posición, y esto incluye el movimiento de los ojos, cabeza y cuello.

La oportunidad:

Junto con el campo visual, el campo de observación es la perspectiva del espectador en la cual se establece la cinematografía o encuadre de una determinada experiencia de VR, AR o MR.

Campo visual (conocido también como «FOV»)

Definición:

El campo visual es todo lo que ves cuando miras al frente. El FOV es la extensión de tu visión natural, tanto en la realidad como en contenido de MX. El campo visual de un ser humano promedio es aproximadamente 200 grados.

Cuando se investigan los cascos de realidad virtual, que se conocen también como «cascos de visualización» o visor «HMD»– verás que existe una especificación para el campo visual. Los cascos de VR más actuales tienen un campo visual de 90 a 110 grados, lo que es la línea base para una experiencia de VR increíble. Mientras mayor sea el campo visual, más del entorno verá el usuario ya que ampliará el límite de su visión, y como resultado, más immersiva será la experiencia que tendrán. Es similar a la diferencia que existe entre la pantalla de un cine IMAX y la pantalla de un cine normal. La pantalla IMAX es mucho más grande y, por lo tanto, demanda más de tu campo visual, lo que te permite ver más, creando así una experiencia mucho más inmersiva.

Un campo visual amplio es difícil de lograr debido a las limitaciones de la óptica de lentes: aberración cromática y distorsión de barril – se hacen más serias, y las ópticas tienen que ser más grandes o más complejas. Al igual que una fotografía tomada con una lente ojo de pez, las imágenes de la pantalla HMD se distorsionan por la óptica del HMD. Además, al ampliar el campo visual, se «estira» la resolución de pantalla disponible, lo que significa que la resolución debe incrementarse para mantener las mismas densidades de píxeles de ángulos FOV mayores - el impacto potencial puede reducirse como resultado del uso de sombreado de multiresolución de VR y del renderizado foveal.

Cabe señalar también que algunos cascos, como es el caso de los HoloLens, presentan también un campo visual limitado. Se podría entender que el «campo visual» de la experiencia de AR de un smartphone depende del tamaño de la pantalla disponible, aunque esta no es una definición técnica estricta.

En muy pocos casos se usa el término campo de visión para referirse al campo visual.

Revisa también: «Campo de observación»

La oportunidad:

Si eres fabricante de HMD, las cuestiones relacionadas con el FOV te darán mucho en qué pensar. Para los creadores de contenido, las limitaciones del FOV han configurado el «lienzo» en el que puedes pintar tu visión de VR o AR, por lo que es un factor importante especialmente para lanzamientos multiformato.

Renderizado foveal

Definición:

Al trabajar para complementar la biología humana, los motores de renderizado avanzado de VR podrán dedicar más tiempo al centro del campo visual, renderizando menos detalles en las áreas periféricas del campo de visión.

La computadora puede renderizar la escena completa de manera más rápida si puede renderizar con una resolución inferior, o con objetos simplificados. Debido a que los ojos humanos perciben más detalle en el centro del campo visual, hay muchos detalles en cada frame que ni siquiera vemos. Al renderizar con baja calidad en el borde del frame, la computadora puede dedicar más tiempo a renderizar detalles en el centro o a renderizar un solo frame más rápido.

La oportunidad:

El renderizado foveal ofrece un enorme ahorro de velocidad. Además, proporciona más memoria para jugar donde el GPU está involucrado, y más libertad para hacer realidad tus ideas en VR sin estar limitado por las demandas del renderizado de escenas completas con la resolución más alta.

Cuadros por segundo (conocido también como «FPS»)

Definición:

«Cuadros por segundo», o FPS para abreviar, hace referencia al número de veces por segundo en que se actualiza una imagen en la pantalla.

La oportunidad:

Mientras más cuadros por segundo, más suave parecerá el movimiento y más agradable será una experiencia en VR. Esto es extremadamente importante para la realidad virtual porque un movimiento lento o entrecortado con frecuencia generará mareo por simulación. Para que los usuarios se sientan cómodos mientras experimentan la VR, deben asegurarse de comprar un casco de VR que pueda garantizar al menos 90 FPS para VR en escritorio o consola, y al menos 60 FPS para móvil. La mayoría de los cascos de VR que están disponibles en el mercado logran entre 60 y 120 cuadros por segundo. A esto se conoce también como la velocidad de actualización de la pantalla y a veces se expresa en hertzios, por ejemplo, 90 Hz.

Frustum Culling

Definición:

Las propiedades de plano de delimitación cercano y lejano son aquellas que determinan dónde se inicia y dónde termina el punto de vista de una cámara. Los planos se despliegan de manera perpendicular a la dirección de la cámara y se miden desde su posición. El plano cercano es la ubicación más cercana que se renderizará, y el plano lejano es el más alejado. Los planos de delimitación cercano y lejano, junto con los planos definidos por el campo visual de la cámara, describen lo que se conoce popularmente como el frustum de la cámara. El frustum culling implica no desplegar objetos que se encuentran totalmente afuera de dicha área. En los motores 3D como Unity, el frustum culling sucede independientemente de si utilizas occlusion culling en tu juego.

La oportunidad:

Frustum culling puede mejorar de manera significativa la performance en la realidad virtual, ayudando a proporcionar experiencias que son más agradables, impresionantes e inmersivas.

Seguimiento de la mirada (también llamado «seguimiento ocular»)

Definición:

Seguimiento de la dirección y movimiento de los ojos del usuario, y algunas veces la utilización de los datos obtenidos durante el seguimiento como aporte de información. Revisa también: «Seguimiento de la cabeza».

La oportunidad:

Un método que permite un control y aporte de datos del usuario muy sutil y lleno de matices, y una forma de obtener información sobre cómo los usuarios interactúan con una experiencia específica. El seguimiento de la mirada también ofrece una poderosa herramienta de accesibilidad al proporcionar a los usuarios un medio de interacción con, por ejemplo, el movimiento físico limitado.

Pipeline de transformación de gráficos

Definición:

El pipeline de transformación de gráficos es un método establecido para tomar los objetos que se crean en un software gráfico, motores de juego y similares, y para llevarlos a su espacio previsto en una escena, y finalmente la vista del usuario. Los pipelines de transformación de gráficos funcionan eficazmente de la misma manera con VR y AR como lo hacen con métodos más tradicionales de visualización 3D.

La oportunidad:

Es una forma confiable de garantizar que sus objetos aparezcan en una escena de VR o AR como estaba previsto. Los pipelines de transformación de gráficos y sus matrices asociadas con frecuencia son ofrecidos por un motor de juegos 3D como Unity, lo que significa que no tendrás que preocuparte demasiado acerca del recorrido de tus objetos 3D hasta su hogar en VR o AR en la pantalla de un usuario.

GPU (o «Unidad de Procesamiento de Gráficos»)

Definición:

Una unidad de procesamiento de gráficos consta de un componente, como un circuito electrónico, que se emplea específicamente para acelerar la producción de imágenes dentro de un búfer de trama. En este caso, estas imágenes se crean para ser visualizadas en una pantalla o dispositivo similar. Se encuentran en computadoras personales, estaciones de trabajo, consolas de juego, dispositivos móviles y muchos otros lugares. La realidad virtual exige mucho de una GPU, en gran medida gracias a la necesidad del método de visualización de crear imágenes distintas para los ojos izquierdo y derecho, respectivamente, del usuario.

La oportunidad:

Los consumidores necesitan invertir una buena cantidad para conseguir potencia del GPU suficiente para las soluciones de VR de alto nivel como Oculus Rift y HTC Vive. Si bien el costo puede limitar de manera significativa el público potencial para VR, han surgido numerosos métodos para optimizar la performance del GPU en la realidad virtual, y muchos de estos se definen en este glosario.

Tecnología háptica (también llamada «retroalimentación táctil»)

Definición:

La tecnología háptica simula y estimula el sentido del tacto aplicando diversas fuerzas –mayormente vibraciones– al usuario, a través de dispositivos de entrada o dispositivos hápticos portátiles específicos. La tecnología háptica se utiliza para darle tangibilidad a un objeto o movimiento en la pantalla. Los controladores vibratorios para videojuegos ofrecen el ejemplo clásico, pero esta tecnología también incluye la función de vibración de la pantalla de un smartphone, y enfoques modernos como matriz de parlantes ultrasónicos que proyectan texturas en el aire, que el usuario de VR puede sentir al interactuar con el contenido.

La oportunidad:

Otra forma de mejorar la inmersión en la VR y, particularmente, la presencia en la VR.

El casco (también llamado «casco de visualización» o «HMD»)

Definición:

Un casco de realidad virtual o aumentada normalmente toma la forma de un dispositivo que se parece a unas gafas que el usuario se coloca en la cabeza, y que cubren o rodean a los ojos. Los cascos de VR por lo general incluyen una pantalla y lentes que permiten al usuario ver el mundo virtual, o una pantalla transparente en la cual se muestra el contenido de realidad virtual. Muchos cascos distintos se emplean con numerosas plataformas de hardware diferentes, y cualquier equipo desde un teléfono hasta una consola puede generar contenido de VR. Esto significa que es mejor funciona con herramientas y tecnología creativas compatibles con el mayor número posible de plataformas VR.

La oportunidad:

El casco de VR es la base de la realidad virtual moderna y ha establecido el modelo que ahora es seguido por AR y otras HMD. La tecnología ha recorrido un largo camino en los últimos 50 a 60 años, y los cascos de VR enormes, incómodos y sumamente costosos de inicios de los setenta han evolucionado hasta tener el mismo tamaño de las gafas de esquiar o para snowboard. Algunos cascos de VR inclusive se valen de tu teléfono como pantalla, como Samsung Gear VR o Google Cardboard. Cuando busques cascos de VR, fíjate si las pantallas son integradas o si tienes que usar tu celular. Si estás buscando la mejor experiencia inmersiva, vale la pena que consideres los cascos de VR de gama alta como Oculus Rift o HTC Vive. Sin embargo, recuerda que los cascos de VR de alta gama demandarán una computadora de alta gama para funcionar. Si estás buscando una experiencia de VR móvil de una calidad increíble, Samsung Gear VR y Google Daydream ofrecen más experiencias llenas de matices que los visores de VR de cartón; estos últimos son sumamente asequibles, y constituyen una excelente forma de demostrar la simplicidad fundamental de la VR.

Seguimiento de la cabeza

Definición:

A través de un distintos enfoques, el seguimiento de cabeza monitorea y rastrea la posición y los movimientos de la cabeza y el cuello de un determinado usuario, ofreciendo un medio potencial para comentarios e interacción..

Por ejemplo, si el cuello y la cabeza del usuario se inclinan ligeramente hacia un lado, y el seguimiento de cabeza está habilitado, lo que verán en la HMD podría moverse en el mismo ángulo. Asimismo, un usuario puede estirar su cuello para mirar alrededor o hacia arriba hacia algo. Ese mismo usuario podría hacer un movimiento como 'quien mira al suelo' para activar una acción específica del juego en acción.

La oportunidad:

El seguimiento de la cabeza refleja la esencia de lo que la VR ofrece; la oportunidad de construir mundos que el usuario puede explorar de la misma forma en que interactúa con el mundo real.

Inmersión

Definición:

La «inmersión» alude al hecho de sumergir por completo al usuario en un mundo virtual. Mientras la «presencia» en la VR refiere específicamente a la sensación o convicción subconsciente de que uno existe dentro de una experiencia determinada, la «inmersión» tiende a ser un término más general para expresar la sensación de estar totalmente comprendido dentro de algo, olvidando la realidad. En la VR, la inmersión adopta un sentido práctico, ya que los ojos, oídos y algunas veces las manos y el cuerpo de los usuarios están involucrados, con lo cual se bloquea algunas señales o estímulos sensoriales de la realidad.

La oportunidad:

La inmersión es la ventaja principal de la VR, y de algunas creaciones basadas en AR, si estás considerando que tus usuarios queden inmersos en una experiencia convincente, o quedar inmerso tú mismo. La inmersión es lo que hace atractiva a la VR y brinda la oportunidad de captar a diferentes públicos.

Experiencias inmersivas

Definición:

La noción de experiencias inmersivas es muy anterior a la actual generación de VR y AR, aunque incluye experiencias que utilizan dichas tecnologías –y potencialmente todo contenido de MR y XR. El término se ha utilizado incluso para cubrir enfoques específicos del diseño de páginas web o el diseño de las atracciones de los parques de diversiones. Sin embargo, cuando también está presente la VR, el término alude a las experiencias completamente interactivas, las mínimamente interactivas y aquellas que no guardan relación con los videojuegos. Estas experiencias se ofrecen como VR verdadera y video 360. El término es muy amplio –al igual que la «XR»– pero en este contexto no incluye las experiencias tradicionales digital y cinemática a las que se accede a través de una pantalla plana tradicional.

La oportunidad:

La oportunidad de captar usuarios, explorar nuevas formas creativas, educar, entretener, capacitar, servir, fomentar y mucho más.

Entretenimiento inmersivo/hiperrealidad

Definición:

Contenido de entretenimiento, promocional y vivencial que combina la dimensión física del mundo real con la VR o la AR, así como otras formas como la escritura narrativa y la producción cinematográfica, como se vio con experiencias como The Void.

La oportunidad:

La oportunidad de elaborar contenido para parques de diversiones, salas de juegos, centros comerciales y muchos otros lugares físicos, lo que ofrece un amplio punto de acceso a través del cual el público en general puede experimentar la VR.

Unidad de medición inercial (también llamada «IMU» u «Odometría»)

Definición:

Una IMU –o unidad de medición inercial– es un dispositivo electrónico que puede detectar el movimiento a través de diversos medios y tecnologías. Las IMU se componen de un acelerómetro, giroscopio o brújula para medir la rotación absoluta del dispositivo con latencia muy baja, y se utilizan, por ejemplo, en el seguimiento de la cabeza. Combinada con los sistemas de seguimiento óptico, una IMU puede utilizarse para determinar la orientación visual de un HMD.

Como ocurre con cualquier sistema de seguimiento, la latencia y precisión son factores fundamentales de una IMU. Generalmente, estas características no se anuncian y no presentan variaciones sustanciales entre un dispositivo y otro. Cabe destacar que el Samsung GearVR incluye una IMU especial, a diferencia de Google Cardboard y Daydream, que dependen de lo que la IMU incorporada de un teléfono determinado aporte al casco.

La oportunidad:

La misma tecnología de base que permite que tu teléfono pase de la orientación horizontal a la vertical u ofrece control de inclinación a los juegos de dispositivos móviles se utiliza en los HMD VR para hacer coincidir la cámara virtual con la orientación de la cabeza del usuario. Ello ofrece una oportunidad para todo tipo de formas innovadoras de control e inmersión en las experiencias de VR.

Entrada

Definición:

Una entrada ofrece una forma de interactuar con una máquina, computadora u otro dispositivo. En el caso de la VR y la AR específicamente, «entrada» alude al método de control que utilizarás para la realidad virtual y otras formas relacionadas. Es muy probable que esto signifique elseguimiento de movimiento con controladores, pero muchas experiencias de VR, AR y otras experiencias conexas le permiten al usuario interactuar utilizando un mouse y teclado o un gamepad.

A medida que la tecnología VR se desarrolla, muchas formas alternativas de entrada se difunden cada vez más y son más asequibles, desde guantes que rastrean los movimientos de cada uno de los dedos hasta trajes que permiten el rastreo de todo el cuerpo en una experiencia de VR.

La oportunidad:

Para los diseñadores, las entradas proporcionan muchas formas de ofrecer mecánicas del juego inusuales. Para los usuarios, constituyen un medio de interactuar con los mundos digitales y sentirse realmente inmersos. Las entradas que no complementan el contenido de VR al que sirven pueden influir en gran medida para que el usuario se desconecte de la experiencia, socavando el mayor potencial de dicha forma, es decir, la inmersión. Así que, creadores 3D, dediquen mucha reflexión a las decisiones que tomen en relación con las entradas.

Seguimiento inside-out/outside-in

Definición:

Las dos principales plataformas de realidad virtual de escritorio –HTC Vive y Oculus Rift– se basan o bien en una cámara o en un «faro» que se coloca en una posición fija en la habitación, fuera del HMD mismo. Esto es lo que define el seguimiento «outside-in». Por su parte, dispositivos como el casco Windows Immersive Mixed Reality y el Microsoft HoloLens usan una técnica denominada odometría visual para analizar imágenes de cámaras instaladas en el HMD mismo, que sirven para rastrear su posición en relación con el entorno circundante. A diferencia de la instalación de una cámara externa, puede entenderse que este segundo método ofrece un seguimiento «inside-out».

La oportunidad:

Si bien las convenciones sobre hardware están principalmente en manos de los titulares de las plataformas, las dos opciones disponibles aumentan el número de configuraciones en las que la VR y la AR son pertinentes y, de este modo, el posible panorama de públicos y experiencias.

Distancia interpupilar (también llamada IPD)

Definición:

La distancia medida entre las pupilas de los ojos de un usuario determinado. Puede entenderse que la IPD es una especie de «medición base» que proporciona las bases de la escala en VR. Algunos HMD permiten el ajuste físico del desplazamiento horizontal de las lentes para una mejor correspondencia con la IPD del usuario individual.

La oportunidad:

Si bien las convenciones sobre hardware están principalmente en manos de los titulares de las plataformas, las dos opciones disponibles aumentan el número de configuraciones en las que la VR y la AR son pertinentes y, de este modo, el posible panorama de públicos y experiencias.

Latencia

Definición:

La latencia es la velocidad a la que el mundo virtual reacciona al movimiento de un usuario. Un mundo virtual con latencia alta podría describirse como un espacio con «desfase». Como regla básica, cuanto menor sea la latencia, mayor será el confort de una experiencia determinada. La regla general es que la latencia esté por debajo de los 20 milisegundos. Cuanto menor sea el número de milisegundos, mejor será la experiencia.

La latencia también refiere a la velocidad a la que se actualiza el mundo virtual para el usuario.

La oportunidad:

La latencia baja combate los cibermareos y, de este modo, refuerza la inmersión y la presencia. En un nivel incluso más básico, constituye un medio que permite el confort en un mundo virtual.

En lo que concierne a la actualización del mundo virtual, mantener la latencia en un mínimo hace que los mundos sean más convincentes y las experiencias interactivas más gratificantes.

La latencia es un factor esencial en la calidad general de una experiencia de XR.

Tecnología del campo de luz

Definición:

La tecnología de campo de luz agrupa diversas tecnologías computacionales de imágenes y visualización, soluciones de hardware y procesamiento de imágenes que permiten la captura de imágenes y video que pueden modificarse después de su captura. El resultado, apertura y enfoque en contenido de video pueden ajustarse a posteriori, y posiblemente dentro de la experiencia individual de un solo usuario. Promovida por la compañía Lytro, las cámaras con tecnología de campo de luz funcionan de forma básicamente similar a las cámaras digitales contemporáneas. Sin embargo, utilizan una «matriz de microlentes» construida a partir de unas 200 000 lentes diminutas, que se utilizan para captar miles de perspectivas distintas cuando la luz llega al procesador de una cámara desde múltiples ángulos. Por contraste, el sensor de imágenes de una cámara digital convencional capta la luz como si entrara desde una perspectiva única, imitando los principios básicos de una cámara de cine tradicional.

Gran parte del trabajo también se realiza mediante un software de procesamiento y calibración. Consulta también: «Video de campo de luz».

La oportunidad:

La tecnología de campo de luz ofrece el potencial para contenido de video 360, VR, AR y MR mucho más realista y variable y con muchos más matices, con la fabulosa posibilidad de sostener interacciones innovadoras y la capacidad del usuario de transitar las experiencias de video sin necesidad de permanecer anclado al punto de vista original de la cámara de captura.

Video del campo de luz

Definición:

Utilizando una configuración única que combina una cámara de video DSLR tradicional y una cámara Lytro Illum –la segunda es una cámara de campo de luz– un equipo de académicos de Berkeley y San Diego crearon un dispositivo híbrido que permite tomar videos de campo de luz en hardware de consumo. Normalmente, las cámaras con tecnología de campo de luz tienen un frame rate máximo de solo 3 FPS, lo que las hace poco adecuadas para la captura de video. Este nuevo enfoque aporta todas las ventajas de las cámaras de campo de luz al trabajo en video, refiere a la capacidad de modificar el punto de enfoque, la perspectiva y la apertura, entre otras funciones, después de haberse realizado la captura de video.

La oportunidad:

Una tecnología emergente que aporta un enorme potencial y flexibilidad a 360 y a otras formas de video inmersivo, en cuanto a proceso de posproducción y diseño interactivo y creatividad. En términos más generales, la tecnología del campo de luz ofrece formas para simular matices en tiempo real en torno al enfoque, perspectiva y distancia en VR y contenido de video 360.

Pantalla de persistencia baja

Definición:

La capacidad de echar un vistazo dentro de una experiencia es probablemente una de las fortalezas más fundamentales que ofrece la VR. Sin embargo, muchas tecnologías iniciales de VR se vieron socavadas por el hecho de que los movimientos rápidos del usuarios podían provocar visuales borrosos, molestias puntuales e interrupción de la inmersión. Una pantalla de persistencia baja podría resolver este problema.

Como parte de la especificación de Daydream de Google, un modo de baja persistencia para pantallas de smartphones ofrece una función característica importante, lo que eleva la oferta de 'simplemente usar un smartphone con unas lentes' para convertirse en una verdadera VR HMD; aunque con acceso a plataformas móviles. El Samsung Gear VR conmuta pantallas en este modo especial cuando se inserta en la HMD y puede activarse manualmente con el modo para desarrolladores Gear VR. En este modo, si se ve desde afuera de la HMD, el dispositivo parece parpadear. Por esta razón, es fundamental que el estado de persistencia baja sea temporal.

La oportunidad:

Una forma cada vez más pulida de brindarles a los usuarios la libertad de moverse cuando deseen disfrutar de la verdadera presencia en los mundos que crees.

Realidad Mixta (llamada también «MR»)

Definición:

La experiencia de realidad mixta es aquella que combina a la perfección el entorno del mundo real del usuario y el contenido creado digitalmente, en el que ambos ambientes coexisten e interactúan entre sí. Con frecuencia se incluye en las experiencias e instalaciones de VR y puede entenderse que constituye un continuo en el que se encuentran la VR y la AR en estado puro. Comparable al Entretenimiento inmersivo/hiperrealidad.

La «realidad mixta» ha experimentado un amplio uso como término de marketing, y muchas definiciones alternativas coexisten hoy en día, algunas de las cuales comprenden experiencias AR o experiencias que oscilan entre la VR y la AR. Sin embargo, la definición anterior cobra cada vez más fuerza como el significado acordado del término.

La oportunidad:

Si bien la realidad mixta ofrece muchos desafíos de diseño y se necesita mucho avance en las plataformas que alojan y dan soporte a esta tecnología, existe una fantástica oportunidad de brindar una diversidad de experiencias y métodos de visualización al público a través de la MR. Eso significaría que más contenido pueda llegar y servir a un espectro más amplio de gente, incluidos aquellos que no consideran que la VR o AR tradicionales guarden relación con sus capacidades, confort, gusto o presupuesto.

Mixed Reality Capture (también llamada «proyección mixta»)

Definición:

Un término y enfoque predominantemente presentada y facilitada por Oculus, la captura de realidad mixta le da a la persona que está fuera de la experiencia de VR una impresión de lo que ocurre al interior de ese contenido. El enfoque, según lo describe Oculus, permite a los desarrolladores «crear videos y otro contenido que fusione las imágenes en vivo de las personas que utilizan Rift and Touch en el mundo real con las imágenes contenidas en el juego de las aplicaciones VR».

La oportunidad:

La captura de realidad mixta ofrece un atractivo medio a través del cual compartir, comercializar, promover y comunicar experiencias de VR.

Latencia de movimiento a fotón

Definición:

La latencia de movimiento a fotón es la medida de tiempo entre el momento en que se produce el movimiento efectivo en el mundo real y el momento en que el ojo recibe un fotón de la pantalla del HMD que refleja este cambio. Gracias a las velocidades extremadamente altas y las distancias más bien cortas, es muy difícil de medir, pero representa la efectividad total de un sistema de VR desde el punto de vista de la latencia. Los usuarios no especializados algunas veces describen este fenómeno bajo los mismos términos con el vocablo «desfase».

La oportunidad:

Un frame rate alto ocasionará un movimiento fluido y evitará la aparición de «intermitencias», que pueden contribuir a los mareos por movimiento. Sin embargo, la causa subyacente del malestar ocasionado por la VR es la discrepancia entre el movimiento del mundo real y la percepción visual. En tal caso, la computadora bien podría estar renderizando frames muy rápidamente, pero si los datos de seguimiento se retrasan, o si los frames deben codificarse y transmitirse, la latencia alta de movimiento a fotón provocará mareos por movimiento. Este problema hace que sea difícil e incluso imposible hacer VR con renderizado basado en la nube.

Seguimiento del movimiento

Definición:

El seguimiento de movimiento es la capacidad de rastrear y registrar el movimiento de un usuario de VR y el movimiento de los objetos del mundo real, leyéndolos como entradas y replicando dichos movimientos en la realidad virtual en tiempo real.

La oportunidad:

El seguimiento de movimiento es lo que les permite a los usuarios de VR desplazarse en un entorno tal como si lo hicieran en la realidad. Cuando te inclines para observar algo en el mundo virtual, te acercarás a ese objeto de la misma forma en que lo harías en la vida real. El seguimiento de movimiento es uno de los componentes más importantes necesarios para engañar a tus sentidos e inducirte a pensar que estás participando en el entorno virtual. De la misma forma, ahora les brinda a los creadores de contenido un medio a través del cual crear y dar forma al contenido de VR desde la VR misma.

Renderizado estéreo multi-pass

Definición:

Para que la realidad virtual ofrezca a los usuarios 3D estereoscópico, debe proporcionarse una imagen distinta a cada ojo. Esto significa renderizar dos imágenes 3D distintas a un HMD. Sin embargo, el renderizado estéreo multi-pass tiene un rendimiento inferior que el renderizado estéreo single-pass y, por ende, limita la fidelidad o complejidad visual de las posibles escenas.

La oportunidad:

Para aquellos que hacen herramientas para crear juegos u otro contenido de VR, se debe poner mucho esfuerzo en hacer posible y respaldar el renderizado estéreo multi-pass. Si eres un consumidor de VR, el renderizado multipass podría ser la razón por la que podrías requerir una plataforma potente como esta a través del cual se usa un HMD de realidad virtual.

Realidad virtual/realidad aumentada no relacionada con videojuegos

Definición:

Experiencias de VR que incluyen contenido no relacionado con juegos, como apps educativas, software para capacitación médica, visualización arquitectónica, simulación militar, instalaciones promocionales, atracciones de parques de diversiones, usos minoristas y herramientas creativas. Estos tipos de experiencia están comenzando a ser una parte importante del contenido de VR que se crea hoy.

La oportunidad:

Buenas noticias. Cuanto mayor sea el número de industrias y sectores que adoptan la VR, mayor será el crecimiento del ecosistema de realidad virtual. Ello implica más herramientas, más inversión y más talento –algo fantástico, seas un creador o consumidor de VR.

Pipeline de transformación OpenGL

Definición:

La transformación OpenGL se produce en el pipeline OpenGL, y al hacerlo, ofrece el mismo proceso fundamental que los pipelines generales de transformación de gráficos, específicamente para la API de gráficos multilenguaje y multiplataforma. Las matrices OpenGL se utilizan, de una forma similar a la que se observa en las matrices personalizadas del pipeline de transformación Direct3D.

La oportunidad:

Para quienes estén familiarizados con la API de OpenGL, se ofrece un pipeline de transformación de gráficos personalizado.

SDK/API OpenVR

Definición:

Un SDK y una API creados por Valve con el propósito específico de brindar soporte al desarrollo de los cascos SteamVR/HTC Vive y similares dispositivos de VR. En comparación, la iniciativa «OpenXR» es un grupo de trabajo más amplio cuyo propósito es establecer estándares generales para apoyar la creación y distribución de contenido, herramientas y hardware de VR y AR.

La oportunidad:

Un medio de crear contenido para una de las plataformas de VR más populares y prolíficas de la generación actual.

OpenXR

Definición:

Una iniciativa para crear un estándar abierto para las aplicaciones y dispositivos de VR y AR, y eliminar la fragmentación de la industria. Revisa también: «OpenVR SDK/API».

La oportunidad:

Un ecosistema más sólido, fiable y avanzado en el que crear contenido de VR y AR.

Video panorámico 2D/3D

Definición:

Como ocurre con muchos términos en el incipiente espacio de la VR y AR, el video panorámico 2D y 3D cubre un espectro relativamente amplio. Generalmente definen el contenido de video que envuelve completamente al usuario, ya sea como una banda de 360 grados a la altura de los ojos o como una esfera entera. En un sentido más amplio, el término incluye tanto el video 360 visto en un contexto VR HMD, como las instalaciones en pantalla en lugares como los parques de diversiones. Hoy en día, la mayor parte del contenido en video 360 de acción en vivo es una imagen 2D, aunque con el equipo (y presupuesto) adecuado, el video panorámico en 3D verdaderamente estereoscópico es absolutamente posible.

La oportunidad:

Más allá de las oportunidades que ofrece el video 360, el video panorámico brinda a otros creadores de contenido -desarrolladores de videojuegos y comerciantes- un medio para reducir la complejidad de la escena al incluir el video como un fondo pre-renderizado en el lugar de la geometría real. Los motores 3D como Unity ofrecen soporte incorporado para este tipo de contenido en video.

Seguimiento posicional

Definición:

El seguimiento posicional es la capacidad de registrar el movimiento del usuario y los movimientos de los objetos en tiempo real. Esto se traduce en el hecho de que los usuarios sean capaces de desplazarse en la realidad y que dichos movimientos se reproduzcan como interacciones en un mundo virtual determinado.

Si bien el «seguimiento posicional» como término alude a áreas similares a las definidas por el «seguimiento de la cabeza» y el «seguimiento de la mirada», comprende los HMD, controladores, accesorios y otros objetos del mundo real, incluidos los que se observan en las verdaderas experiencias de realidad mixta.

La oportunidad:

En un nivel básico, la relativa finura del seguimiento posicional repercute en la posibilidad de que las experiencias VR sean convincentes e inmersivas. Aparte de eso, el potencial cada vez mayor de los tipos de objetos y entradas respecto de los cuales se puede hacer un seguimiento posicional está ampliando considerablemente el espectro de experiencias que la realidad virtual puede ofrecer.

Post FX para VR (o «Post Processing Stack»)

Definición:

Post FX para VR ofrece la aplicación de diversos efectos visuales después de la creación de una escena. Un post-processing stack combina un conjunto completo de efectos de imágenes en un solo pipeline posproceso, lo que permite la aplicación de efectos cinemáticos de forma directa y eficiente, y en el orden correcto para un single pass.

La oportunidad:

Enfoques como el que se observa con el post-processing stack ofrecen una forma sencilla y relativamente rápida de ornamentar los mundos de la VR con un nivel adicional de matices y detalles, lo que a la larga los vuelve más convincentes.

Presencia (o «sensación de presencia»)

Definición:

La sensación de estar en algún lugar, ya sea en la realidad o en una realidad virtual. En la realidad, una persona puede ser particularmente consciente y socialmente interactiva. En la VR, el término se aplica a la experiencia de creer que ocupas el mundo virtual. También podría entenderse que estamos «presentes» en un libro o película cuando olvidamos que existe el mundo real, y que la ficción es la realidad. La VR ofrece una sensación de presencia que casi ningún otro medio o forma puede superar.

La oportunidad:

Podría decirse que la presencia es la fortaleza fundacional de la VR y una herramienta vital para lograr la inmersión del jugador. La generación de la presencia proviene de las diversas técnicas utilizadas para crear VR de calidad, pero tal vez la regla más importante sea que «cualquier cosa que le recuerde al usuario que está en una experiencia de VR –y no en una realidad– contrarrestará la presencia». Eso significa que un menú incongruente o un momento de desfase podrían socavar la presencia en un instante.

Bucle de renderizado (también llamado «pipeline de renderizado»)

Definición:

Un bucle de renderizado proporciona la arquitectura lógica que dicta cómo se compone un frame renderizado. Un bucle de renderizado típico puede adoptar la siguiente estructura y orden, por ejemplo:

Culling > Shadows > Opaque > Transparent > Post Processing > Present (Culling > Sombras > Opaco > Transparente > Posproceso > Presente)

Mientras un bucle de renderizado es el conjunto de pasos que sigue el motor 3D para componer una escena, el pipeline de transformación de gráficos es el conjunto de pasos para transformar un objeto desde su propio espacio al espacio físico de la pantalla.

La oportunidad:

Para la VR, es preciso renderizar dos imágenes distintas para cada ojo. Aunque ejecutar dos bucles de renderizado es factible, supone una gran exigencia para el CPU y GPU. Sin embargo, el desarrollo de técnicas como el renderizado estéreo single-pass de Unity hace que los bucles de renderizado que dan soporte al contenido de VR sean mucho más eficientes, liberando al GPU y CPU para otras tareas.

Objetivo de renderizado (que incluye la «matriz de objetivos de renderizado»)

Definición:

Un objetivo de renderizado es una memoria intermedia que sirve efectivamente como un lugar de destino, permitiendo que los objetos aparezcan en el casco de un usuario final. Una matriz de objetivos de renderizado permite la salida a múltiples objetivos de renderizado de forma simultánea.

La oportunidad:

Los objetivos de renderizado son una convención establecida del desarrollo de juegos y otros desarrollos, y ofrecen la conveniente posibilidad de renderizar objetos fuera de la pantalla.

Render Texture

Definición:

Las texturas de renderizado son tipos de texturas únicas que se crean y actualizan durante el runtime. Puedes crear una nueva textura de renderizado antes de designar una de tus cámaras para renderizarla.

La oportunidad:

Las texturas de renderizado pueden utilizarse en un material dentro de un motor de juegos, aportando las ventajas del runtime.

Gráfico de escena

Definición:

Los gráficos de escena son estructuras especializadas de datos que organizan la información necesaria para renderizar una escena. El gráfico de escena es consumido y comprendido por el renderer. El gráfico de escena puede referirse o bien a la escena en su totalidad o a la parte perceptible a la vista. En el segundo contexto, se utiliza el término «gráfico de escena seleccionado».

La oportunidad:

Los mundos de VR bien ordenados son eficientes y fiables cuando se imponen exigencias computacionales mínimas a un sistema a través del posicionamiento eficiente y la modificación de la escala de los objetos en una escena.

Resolución de pantalla

Definición:

Resolución de pantalla alude al número de píxeles que se muestran en la pantalla. Al igual que en un monitor de computadora o televisor, cuanto mayor sea el número de píxeles, más clara y realista será la calidad de la imagen. Sin embargo, en el caso de la resolución de pantalla de un casco de VR, debido a que la imagen está a solo unas cuantas pulgadas de los ojos, se necesita una resolución de pantalla más alta para que los usuarios no perciba los espacios entre los píxeles individuales. Además, en el caso de los cascos de VR, la pantalla está dividida en dos para mostrar una imagen con precisión a cada ojo.

La oportunidad:

Como desarrollador o consumidor, cuando busques un casco de VR de gama media o alta, busca una resolución de pantalla con un mínimo de 2160×1200 (o 1080×1200 por ojo). Una resolución más baja probablemente ocasione el denominado «efecto puerta de malla», y sentirás que estás mirando a través de una puerta de malla; en otras palabras, podrás ver las pequeñas líneas o puntos negros en la pantalla.

Renderizado estéreo single-pass

Definición:

El renderizado estéreo single-pass es una característica que renderiza las imágenes de ambos ojos al mismo tiempo en una textura de renderizado compacta, lo que significa que toda la escena se renderiza una sola vez, y gracias a ello se reduce considerablemente el tiempo de procesamiento del CPU.

Con renderizado estéreo single-pass o stereo instancing habilitado, un motor 3D como Unity comparte el culling –si un objeto en 3D debería renderizarse o no basándose en si es visible a la cámara– y datos de sombras entre los ojos. De este modo, para cada objeto visible, solo necesitamos renderizar el objeto una sola vez, que se traduce en importantes aceleraciones, sin dejar de ofrecer un sólido rendimiento.

La diferencia entre el renderizado single-pass y el stereo instancing es que este último tiene un rendimiento incluso superior, pero requiere soporte de hardware. Sin esta característica, el motor 3D renderiza la escena dos veces: primero para renderizar la imagen del ojo izquierdo y luego para la imagen del ojo derecho.

A partir de Unity 2017.3, todas las plataformas compatibles tienen estéreo single pass y, cuando está disponible, single pass instancing.

La oportunidad:

Con la reducción de las exigencias que los bucles de renderizado tradicionales imponen al tiempo de procesamiento del CPU, tienes más con lo que trabajar en otros aspectos de tu proyecto de VR.

Seis grados de libertad (o 6DOF)

Definición:

Un sistema que proporciona seis grados de libertad rastrea la posición y rotación de un objeto en tres dimensiones. Los tres ejes posicionales combinados con los tres ejes rotacionales hacen un total de seis «grados», que pueden controlarse libremente.

La oportunidad:

Existe una diferencia significativa entre lo que puedes hacer con el seguimiento rotacional 3DOF y el seguimiento 6DOF completo. A modo de ejemplo, el controlador Wii original solo rastreaba la rotación, lo que obligaba a los desarrolladores de juegos a utilizar «metáforas» de control para cosas como lanzar una pelota o batir una raqueta de tenis. Por otro lado, los controladores HTC Vive y Oculus Touch pueden controlarse con precisión en el espacio, dándole al usuario la percepción de dónde se encuentran sus manos, proporcionando más matices y haciendo posible la presencia.

SLAM (también llamado «Localización y mapeo simultáneo»)

Definición:

La localización y mapeo simultáneo es el proceso por el cual un mapa es generado y actualizado por un agente –tal vez un vehículo– que se desplaza por ese espacio, al mismo tiempo que se rastrea a dicho agente en el espacio. En la actualidad existen muchos enfoques distintos, y la tecnología se erige como un factor decisivo para los vehículos autónomos, los robots domésticos y las aplicaciones de AR.

La oportunidad:

Establecer las tecnologías SLAM y los algoritmos que se utilizan en ellas tiene el enorme potencial de influir en la evolución de la AR, ofreciendo un medio para múltiples aplicaciones prácticas, tanto en los videojuegos como en otras formas de entretenimiento.

Audio espacial (o «Audio 3D»)

Definición:

El audio espacial ofrece un método a través del cual es posible compilar y colocar assets de audio, de modo que –desde la perspectiva del usuario de VR– un sonido determinado se origine de una posición particular en una escena 3D. Es como el sonido envolvente de un sistema de home theater o el cine, y es muy importante para la presencia e inmersión en la VR.

La oportunidad:

El sonido es uno de los componentes esenciales para crear una experiencia inmersiva de VR. El sonido espacial te permite escuchar sonido que proviene de todas partes y también rastrea el sonido cuando mueves la cabeza, igual que en la vida real. Eso significa que un desarrollador de VR puede –además de ofrecer más realismo– usar el sonido para dirigir u orientar a un jugador, además de otras mecánicas más innovadoras distintas de la VR.

Estereoscopia

Definición:

La reproducción de los efectos de la visión binocular por medios fotográficos u otros medios gráficos. En otras palabras, recrear la experiencia que los seres humanos logran al contemplar el mundo real con los dos ojos. Normalmente, los enfoques estereoscópicos ofrecen dos imágenes distintas de la misma escena; una para el ojo izquierdo del usuario y otra para su ojo derecho. Esto ocurriría, por ejemplo, a través de la lente izquierda y derecha de un HMD. El cerebro del usuario combina entonces las dos imágenes para crear una escena 3D con profundidad y perspectiva, tal como ocurre con lo que ven nuestros ojos izquierdo y derecho –y cómo se compilan dichas imágenes– en la realidad.

La oportunidad:

El contenido de VR, que es más inmersivo, ofrece más presencia y proporciona una experiencia bien diferenciada de la vista en las pantallas planas tradicionales.

Stereo Instancing

Definición:

Una evolución del renderizado single-pass y el último de los diversos enfoques de optimización de renderizado que aspira a ayudar a los desarrolladores a garantizar una experiencia más fluida en la VR, donde los presupuestos de framerate son increíblemente reducidos en comparación con las restricciones del desarrollo tradicional de videojuegos.

La oportunidad:

Una forma de que los desarrolladores ahorren tiempo de procesamiento del CPU y liberen la potencia que pueden usar en otros aspectos.

Tracked Pose Driver

Definición:

Un componente del controlador multiplataforma incorporado que simplifica la configuración del seguimiento de los movimientos y periféricos del jugador al establecer una correspondencia entre la posición y rotación de un dispositivo u objeto del mundo real con su postura -la ubicación del objeto virtual correspondiente.

La oportunidad:

Ofrecer un seguimiento convincente, realista y receptivo es mucho menos exigente para los creadores. Para los jugadores, la inmersión y presencia tienen un soporte importante.

Seguimiento

Definición:

El seguimiento es decisivo para una experiencia de VR plenamente inmersiva. En lo fundamental, al rastrear la posición del VR HMD –o un periférico como un controlador especializado– este método le indica a la computadora hacia dónde está mirando el usuario y lo que está haciendo, lo que le permite dibujar el mundo virtual que lo rodea de forma precisa y apropiada. Cuanto más preciso sea el seguimiento, más confortable será la experiencia de VR. Consulta también: seguimiento de movimiento, seguimiento posicional y seguimiento de la mirada.

La oportunidad:

Formas innovadoras de controlar un juego y –una vez más– mayor inmersión y presencia. El seguimiento de la calidad también ofrece una medida correctiva frente al cibermareo.

Uncanny Valley («valle inquietante»)

Definición:

Acuñada inicialmente por el profesor de robótica Masahiro Mori en los años setenta, la expresión «uncanny valley» o valle inquietante describe un fenómeno que plantea cómo los seres humanos se relacionan con los objetos físicos o digitales que adoptan una forma humana o parecida a la humana. Cuanto más humano luzca un objeto, mayor será la probabilidad de que un ser humano real sienta una respuesta positiva y comprometida hacia ese objeto. Sin embargo, cuando un objeto luce casi como un ser humano fotorrealista –pero no del todo– hay una disminución de la respuesta positiva del observador. Esa disminución –que se puede apreciar en un gráfico de líneas sencillo– es el «valle» epónimo, y puede sentirse cuando un robot o personaje animado por computadora nos resulta repulsivo o perturbador debido a que tiene una apariencia casi real, pero no es convincente.

En muchos casos, una forma humana física o digital que sea menos realista puede resultar más atractiva que otra que luzca casi completamente convincente.

La oportunidad:

El efecto «uncanny valley» en VR y otras formas de MX puede contribuir en gran medida a mermar la inmersión y presencia. Como consecuencia de ello, los creadores de contenido suelen optar por diseñar personajes humanos de baja fidelidad y no personajes de alta fidelidad que busquen el realismo, para evitar provocar una respuesta negativa de los espectadores.

Sistema vestibular

Definición:

Una red de canales en el oído interno que sirven efectivamente de detectores de movimiento, y nos permiten equilibrarnos y comprender nuestro movimiento. Los conflictos que se generan entre el sistema visual y el sistema vestibular –o «desajuste vestibular» – son la razón principal que explica el cibermareo y el mareo por movimiento.

La oportunidad:

El sistema vestibular es fundamental para la forma en que interpretamos el contenido de VR, AR y MR –y por qué puede desarrollarse o fracasar– razón por la cual, una comprensión básica te ayudará a crear un mejor contenido que les brinde a los usuarios una experiencia de inmersión más convincente.

Realidad virtual

Definición:

Dado que la realidad virtual ha evolucionado y encontrado diversos usos en distintos sectores, han surgido varias definiciones, la mayoría de las cuales coincide en gran parte con las demás. Las discrepancias existen. Sin embargo, los siguientes elementos son prácticamente universales cuando se describe lo que la VR ofrece:

  • Efectos visuales estéreo generados por computadora que envuelven totalmente al usuario, sustituyendo por completo el entorno del mundo real que lo rodea. Muchos consideran que esta definición excluye acertadamente el video 360 de la verdadera VR.
  • El contenido es consumido y experimentado desde una perspectiva centrada en el espectador.
  • La interacción del usuario en tiempo real dentro del entorno virtual es posible, ya sea a través de interacciones detalladas o simplemente al ser capaz de observar a su alrededor dentro de la experiencia. En este caso, el elemento tiempo real significa que la respuesta se produce dentro de un intervalo de tiempo particular que es propio de la aplicación o campo.

La oportunidad:

Es posible lograr un alto grado de inmersión en la VR involucrando los dos sentidos más importantes, la vista y el oído, a través de un casco y auriculares de VR. El casco de VR envuelve el mundo o experiencia virtual prácticamente al límite de tu campo visual natural. Cuando miras a tu alrededor, experimentas el entorno de la misma forma en que lo haces cuando lo observas en la vida real. Los auriculares amplifican la experiencia al bloquear el ruido circundante, mientras te permiten escuchar los sonidos dentro de la experiencia de VR. Cuando mueves la cabeza, los sonidos que están dentro del entorno de la VR se mueven a tu alrededor como ocurre en la vida real.

Los motores 3D como Unity han hecho posible crear y ofrecer contenido de VR muy pulido. Dichas soluciones hacen que la creación de experiencias de realidad virtual sea una actividad mucho más accesible, lo que significa que el método de visualización se está volviendo más común. Eso significa que existe una oportunidad de dominar la creación de contenido VR para captar a un público cada vez mayor.

Programación de realidad virtual/realidad aumentada

Definición:

Programar para VR y AR es comparable a programar para otros métodos de visualización y tipos más tradicionales de contenido. C++ y C# son formas particularmente populares de programar para AR y VR, lo que refleja cómo las herramientas de desarrollo consolidadas se han adaptado a la llegada de la VR y AR, manteniendo, no obstante, las convenciones establecidas de codificación.

La oportunidad:

Tus habilidades de programación existentes –o las de tu equipo– están listas para el desarrollo de VR y AR.

Video volumétrico

Definición:

Una limitación de hasta el más bello video 360 en 3D es el desafío de permitirle al usuario desplazarse por el mundo con voluntad propia y libertad. A la fecha, la mayoría de los videos 360 limitan al usuario a adoptar y seguir la posición original de la cámara al momento en que se utilizó para capturar el video. El video volumétrico da un paso para contrarrestar esta limitación al capturar los datos volumétricos del espacio que se está filmando, y para cada cuadro. Esos datos pueden utilizarse después para presentar la escena como si fuera una escena gráfica renderizada, lo que significa que el usuario puede pasear por el video.

La oportunidad:

Contenido de video 360 estereoscópico de acción en vivo por el que puedes desplazarte. Ello puede hacer realidad algunas de las predicciones más osadas de lo que la VR podría ser en el futuro.

Instalación de VR

Definición:

Las instalaciones de VR son experiencias de realidad virtual propias de un lugar o emplazamiento. Pueden ser creaciones de una sola vez –como las que se aprecian en las instalaciones de arte– o duplicarse en múltiples lugares, como los parques de diversiones. Suelen usarse como entidades de marketing. Por ejemplo, promocionar una película en una ComicCon o hacerle publicidad a una marca en un festival musical. Con frecuencia, en un contexto así, tienen el soporte de elaborados escenarios y efectos físicos, como el viento generado o los pisos móviles. Los comerciantes minoristas también pueden implementar instalaciones de VR temporales o permanentes in situ, permitiendo a los consumidores, por ejemplo, probar la experiencia de un auto nuevo que no se venda en el salón de exposiciones.

La oportunidad:

Las instalaciones de VR ofrecen a los consumidores la oportunidad de probar tecnología de realidad virtual de alta gama sin necesidad de invertir en ningún equipo. También ofrecen una oportunidad distinta a los creadores, ya que más marcas se proponen emplear la VR como herramienta de marketing.

WebAR

Definición:

Un estándar abierto que hace posible experimentar la AR en un navegador, sin tener que descargar aplicaciones. Comparable a WebVR.

La oportunidad:

WebAR debería ser particularmente importante para los dispositivos móviles, cuando los sitios web puedan ofrecer experiencias de AR a través de los navegadores de los smartphone, y cuando los desarrolladores puedan ofrecer aplicaciones web sencillas con contenido AR. Esto tendría que democratizar considerablemente tanto la creación de contenido AR como su acceso para los usuarios. Asimismo, podría ofrecer una capacidad de prueba conveniente para los desarrolladores de AR.

WebVR

Definición:

Un estándar abierto que ofrece un medio a través del cual experimentar la VR a través de un navegador, en lugar de tener que descargar aplicaciones especializadas primero.

La oportunidad:

VR que solo usa un casco y un navegador web, sin introducir el costo de hardware de computadora de alta gama. Ello se traduce en una VR más accesible y un público potencial más amplio para los creadores de contenido. Como ocurre con WebAR, este método podría, en algunos casos, ofrecer a los desarrolladores una alternativa de prueba conveniente.

XR

Definición:

Experiencias tecnológicas que combinan entornos y realidades del mundo virtual y real. Aquí la «X» puede entenderse como una denominación genérica de V(R), A(R) o M(R), aunque también representa una calidad/cantidad indefinida o variable. La XR cubre el hardware, software, métodos y experiencia que hacen de la realidad virtual, realidad mixta, realidad aumentada, realidad cinemática, entre otras, una realidad. La mayoría de las definiciones de XR comprenden plataformas y contenido en las que el usuario puede llevar objetos digitales a la realidad o, a la inversa, ver objetos físicos como presentes en una escena digital.

Las experiencias de XR incluyen aquellas en las que los usuarios generan nuevas formas de realidad llevando objetos digitales al mundo físico, y aquellas que llevan objetos del mundo físico al mundo digital.

XR se utiliza por regla general como un término genérico y se utiliza frecuentemente como una abreviatura informal para agrupar tecnologías como la VR, AR y MR.

La oportunidad:

Explorar y comprender la XR en líneas generales –en lugar de centrarse en entornos particulares– debería permitir a los creadores mantenerse flexibles y evolucionar con los tipos de XR que surjan, y no someterse a una sola forma.