La apuesta por el metaverso de Mark Zuckerberg es seria. El fundador de Facebook está totalmente volcado en allanar el camino para que su gran proyecto de futuro, ese mundo virtual inmersivo en el que quiere que pasemos varias horas al día, se pueda materializar cuanto antes. Para demostrar que sus ingenieros no están perdiendo el tiempo, Zuckerberg invitó la semana pasada a un grupo de medios de todo el mundo, entre ellos EL PAÍS, a conocer los últimos desarrollos en los que trabaja su empresa. Más concretamente, el ejecutivo y su equipo hablaron sobre cómo están tratando de mejorar la visualización y experiencia de sus gafas Oculus, las que nos permitirán sumergirnos en el metaverso y serán capaces de pasar lo que denomina “un Test de Turing visual”.
“Los sistemas actuales de realidad virtual ya pueden darte la sensación de que estás en otro lugar. Y es difícil describir lo significativo que es esto, es algo que tienes que experimentar por ti mismo. Pero aún nos queda un largo camino por recorrer en las pantallas y motores gráficos antes de llegar al realismo visual”, dijo Zuckerberg en una primera intervención grabada. La complejidad a la que se enfrentan los ingenieros de Meta tiene que ver con un hecho diferencial. Al mirar a una pantalla convencional, las de 2D, fijamos la vista donde queremos, miramos a un lado u a otro, nos separamos o nos alejamos, etc. A pesar de esos movimientos naturales, la resolución del monitor es siempre la misma.
Con las imágenes 3D, proyectadas directamente en nuestros ojos por unas gafas especiales, la situación es distinta. “Tienes que poder renderizar objetos y enfocar la vista a diferentes distancias. Necesitas una pantalla que pueda abarcar un ángulo de visión mucho más amplio, y tener una resolución a nivel de retina en todo ese campo de visión requiere muchos más píxeles que cualquier pantalla tradicional”, explicó Zuckerberg. “Necesitas pantallas que puedan aproximarse al brillo y al rango dinámico del mundo físico, y eso exige casi diez veces más brillo que el que obtenemos actualmente en los televisores de alta definición. Necesitas un seguimiento del movimiento realista que tenga una latencia baja, para que cuando gires la cabeza parezca que está correctamente posicionada en el mundo inmersivo en el que te encuentras”, resumió el joven magnate.
Todo ello debe poder caber en un visor que sea cómodo de usar, que no se caliente demasiado y que tenga baterías duraderas (se descartan de plano dispositivos enchufados). Reality Labs, el equipo de ingenieros enfocado a estos desarrollos, mostró algunos de sus prototipos. El que parece estar más avanzado son las Holocake 2, que Zuckerberg mostró con orgullo y que son las lentes más finas y ligeras que han desarrollado hasta la fecha. También enseñaron los planos de las gafas Mirror Lake, que integra los últimos avances de Meta. Todavía están en fase de conceptualización y, según recordó la compañía, falta mucho para que puedan traducirse en un producto de consumo. Pero las tecnologías que incorporan y los problemas que tratan de resolver los veremos más adelante en modelos de lentes que saque al mercado Meta.
Los cuatro grandes desafíos visuales
Douglas Lanman, director de investigación de sistemas de Reality Labs, explicó los cuatro grandes retos que afrontan los desarrolladores de Meta para lograr que la visualización de las gafas de realidad virtual sea lo más realista posible. En primer lugar, las lentes deben ser capaces de poder enfocar el objeto que se está mirando, ya esté adelantado o atrasado. En segundo lugar, la resolución tiene que ser mucho mejor que en 2D para llegar a ser convincente.
En tercer lugar, el motor gráfico de las gafas tiene que ser capaz de corregir el efecto de distorsión por el que las estructuras parecen deformarse si están lejos. Y en cuarto lugar, también debe ser capaz de equilibrar la dimensión y proporción de todos los elementos del campo visual, lo cual se consigue haciendo que cada elemento emita más o menos luz.
La solución técnica a la que han llegado los ingenieros de Reality Labs tiene dos patas. Por un lado, la distorsión intencionada de los elementos. “Se trata de deformar la imagen digital en tiempo real para que tu cerebro la perciba como se vería si estuvieras en la vida real, aplicando las correcciones necesarias de luz, foco y resolución”, ilustró Lanman. El otro avance lo llaman alto rango dinámico (high dynamic range, HDR) y consiste en una técnica para aplicar la iluminación necesaria en cada momento a las imágenes.
El equipo de Meta ha desarrollado un prototipo de gafas, todavía tremendamente grandes, que incorpora este último avance. Cuando consigan incorporarlo en las versiones de lentes más ligeras, dicen, la experiencia de uso se disparará