Google muestra nuevas e impresionantes funciones de AR que llegarán a la web y móviles pronto

Parte de la nueva API de profundidad de ARCore en proceso

Google ha estado trabajando silenciosamente para mejorar su plataforma de realidad aumentada, ARCore, desde su lanzamiento oficial a principios del año pasado . Ahora, la compañía dice que está lista para presentar algunas de las actualizaciones de próxima generación para la detección de profundidad y física que ha logrado, que prometen hacer que las experiencias de AR parezcan mucho más realistas en el futuro.

Las actualizaciones, parte de la nueva API de profundidad de ARCore, pronto permitirán a los desarrolladores realizar lo que se conoce como oclusión, que es cuando un objeto artificial puede ser bloqueado de la vista por otros objetos del mundo real en una escena. Coloque un gato virtual en su sala de estar, por ejemplo, y puede verlo desaparecer de la vista cuando inclina su cámara de manera que coloque una cama o mesa u otro objeto en el medio.

El resultado es una escena más creíble, porque la detección de profundidad que se realiza debajo del capó significa que su teléfono inteligente comprende mejor cada objeto en una escena y qué tan separados están cada uno del otro. Google dice que puede hacer esto mediante la optimización del software existente, por lo que no necesitará un teléfono con un sensor o tipo de procesador específico. También ocurre todo en el dispositivo en sí y no depende de la ayuda de la nube. Mientras tenga un teléfono que admita ARCore, que es prácticamente todos los teléfonos Android nuevos lanzados en los últimos años , podrá acceder a estas nuevas funciones.

Hemos visto oclusión en teléfonos móviles antes. El creador de Pokémon Go , Niantic mostró un video de una demostración de oclusión con un pequeño pikachu virtual que se lanza alrededor de una plaza urbana, corriendo entre objetos y mezclándose perfectamente con el entorno. Eso fue en julio de 2018. Pero fue solo un video, no una demostración que los miembros de la prensa pudieron ver ejecutándose en un dispositivo y operando en tiempo real.

Durante una reunión con miembros de la división AR de Google la semana pasada, pude jugar con demostraciones en tiempo real que el equipo construyó para mostrar la nueva tecnología de profundidad. De acuerdo, fue en un entorno de prueba que Google había organizado para la demostración, pero la tecnología funciona. De hecho, estará disponible a partir de hoy, como parte de las actualizaciones de la aplicación de diseño para el hogar Houzz y la de Google en la función de búsqueda .

Los muebles que encuentre en Houzz que forman parte de la opción “ver en mi habitación” de la aplicación ahora admitirán la oclusión. Google dice que los más de 200 millones de dispositivos Android también serán ocluidos por cualquier objeto que tenga un modelo AR en la Búsqueda de Google.

Pude ver algunas demostraciones de las nuevas capacidades de la API de profundidad que hoy no aparecerán en aplicaciones o servicios comerciales, pero Google dice que esos avances estarán disponibles para los desarrolladores en el futuro después de que funcione más de cerca con los desarrolladores y otros colaboradores para pulir algunos de sus enfoques.

Estos van más allá de la oclusión y en física más realista y mapeo 3D. Google ha desarrollado una forma para que los objetos AR interactúen con el mundo real de manera más realista, se muevan a través de un entorno como lo haría un objeto 3D del mundo real e interactúen con superficies como se podría esperar que lo hiciera la materia física. Por ejemplo, en la demostración que pude experimentar, pude crear bloques de colores en el aire que podrían rebotar en prácticamente cualquier superficie, incluso en el manillar de una bicicleta estática.

Google también realizó una especie de minijuego que muestra la capacidad de los objetos de AR de moverse a través de un entorno al moverse alrededor de objetos del mundo real y las capacidades de interacción superficial de la nueva API de profundidad. Involucró un robot de cocina que se involucra en una pelea de alimentos con usted que tiene en cuenta los muebles y las paredes del entorno, con postres que dejan salpicaduras realistas en las superficies.

Google no está poniendo estas demostraciones a disposición del público, pero la compañía dice que espera que los fabricantes de aplicaciones hagan experiencias similares a las ampliamente mejoradas cuando esté listo para lanzar la API de Profundidad actualizada a todos los desarrolladores. La compañía no tiene un cronograma para cuándo espera lanzar este conjunto de herramientas de manera más amplia, pero es probable que estas capacidades se muestren en aplicaciones y experiencias web de AR en algún momento del próximo año.

 


Tatiana Vazquez. Tatiana Vázquez es escritora de Noyola Magazine especializada en inversiones y startups emergentes.

Related Posts