Hoy, Google está quitando las envolturas de su nueva API de profundidad ARCore. A primera vista, esto suena altamente técnico y poco interesante. Sin embargo, cuando comprenda lo que hace, verá cómo esto cambiará fundamentalmente sus experiencias de realidad aumentada.

También verá cómo abrirá toneladas de nuevas posibilidades para AR en los mundos de productividad, compras e incluso juegos.

Entonces, ¿qué es la API de profundidad ARCore? Aquí está la explicación oficial de Google:

La API de profundidad permite a los desarrolladores usar nuestros algoritmos de profundidad de movimiento para crear un mapa de profundidad usando una sola cámara RGB. El mapa de profundidad se crea tomando múltiples imágenes desde diferentes ángulos y comparándolas a medida que mueve su teléfono para estimar la distancia a cada píxel.

¿Confuso? Es mucho más fácil explicar qué es mostrándote lo que hace. Echa un vistazo a los GIF a continuación: a la izquierda, tienes una experiencia AR sin la API de profundidad y, a la derecha, esa misma experiencia con ella.

La API ARCore Depth permite que el programa AR comprenda que las almohadas mullidas en la habitación de arriba están más cerca de usted que la ubicación del gato AR. Anteriormente, ARCore no era muy bueno para determinar esto y colocaría al gato justo encima de las almohadas, creando una escena totalmente poco realista. Sin embargo, con la API de profundidad activa, el cuerpo del gato es detrás las almohadas y solo las partes que verías en una situación del mundo real son visibles.

Google explica en su publicación de blog que anuncia la API de profundidad cómo funciona esto. Es bastante técnico, y puedes aprender todo al leer la publicación, pero la imagen a continuación te da una idea sólida. La API de profundidad usa los movimientos de su cámara para determinar qué objetos en su vista están más cerca o más lejos, y luego crea un mapa de profundidad:

Mapa de profundidad API de profundidad ARCore

En el GIF, una vez que se crea el mapa de profundidad, los objetos que están más cerca de usted aparecen en rojo, mientras que los objetos que están lejos aparecen en azul.

Con la API ARCore Depth, las aplicaciones AR serán mucho más realistas. Cuando utiliza aplicaciones de compras con tecnología AR, por ejemplo, puede colocar artículos para el hogar en su hogar para tener una idea de cómo se verían en su sala de estar o en su mostrador. Esta nueva característica hará que esas experiencias sean aún más realistas, lo que le dará más confianza sobre su compra.

Para los juegos, una mejor sensación de profundidad te permitirá hacer cosas como esconderte detrás de obstáculos, apuntar proyectiles con precisión y obtener una sorpresa cuando los personajes salen de detrás de las estructuras. En el GIF en la parte superior de este artículo, puede ver un ejemplo de cómo esto podría funcionar.

La API de profundidad no depende de cámaras y sensores especiales, por lo que debería funcionar en prácticamente cualquier dispositivo que sea compatible con ARCore. Sin embargo, los dispositivos con cámaras especializadas y sensores de tiempo de vuelo (ToF) probablemente obtendrán una experiencia mejor y más precisa.

Google espera que los desarrolladores estén entusiasmados de probar esta nueva característica e integrarla en sus aplicaciones basadas en AR. No debería pasar mucho tiempo antes de que comience a ver mejores experiencias de profundidad en sus aplicaciones AR actuales.

Leave A Reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.