A través de su cuenta de Instagram, Mark Zuckerberg dio una muestra de cómo funcionan las gafas de realidad aumentada que desarrolló Meta junto a Ray-Ban y que usan lenguajes multimodales, por lo que son capaces de procesar órdenes con voz según lo que esté viendo el usuario.
En un viaje que hizo a Montana, Estados Unidos, el CEO de la compañía estuvo interactuando con diferentes entornos para mostrar los diferentes alcances de este dispositivo que puede entregar información sobre monumentos históricos, datos del contexto en el que se está y buscar información en internet.
Todos esto aprovechando las funciones de inteligencia artificial, que ambas empresas han ido agregando en el desarrollo de las gafas, que ya se encuentran en el mercado, aunque solamente en ciertas regiones.
Qué funciónes tienen las gafas de Meta y Ray-Ban
Una de las primeras características del dispositivo es la posibilidad de reconocer y describir lugares históricos. Esta nueva función de inteligencia artificial multimodal permite a los usuarios obtener información detallada sobre los puntos de referencia simplemente mirándolos y haciendo una pregunta sobre ellos.
Zuckerberg puso el ejemplo con un arco que encontró en su viaje a Montana, del que no tuvo que dar el nombre, sino simplemente preguntarle a los lentes la historia de lo que tenía al frente.
“Hey Meta, mira y cuéntame la historia de este monumento”, preguntó el creador de Facebook. “El Arco de Roosevelt se construyó en 1903 bajo la supervisión del ejército estadounidense en Fort Yellowstone. Su piedra angular fue colocada por el presidente Theodore Roosevelt y contiene una cita de la Ley Orgánica de 1872 que creó el Parque Nacional de Yellowstone”, fue la respuesta de las gafas.
Esta es una función clave para mejorar el turismo en el mundo, pero también es una herramienta educativa, porque no se necesita saber el nombre del lugar y la interacción puede ir creciendo con más preguntas que se le ocurran al usuario, ya que no solo funciona con construcciones o creaciones artísticas, sino también con sitios naturales, como montañas o paisajes.
Otra de las novedades que mostró Zuckerberg fue la posibilidad de que las gafas puedan interactuar con cierto estilo que el usuario le pida. Por ejemplo, el directivo le pidió al dispositivo que le contara cómo se crea la nieve como si fuera un cavernícola, la respuesta fue la siguiente:
“Uga-Ada, la nieve está hecha de agua y cielo. El agua cae como lluvia o hielo, luego el frío hace que se vuelva blanca y esponjosa. El viento sopla, el sol brilla y la nieve se amontona en el suelo. Uga-Ada, ahora tenemos nieve”, dijeron los lentes.
Finalmente, también realizó solicitudes según el contexto tenía al frente. Primero lo hizo mostrándole un armario lleno de abrigos para el frío y preguntándole si no eran demasiados, después fue con un caballo y le solicitó información sobre cómo el frío puede afectar a estos animales.
Aunque por ahora todas estas funciones están en un periodo de prueba, por lo que no todos los usuarios pueden tenerlas y se debe realizar una solicitud a través de un programa de acceso temprano para hacer parte de la beta.
Actualmente, las gafas de realidad aumentada de Meta solo se venden en Estados Unidos y Europa por 299 dólares y cuentan con otras funciones como la posibilidad de transmitir en vivo en Facebook e Instagram y leer y traducir letreros en la calle para hacer preguntas sobre el lugar.
Además, tienen la posibilidad de personalizarse con más de 150 monturas y opciones de lentes adaptables. Y a pesar de ser mucho más que unos lentes tradicionales, su diseño sigue siendo delgado y la batería puede durar hasta 36 horas de uso continuo.
Sé el primero en comentar en"Mark Zuckerberg revela detalles de sus gafas hechas con Ray-Ban e inteligencia artificial"