Meta ha destacado la integración de la inteligencia artificial en el factor de forma de las gafas inteligentes, donde destaca su papel de asistente para ayudar al usuario en su día a día, mientras sigue investigando en esta tecnología emergencia y en el metaverso.
La IA y el metaverso son las grandes apuestas a largo plazo de Meta, dos tecnologías emergentes que este año han empezado a cruzarse “en forma de productos accesibles para un gran número de personas”, como señala en su blog oficial.
Te recomendamos: Google Play permitirá desinstalar aplicaciones de forma remota en dispositivos vinculados
Precisamente, el nivel de maduración que la compañía ha visto en ambas tecnologías le ha permitido tener “una visión aún más clara” de la innovación que consideran que deben ofrecer a los usuarios durante la próxima década.
Por un lado, la investigación sobre la inteligencia artificial todavía tiene que hacer “avances fundamentales” y descubrir “arquitecturas completamente nuevas”.
Mientras, los equipos de Meta dedicados a ella están trabajando en áreas como la IA incorporada, “cuyo objetivo es construir modelos que experimenten el mundo de la misma manera que los humanos”.
En lo que respecta al metaverso, los investigadores de Reality Labs trabajan con las tecnologías que “harán posible la siguiente plataforma de computación”.
Su trabajo, hasta ahora, ha permitido desarrollar las lentes ‘pancake’ de Quest Pro y Quest 3 y el prototipo Codec Avatars, para crear una representación fotorrealista del usuario en 3D y con audio espacial.
La mirada puesta en el momento actual destaca la integración de la IA en las gafas inteligentes que, como entienden desde Meta, se convertirá “en la forma principal en que las personas interactúan con las máquinas”.
Una de las manifestaciones más poderosas de la IA de vanguardia serán los asistentes y las gafas inteligentes. Este es el factor de forma ideal para comprender el mundo que rodea al usuario y ayudarlo en su día a día
— Mencionó la compañía dueña de Facebook, Instagram y WhatsApp
Un ejemplo de ello son las gafas que desarrollan con Ray-Ban, cuya nueva generación integran el asistente Meta AI, que combinan junto con la comprensión del lenguaje y la visión computacional para ver el mundo desde la perspectiva del usuario.
En este sentido, la compañía ya está probando nuevas capacidades de inteligencia artificial multimodal, que permitirán traducir un idioma de un texto que esté leyendo el usuario o crear un título divertido para una foto que haya tomado. Y ello “con manos libres, sin necesidad de sacar un teléfono ni operar una aplicación”, aseguran desde Meta.