Mundo

Google anuncia la visualización inmersiva en Maps y la búsqueda múltiple de información local

La búsqueda múltiple de información local y la presentación digital y detallada de las ciudades en Immersive View son dos de las novedades que incorporarán los servicios de Google, en este caso Buscador y Maps, junto a un nuevo modelo de lenguaje de conversación natural que permitirá al Asistente comprender las pausas y las autocorrecciones.

GOOGLE (GOOGLE/Europa Press)

MADRID, 11 (Portaltic/EP)

La búsqueda múltiple de información local y la presentación digital y detallada de las ciudades en Immersive View son dos de las novedades que incorporarán los servicios de Google, en este caso Buscador y Maps, junto a un nuevo modelo de lenguaje de conversación natural que permitirá al Asistente comprender las pausas y las autocorrecciones.

Este martes ha arrancado la conferencia de desarrolladores Google I/O, un encuentro anual que recupera el público presencial tras dos años debido a la pandemia y que ha acogido sobre el escenario del anfiteatro Shoreline, en Mountain View, California (Estados Unidos), las novedades de los principales servicios de la compañía.

Estas novedades tienen que ver con la forma en que la propia compañía usa la inteligencia artificial (IA) para que la gente obtenga la información de forma más eficiente. En este sentido, el Buscador se actualizará a finales de año con la búsqueda múltiple cerca del usuario.

Esta ampliación de la búsqueda múltiple, que aúna la búsqueda mediante imagen y texto, permite al usuario indicar que los resultados sean locales escribiendo ‘cerca de mí’ a partir de una imagen online localizada, por ejemplo, de un plato de comida. Esto le permitirá obtener información sobre restaurantes que lo sirvan, o ese estilo de cocina, en las proximidades.

Esta búsqueda múltiple de información local llegará en unos meses primero en inglés, pero la compañía tiene planes para extenderlo a otros idiomas.

Google Lens también implementará una nueva función, exploración de escenas, con la que el usuario podrá realizar una búsqueda múltiple a partir de lo que vea a través de la cámara de su móvil. Por ejemplo, si apunta a una estantería donde se muestran chocolatinas, podrá ver información superpuesta a los elementos, así como escribir características (chocolate negro o si tiene frutos secos) para reducir las opciones que se destacan.

MAPS

Otro servicio que incorporará novedades es Google Maps, que introducirá las rutas sostenibles en Europa en los próximos meses. También contará con Immersive View, una nueva vista con la que el usuario podrá moverse por una recreación digital y tridimensional de gran detalle de una ciudad e incluso por el interior de algunos establecimiento.

Immersive View realiza el procesamiento en lo servicios en la nube de Google, lo que facilita que pueda acceder cualquier usuario a esta función desde cualquier móvil. Requiere una conexión a Internet para su uso, y estará disponible primero, en Android e iOS, en Los Ángeles, Londres, Nueva York, San Francisco y Tokio.

Los desarrolladores tendrán a su disposición la API Geoespatial de ARCore, con la que podrán utilizar la tecnología de Live View para crear experiencias en aplicaciones de terceros, como buscar un aparcamiento, recorrer localizaciones o jugar a juegos basados en la ubicación (con realidad aumentada).

ASISTENTE

En lo que respecta al Asistente, los trabajos se han dirigido a conseguir conversaciones cada vez más fáciles y naturales. Una de las novedades es ‘Look and Talk’, o mirar y hablar, que activa el asistente con solo mirar el dispositivo, sin necesidad de pronunciar el comando de activación (Hey, Google y Ok, Google).

Esta función utiliza el reconocimiento facial y realiza todo el proceso, tanto de este elemento como del reconocimiento de voz, en el propio equipo, por lo que la compañía ha resaltado la seguridad y la privacidad de este proceso. Llegará esta semana Android y a los dispositivos Nest Hub Max en inglés en Estados Unidos, pero mediados de mayo también estará disponible para iOS.

Por otra parte, las frases rápidas, que permiten que el Asistente ejecute acciones sin el comando de activación, como preguntar por la hora o encender o apagar las luces, están actualmente disponibles para Pixel 6 pero llegarán este verano a Nest Hub Max en inglés en Estados Unidos.

La compañía también ha compartido un nuevo modelo de lenguaje de conversación natural, que implementará a principios del próximo año. La novedad radica en que el Asistente será capaz de comprender mejor elementos como las pausas, las interrupciones y las autocorrecciones, e incluso el sonido ‘Mmmm’ o ‘hum’.

Junto a esta novedad de Asistente, la compañía también ha anunciado la segunda versión de LaMDA, el modelo conversacional que la compañía anunció el año pasado. Este modelo ha avanzado para, a partir de una petición del usuario, ofrecer múltiples subtareas o consejos, como se puede comprobar en la app AI Test Kitchen.

TRADUCTOR

Por último, también recibirá una novedades el Traductor. En este servicio se trata de una mejora de la calidad de las tradicciones, sobre todo en idiomas de los que hay menos recursos. Con esta idea, Google ha anunciado la incorporación de 24 nuevos idiomas a Traductor, entre los que se encuentran tres lenguas indígenas americanas: quechua, guaraní y aimara.

Con esta incorporación, Traductor cuenta con soporte para 133 idiomas, y las 24 nuevas adiciones dan cobertura a más de 330 millones de personas de todo el mundo.

La compañía también ha explicado un cambio de enfoque en la forma en que incorporan nuevos idiomas en el Traductor. Hasta ahora para entrenar en una nueva lengua había que proveer al modelo de una gran cantidad de ejemplos.

El nuevo enfoque adoptado por la compañía es un modelo monolingüe basado en texto en un idioma, sin traducción directa, en lugar de en el contraste de un mismo texto entre dos idiomas.

OTROS SERVICIOS

Pixel 6 cuenta en un software con mejoras que permiten capturar a las personas con un tono de piel más preciso y realista, en un intento por combatir el sesgo racial. La compañía ha anunciado una escala de tono de piel, desarrollada con el Dr. Ellis Monk, de la Universidad de Harvard (Estados Unidos), que puede probarse desde una web dedicada.

La compañía también ha incorporará novedades en Fotos y Web para avanzar hacia una mayor inclusividad. Algunas búsquedas de imágenes empezarán a mostrar filtros por tonos de piel, por ejemplo, las referidas a tipos de maquillaje. En Fotos, se introducirá in filtro de tono de piel natural, basado en la escala Monk.

La compañía también ha anunciado un par de novedades para su servicio de vídeo en streaming, la primera, la llegada de los capítulos autogenerados, que se aplicará de forma automática en unos 80 millones de vídeos en el próximo año, y la segunda, la extensión de los subtítulos automáticos a la versión móvil.

DV Player placeholder

Tags


Lo Último