MADRID, 3 (Portaltic/EP)
Google ha detallado el modo en que trabaja con las reseñas en Google Maps, donde los usuarios pueden compartir sus comentarios acerca de un determinado establecimiento o servicio y valorar de una a cinco estrellas su experiencia, mediante un sistema basado en inteligencia artificial (IA).
Google ha explicado que, a raíz de la pandemia, ha reforzado su sistema de revisión de las reseñas con el fin de eliminar aquellas que critican a una empresa por sus políticas de salud y seguridad o por cumplir con una orden de vacunación. Así, ha especificado el modo en que trabajan para que esto no suceda.
Para proteger a las empresas y a los negocios de posibles abusos por parte de usuarios, la compañía utiliza un sistema de algoritmos de aprendizaje automático (‘machine learning’) que analiza las valoraciones de los usuarios con respecto a su experiencia en establecimientos o servicios, antes de ser publicadas en Internet.
«Tan pronto como alguien publica una reseña, la enviamos a nuestro sistema de moderación para asegurarnos de que la reseña no infrinja ninguna de nuestras políticas», ha indicado el director de Producto de grupo y Contenido generado por el usuario, Ian Leader, en una entrada del blog de Google.
La compañía implementa la inteligencia artificial para reconocer patrones y encontrar actividades sospechosas de usuarios de cuentas de Google o en perfiles de empresas.
Mediante el estudio de los patrones, se determina si el contenido es legítimo a través de IA y la gran mayoría del contenido falso o fraudulento se elimina antes de que alguien lo vea.
Estas máquinas analizan las reseñas desde diferentes perspectivas y, además del contenido de la reseña, tienen en cuenta factores como si la cuenta desde la que se escribió presenta un historial de comportamiento sospechoso o si se han acumulado varias reseñas en poco tiempo.
«Por ejemplo, [revisamos] si un grupo de cuentas de Google ha dejado reseñas sobre los mismos negocios o si un negocio ha recibido muchas valoraciones de una o cinco estrellas en un período corto de tiempo», explica Google.
Asimismo, se presta atención a si ha habido alguna noticia que haya generado interés y haya causado en las redes sociales que podría motivar a los usuarios a escribir reseñas falsas.
En el caso de que el sistema haya encontrado indicios de este tipo o haya identificado contenido ofensivo, bloquea las reseñas. Por el contrario, si no detecta ningún problema, contenido sospechoso o que infrinja sus políticas, la reseña se publica en cuestión de segundos.
El trabajo de análisis de Google no finaliza en el momento en que se publican estos comentarios, ya que los continúa analizando a través de su sistema de aprendizaje automático para determinar si ese contenido se mantiene o no en el apartado de reseñas de un negocio.
Tanto los propietarios de esos negocios como otros usuarios pueden notificar a Google acerca de los comentarios que consideren inadecuados y, una vez hayan sido sometidos a una nueva revisión, el sistema puede eliminarlos e, incluso, suspender la cuenta o emprender un litigio.
Las segundas revisiones pueden mejorar el modo en que modera y filtra las reseñas, ya que «entrenar a una máquina a distinguir el contenido aceptable del que infringe las políticas es un equilibrio delicado», ha señalado la compañía.
Para demostrar este problema, ha puesto el ejemplo de la palabra ‘gay’, a veces utilizada de forma despectiva, lo que en principio no estaría permitido en las reseñas de Maps. «Si le enseñamos a nuestros modelos de aprendizaje automático que solo se utiliza en discursos de odio, es posible que eliminemos erróneamente las reseñas que promocionan un negocio gay o un espacio seguro LGBTQ+», ha argumentado Google.
Por ese motivo, cuenta con un equipo de operadores humanos que trabaja las 24 horas, ejecuta regularmente pruebas de calidad y completa el proceso para eliminar el sesgo de los modelos de inteligencia artificial enfocados a este fin.
Por último, Google ha animado tanto a los usuarios como a los propietarios de los negocios que aparecen en Maps a denunciar aquellas valoraciones que infrinjan las políticas de contenido y marcarlas como inapropiadas (con el símbolo de una bandera roja).
Además de encargarse de esta revisión, la compañía ha reconocido que trabaja «de manera proactiva» en la identificación de posibles riesgos de abuso y ha puesto explicado el procedimiento que lleva a cabo en eventos con muchos seguidores o personas interesadas, como unas elecciones.
Primero refuerza la protección en los lugares asociados con el evento y otras empresas cercanas a este que los usuarios puedan buscar en Maps. A continuación, continúa monitoreando estos lugares o megocios hasta que el riesgo de abuso por parte de los usuarios haya disminuido, con el objetivo de que solo se puedan publicar valoraciones auténticas.