Mundo

Meta trabaja en un sistema capaz de crear biografías mediante IA para dar mayor representación a colectivos excluidos

Meta busca solucionar el desequilibrio de la representación de ciertos grupos o colectivos sociales mediante un sistema de Inteligencia Artificial (IA) que ayude a editores como los de Wikipedia a escribir sus entradas biográficas.

MADRID, 31 (Portaltic/EP)

Meta busca solucionar el desequilibrio de la representación de ciertos grupos o colectivos sociales mediante un sistema de Inteligencia Artificial (IA) que ayude a editores como los de Wikipedia a escribir sus entradas biográficas.

La científica de Meta IA Angela Fan, en colaboración con su asesora de doctorado de la Universidad de Lorena (Francia), Claire Gardnet, ha desarrollado un nuevo método para añadir información sobre personajes históricos en Internet y fomentar la inclusividad informativa.

Tal y como ha podido analizar, existe un desajuste en el número de biografías en inglés en Wikipedia, ya que solo el 20 por ciento de ellas son de mujeres. Además, el porcentaje es aún menor si se trata de colectivos interseccionales, como pueden ser mujeres en la ciencia, mujeres en África o mujeres en Asia.

La compañía ha indicado en un comunicado que este portal de información «se utiliza como fuente de datos en tareas de procesamiento del lenguaje natural (PLN, por sus siglas en inglés), este sesgo de género puede afectar a los modelos de aprendizaje automático» de Wikipedia.

Por ese motivo, Fan está desarrollando Generating Biographies, un modelo que genera biografías basándose en IA y que puede servir de ayuda a los editores de artículos de esta enciclopedia para reducir la discriminación y representar en mayor medida a colectivos marginados o en riesgo de exclusión social.

Este sistema crea automáticamente artículos biográficos sobre figuras públicas relevantes mediante la búsqueda de información precisa en diferentes páginas web. A continuación, se emplea una arquitectura basada en IA mediante la cual el modelo puede identificar la información destacada y generar la biografía.

Así, redacta una entrada de texto al estilo de Wikipedia, con datos concretos. Después de cada frase generada, se añade una cita basada en las búsquedas web que se han realizado y se crea una bibliografía, en la que se se enlazan las fuentes consultadas.

El proceso se repite con cada sección de la biografía, que predice la siguiente, cubriendo todos los elementos que conforman una biografía, como la infancia, la educación o su carrera profesional.

De ese modo, se genera un artículo similar a los que incluye la enciclopedia digital. Para ello, utiliza datos de biografías de otras mujeres ya publicadas en Wikipedia para evaluar la calidad del texto generado.

ACABAR TAMBIÉN CON LA DESINFORMACIÓN

Este proyecto no solo aborda el grado de representación de colectivos marginados, sino que también busca equilibrar la información que se ofrece en los perfiles de estos personajes.

Según ha advertido su creadora en estas investigaciones, es más probable que, en estas biografías, se incluyan más detalles personales sobre las vidas de las mujeres que de los hombres.

Eso se sostiene en un estudio realizado en 2015, y citado por Wikimedia, que determinó que la palabra «divorcio» aparece cuatro veces más en las biografías de mujeres que en las biografías de hombres.

Esto indica que es más probable que los detalles de las vidas personales de estas mujeres tengan mayor protagonismo en sus biografías, lo que distrae la atención del lector de los logros profesionales que deberían ser destacados.

Además, Meta ha recordado un artículo publicado por Wikipedia Foundation, en el que se reconocía la existencia de un error en el algoritmo de la enciclopedia que también propiciaba el sesgo del género.

Entonces, se determinó que, aunque los artículos de salud que integra Wikipedia son supervisados por médicos y especialistas, durante años previos se etiquetaron ciertos aspectos femeninos, como la lactancia materna, como artículos de importancia «baja».

«Hay aún más trabajo por hacer para otros grupos marginados e interseccionales en todo el mundo y en todos los idiomas. Nuestra evaluación y conjunto de datos se centra en las mujeres, lo que excluye a muchos otros grupos, incluidas las personas no binarias», ha destacado Meta en este comunicado.

Para esta afirmación, la compañía se ha enfocado en un estudio realizado en 2021, ‘Controlled Analyses of Social Biases in Wikipedia Bios’, sobre sesgos sociales en esta enciclopedia virtual.

Este señalaba que los artículos sobre personas transgénero y no binarias tienden a ser más largos pero, a pesar de ello, están más enfocados en su vida personal que en sus logros personales y profesionales.

DV Player placeholder

Tags


Lo Último