Mundo

Podemos pide al Gobierno que controle el desarrollo de tecnologías con riesgo de “discriminación algorítmica”

Unidas Podemos solicita al Ejecutivo precisar qué sistemas con tecnología de Inteligencia Artificial o dispositivos automatizados para la toma de decisiones se desarrollan en España y pueden ser considerados, según la propuesta normativa comunitaria, como de alto riesgo por la posibilidad de generar “discriminación algorítmica” o desigualdad.

A. Pérez Meca - Europa Press - Archivo (A. Perez Meca/Europa Press)

MADRID, 3 (EUROPA PRESS)

Unidas Podemos solicita al Ejecutivo precisar qué sistemas con tecnología de Inteligencia Artificial o dispositivos automatizados para la toma de decisiones se desarrollan en España y pueden ser considerados, según la propuesta normativa comunitaria, como de alto riesgo por la posibilidad de generar «discriminación algorítmica» o desigualdad.

Así lo plantea el diputado del grupo confederal y dirigente de En Comú Podem, Ismael Cortés, mediante una serie de preguntas parlamentarias dirigidas al Ejecutivo para pedir al Ejecutivo información sobre los elementos de control que piensa desarrollar sobre estos dispositivos.

En la argumentación de sus iniciativas, Cortés desgrana que gobiernos y administraciones de todo el mundo están haciendo un «creciente uso» de sistemas computerizados que asumen, o bien una parte o la totalidad de procesos de toma de decisiones administrativas en una gran variedad de campos.

Al respecto, cita el despliegue de estas tecnologías en ámbitos como la educación, la salud, la seguridad ciudadana, los sistemas de seguridad social, el urbanismo, los sistemas de tributación y hacienda o el control de fronteras.

Por su proliferación, el diputado destaca que varias instituciones, entre ellas el Parlamento Europeo, el Consejo de Europa o la Agencia Europea de los Derechos Fundamentales han emitido resoluciones para alertar de que los sistemas automatizados pueden conducir a «nuevas formas de discriminación, desigualdad y racismo».

Como ejemplo concreto, cita la dimisión del gobierno holandés el año pasado al hacerse público un caso de discriminación algorítmica llevado a cabo por un sistema automatizado que afectó a cerca de 26.000 familias.

También destaca, en línea con otras iniciativas planteadas en la Cámara Baja, que los sistemas de identificación biométrica y categorización de personas físicas mediante Inteligencia Artificial (IA) se encuentra entre los dispositivos que pueden entrañar riesgos en la propuesta de normativa europea sobre nuevas tecnologías.

En este campo también incluye, el uso de sistemas automatizados de IA mediante en infraestructuras esenciales, como en las parcelas de seguridad, tráfico rodado o suministro de agua o energías.

Por tanto, solicita al Ejecutivo que aporte datos sobre qué sistemas automatizados, calificables bajo la propuesta de normativa europea como de alto riesgo, están en funcionamiento en alguno de los ámbitos competenciales del país.

También pregunta sobre qué mecanismos de prevención, monitorización y evaluación del impacto de estas tecnologías está tomando el Ejecutivo, sobre todo para evitar o corregir «posibles casos de violación de derechos fundamentales y, «más específicamente», de «discriminación algorítmica».

Finalmente, pide información sobre qué empresas privadas o participación mixta forman parte del desarrollo y gestión de los conocidos como ‘data sets’ relacionados con dispositivos automatizados de toma de decisiones.

DV Player placeholder

Tags


Lo Último