Boston Dynamics y otras cinco empresas de robótica firmaron una carta abierta en la se comprometen a lo que muchas personas ya esperaban con nerviosismo: No convertir en armas a los robots autónomos de uso general.
En total, las seis empresas tecnológicas más importantes -entre ellas Agility Robotics, ANYbotics, Clearpath Robotics, Open Robotics y Unitree- afirman que los robots avanzados podrían suponer enormes beneficios en nuestra vida laboral y doméstica, pero que también podrían utilizarse con fines nefastos.
“Existen personas no confiables que podrían utilizarlas para invadir los derechos civiles o para amenazar, dañar o intimidar a otros”, dijeron las empresas, quienes añadieron “Creemos que añadir armas a los robots que se manejan de forma remota o autónoma, que están ampliamente disponibles para el público y que son capaces de navegar a lugares previamente inaccesibles donde la gente vive y trabaja, plantea nuevos riesgos de daño y graves problemas éticos”.
“Conozco a muchos de los fundadores de estas empresas y trabajan en robots porque quieren que el mundo sea un lugar mejor”, explica a Publimetro Toby Walsh, profesor de Inteligencia Artificial (IA) en la Universidad de Nueva Gales del Sur (UNSW) de Sydney, Australia. Walsh es un firme defensor de los límites para garantizar que la IA se utilice para mejorar nuestras vidas, motivo que le ha llevado a ser “prohibido indefinidamente” en Rusia.
“Los robots pueden hacer lo sucio, lo aburrido, lo difícil y lo peligroso. Pero también pueden ser utilizados para otros resultados menos deseables: para transformar la guerra, y no para mejor, así como para quitar puestos de trabajo”, comenta Walsh.
Para el especialista, el uso de robots se ha descrito “con razón” como la tercera revolución en la guerra, después de la invención de la pólvora y de las armas nucleares. “Sería otro cambio en la forma de combatir la guerra. Las armas autónomas serían mortalmente precisas, no se cansarían ni dormirían nunca y matarían a la gente sin apenas supervisión o responsabilidad humana”, añade Walsh.
Preocupa mal uso de robots en el futuro
Walsh, quien ha sido incluido en la lista internacional de personas influyentes “Who’s Who in AI”, explica que actualmente los robots son todavía menos capaces que un niño de tres años. “Les falta nuestra capacidad de adaptación, nuestra flexibilidad y nuestro sentido común. Podemos ponerlos en situaciones normales para que hagan tareas repetitivas. Por eso los encontramos en fábricas y almacenes. Pero el último lugar para ponerlos es el campo de batalla, donde todo es mucho más imprevisible”, concluye.
La ingeniería basada en valores es un enfoque que ha sido adoptado por la serie de normas IEEE 7000 para sistemas autónomos e inteligentes, que detalla cómo abordar las preocupaciones éticas relacionadas con una serie de áreas que incluyen la parcialidad, el engaño, la opacidad, la supervisión, la privacidad, el empleo y más.
— Katina Michael, Universidad Estatal de Arizona.
Las empresas se comprometieron a no convertir en armas sus “robots de movilidad avanzada de uso general” ni el software que los hace funcionar. También dijeron que tratarían de asegurarse de que sus clientes no convirtieran sus productos en armas.
En todo el mundo se han hecho crecientes llamados para frenar el uso de sistemas de armas autónomas -que funcionan por sí solas y no implican a un operador humano- y la campaña Stop Killer Robots afirma que casi 100 países y una mayoría de personas se oponen a las armas autónomas.
Finalmente, el profesor Toby Walsh explicó que el Consejo de Derechos Humanos de la ONU acaba de aprobar una resolución para estudiar los preocupantes efectos de las nuevas tecnologías, como la robótica, en el ámbito militar.
3 PREGUNTAS
Katina Michael, investigadora de la Escuela para el Futuro de la Innovación en la Sociedad y Escuela de Computación e Inteligencia Aumentada en la Universidad Estatal de Arizona.
Entre sus publicaciones se encuentran “Michael Eldred sobre la era digital: Desafíos para el pensamiento actual” (Michael Eldred on the Digital Age: Challenges for Today’s Thinking) y Uberveillance y las implicaciones sociales de los implantes de microchips: Tecnologías emergentes (Uberveillance and the Social Implications of Microchip Implants: Emerging Technologies).
¿Qué lleva a las empresas a prometer que no convertirán sus robots en armas? ¿Qué garantía hay de que estas empresas cumplan su palabra?
La visión y la misión de una organización especializada en el desarrollo de la robótica pueden estar centradas en la aplicación de la “robótica para el bien”, por ejemplo, cuando las vidas humanas se verían en situaciones desproporcionadamente peligrosas.
Hay que creer a las empresas que dicen que no van a convertir sus robots en armas, ya que cualquier otra cosa afectaría a la marca y a la propuesta de valor principal de su empresa.
Para algunos sonará a ciencia ficción pero, ¿Qué pasará si un usuario adapta o modifica estos robots para convertirlos en armas?
Los usuarios llevan mucho tiempo adaptando la tecnología para aplicaciones para las que nunca fue concebida. En este contexto, convertir algo en un arma significa “adaptarlo para su uso como arma”. Un arma puede definirse como una “cosa diseñada o utilizada para infligir daños corporales o físicos”.
No cabe duda de que podemos prever un momento en el que los robots sean objetivos de violaciones de la seguridad. Así, las máquinas que funcionan mal pueden causar daños corporales o físicos importantes al no actuar de acuerdo con su software de a bordo.
Todavía nos queda mucho por aprender sobre los robots autónomos pero, ¿Cuáles cree que son los principales problemas que debemos resolver?
Como los robots autónomos son sistemas sociotécnicos, podemos considerar tres lotes de cuestiones que engloban la interacción entre humanos y robots, incluyendo factores sociales, técnicos y ambientales. Cómo se relacionarán fundamentalmente las personas con los sistemas semiautónomos; técnicamente, qué destacaremos como capacidades clave en un sistema totalmente autónomo y cómo abordaremos las cuestiones de seguridad, entre otros requisitos fundamentales de ingeniería; y, por último, cómo podríamos regular los sistemas autónomos en materia de seguridad, entre otras cuestiones.