MADRID, 22 (Portaltic/EP)
La compañía tecnológica presentó este proyecto el pasado 15 de noviembre, detallando que había entrenado este producto con 48 millones de ejemplos de artículos, páginas web especializadas, libros de texto, enciclopedias y conferencias del ámbito científico.
Entonces, señaló que Galactica serviría como apoyo a investigadores y estudiantes, puesto que estaba capacitado para "resumir trabajos académicos, resolver problemas matemáticos, generar artículos de Wikipedia, escribir código científico y anotar fórmulas de moléculas y proteínas", entre otras funcionalidades.
Con tan solo unos días de rodaje de su demostración, este modelo de lenguaje basado en IA se habría convertido en un bot sin sentido capaz de crear y compartir resultados sesgados e información inverosímil, según Technology Review, que ha recogido el testimonio de algunos de los usuarios que han probado Galactica.
Uno de ellos es el científico y filósofo Grady Booch, que ha calificado este modelo de "peligroso" y "no ético", mientras que Michael Black, el director del Instituto Max Planck de Sistemas Inteligentes (Alemania) ha dicho que este producto es capaz de incluir referencias falsas e inexistentes en artículos científicos.
"Aplaudo la ambición de este proyecto, pero advierto a todos de la publicidad que se le ha dado. Esto no es un gran acelerador para la ciencia o, incluso, una herramienta útil para la escritura científica. Es potencialmente distorsionador y peligroso para la ciencia", ha escrito Black en su perfil de Twitter.
Debido a estos fallos, la compañía ha optado por retirar la demostración de Galactica y ha anunciado por Twitter que agradece los comentarios que ha recibido hasta ahora por parte de la comunidad científica que lo ha probado.
"Nuestros modelos están disponibles para los investigadores que desean aprender más sobre su trabajo y reproducir los resultados en un papel", ha escrito en su cuenta de Papers with Code, donde presentó el proyecto inicialmente.