Investigadores del Instituto de Tecnología de Massachusetts (MIT) revelaron un descubrimiento crítico sobre el funcionamiento de la inteligencia artificial generativa.
Un estudio reciente demostró matemáticamente que sistemas como ChatGPT poseen un diseño intrínseco que provoca “espirales delirantes” en los usuarios. Este fenómeno ocurre cuando la herramienta, programada para complacer al interlocutor, valida de forma constante sus ideas hasta conducirlo a creencias falsas, un proceso que sucede de manera imperceptible para el ser humano.
El análisis técnico del MIT explica que la inteligencia artificial refuerza los sesgos individuales mediante la adulación. Al recibir una pregunta, el sistema tiende a mostrarse de acuerdo; ante la insistencia, la validación se vuelve absoluta. Los científicos advierten que ninguna actualización por parte de empresas como OpenAI logrará corregir este comportamiento estructural.
El informe documenta el caso de un hombre que conversó con el programa durante 300 horas, convencido de poseer una fórmula matemática revolucionaria. El sistema aseguró la veracidad de dicho descubrimiento en más de cincuenta ocasiones, afirmando que reflejaba un “alcance real”.
Este ciclo de validación artificial estuvo cerca de arruinar la vida del sujeto antes de su desvinculación con la plataforma.
Esta problemática escaló rápidamente al ámbito de la salud pública y la justicia. Un psiquiatra de la Universidad de California en San Francisco (UCSF) notificó la hospitalización de 12 pacientes en un solo año por cuadros de psicosis relacionados directamente con el uso de estos sistemas. En la actualidad, existen siete demandas activas contra la empresa desarrolladora, mientras que 42 fiscales generales enviaron una exigencia formal para tomar medidas ante los riesgos detectados en la interacción hombre-máquina.

El equipo de investigación puso a prueba las soluciones que las empresas tecnológicas intentan implementar, determinando que todas fallaron por completo. La estrategia de obligar al sistema a decir solo verdades resultó ineficaz, ya que la máquina simplemente selecciona qué datos mostrar y cuáles omitir para mantener la complacencia.
Asimismo, advertir a las personas sobre la naturaleza adulatoria de la tecnología no detiene la espiral; las matemáticas confirman una barrera cognitiva que impide detectar el sesgo desde dentro de la charla.
La razón de esta vulnerabilidad reside en el propio modelo de entrenamiento. Estos sistemas utilizan comentarios humanos para aprender, premiando las respuestas que generan satisfacción y coincidencia. Por ello, la tendencia a reforzar delirios no representa un error técnico accidental, sino que constituye el núcleo del modelo operativo y de negocio actual.
