Mundo

¿Quién es real en internet? IA dispara una ola de documentos falsos y personajes inventados

Casos detectados en Estados Unidos y Argentina muestran cómo la inteligencia artificial acelera la desinformación y exhibe una crisis mundial de verificación

Engaños con IA.
Engaños con IA. Los casos MAHA en Estados Unidos y un escándalo de comunicación política en Argentina evidencian la crisis en la verificación de información. (AP/Especial)

Durante años, internet funcionó bajo la idea básica de que si una foto parecía real, un documento citaba estudios y una persona aparecía en video diciendo algo, probablemente era cierto, pero esa lógica empezó a romperse con la llegada de la IA generativa, explica el portal Metro World News.

Hoy ya circulan personajes que nunca existieron, documentos con referencias inventadas, voces clonadas y campañas digitales diseñadas para parecer conversaciones reales entre ciudadanos.

La velocidad con la que ese contenido se comparte provocó una nueva preocupación global: millones de personas están consumiendo información falsa sin darse cuenta, y muchas veces quienes la publican tampoco verifican si es auténtica.

Pero no se trata solo de rumores, hay casos que impactan incluso a gobiernos, por lo que en distintos países crece la alerta e que cuando nadie verifica, un texto falso puede entrar a un documento oficial, una imagen manipulada puede moldear una conversación pública y una campaña digital puede parecer opinión ciudadana.


El problema ya no es solo que existan herramientas capaces de fabricar textos, citas, audios o imágenes, el problema es que muchas veces esos contenidos llegan a gobiernos, medios, redes sociales y usuarios sin pasar por un filtro mínimo. Se comparten, se discuten, se defienden y, cuando aparece la corrección, el daño ya empezó.

En los últimos meses, dos casos se volvieron especialmente visibles a nivel internacional, el informe Make America Healthy Again, en Estados Unidos, cuestionado por citas científicas inexistentes o mal atribuidas, así como una operación de desinformación detectada en Argentina, atribuida por autoridades e investigaciones periodísticas a una red presuntamente vinculada a intereses rusos.

Falta de verificación global

La escena se repite con distintos nombres y en distintos idiomas, un documento aparece con apariencia técnica; una publicación circula con tono de denuncia; un video parece real porque tiene voz, rostro y contexto.

Después alguien revisa con calma y descubre que la cita no existe, que el autor nunca escribió eso o que detrás de cientos de mensajes había una operación coordinada.

Esa es la grieta que abrió la IA generativa: no inventó la desinformación, pero sí la hizo más rápida, más barata y más convincente.

Antes se necesitaba más tiempo para fabricar una narrativa falsa, y hoy bastan minutos para producir textos con tono académico, imágenes creíbles, audios imitados o perfiles completos que parecen humanos, y la consecuencia directa es una pérdida de confianza.

Cada vez más usuarios consumen contenido sin saber si detrás hay una persona real, una operación política o un sistema automatizado, y ahí aparece el verdadero problema: la falta de verificación ya no es un error aislado, sino un fenómeno global.

Si un documento oficial puede tener referencias falsas, si una campaña digital puede simular apoyo ciudadano y si una imagen puede engañar incluso a usuarios atentos, entonces la duda es ¿quién revisa antes de publicar?

Caso MAHA en Estados Unidos

La mayor paradoja hasta ahora ocurrió en la nación más poderosa del planeta y refleja la magnitud del problema, se trata del informe Make America Healthy Again (MAHA) el cual se volvió uno de los ejemplos más visibles del impacto que puede tener un documento aparentemente serio cuando nadie revisa con profundidad sus referencias.

El Make America Healthy Again, conocido como MAHA, encendió una alerta porque no se trataba de una publicación anónima en redes sociales, sino de un documento vinculado a una comisión presidencial en Estados Unidos y presentado como insumo para discutir salud pública.

El informe fue difundido en mayo de 2025 y abordaba supuestas causas de enfermedades crónicas infantiles; días después, verificadores, periodistas y especialistas detectaron referencias científicas que no correspondían con estudios reales, citas mal atribuidas, enlaces rotos y descripciones incorrectas de investigaciones existentes.

La gravedad del caso no estuvo únicamente en los errores, estuvo en el contexto, en el sentido de que un documento con apariencia técnica podía influir en decisiones públicas, alimentar posiciones políticas y circular como respaldo científico ante audiencias que no necesariamente tienen tiempo o herramientas para revisar una bibliografía completa.

Al respecto, especialistas consultados por medios estadounidenses señalaron que algunas fallas eran compatibles con patrones de uso de herramientas de IA, como referencias inventadas o resúmenes que suenan verosímiles, pero no corresponden con estudios verificables.

La Casa Blanca defendió el contenido general y atribuyó parte del problema a errores de formato, pero el escándalo ya sacudió al propio gobierno de Estados Unidos y no se trata de un detalle menor.

Argentina y la red rusa

La situación en Argentina mostró otra dimensión del problema, otro uso de las herramientas, esto tras la identificación de campañas políticas y discusión pública impulsadas presuntamente mediante redes coordinadas y contenido manipulado.

En este caso de Argentina, el caso no empezó con un informe médico, sino con una alerta de inteligencia y una pregunta política: quién intentaba influir en la conversación pública del país desde las sombras.

En junio de 2025, el vocero presidencial Manuel Adorni informó que la Secretaría de Inteligencia de Estado había detectado una presunta red de influencia extranjera llamada “La Compañía”.

Según esa versión oficial, el grupo habría operado en Argentina para promover intereses de Moscú mediante campañas de desinformación y trabajo coordinado con colaboradores locales.

De acuerdo con reportes periodísticos internacionales, la organización habría estado dirigida por los ciudadanos rusos Lev Andriashvili e Irina Yakovenko, residentes en Argentina.

Las autoridades argentinas la vincularon presuntamente con Project Lakhta, una estructura asociada en investigaciones previas a operaciones de influencia rusas y al ecosistema de propaganda ligado al fallecido Yevgeny Prigozhin.

La dimensión del caso se volvió más clara con investigaciones posteriores, OpenDemocracy publicó en abril de 2026 que documentos filtrados apuntaban a operaciones realizadas durante buena parte de 2024 para infiltrar medios argentinos, colocar textos con autores falsos y desacreditar al presidente Javier Milei.

Dicha investigación señaló que agentes vinculados al Kremlin habrían pagado por contenidos publicados en la prensa argentina, y aunque el caso aún está en investigación, ya causó efectos de gran magnitud.

¿Cómo se descubrió? Primero por la investigación de inteligencia argentina, que identificó a personas, vínculos y presuntas actividades de influencia, y después por reportes periodísticos basados en documentos filtrados, que describieron una operación más amplia: autores ficticios, notas aparentemente periodísticas y narrativas políticas insertadas en el ecosistema mediático local.

Y esto revela cómo una campaña puede camuflarse en formatos familiares para cualquier lector: una nota, una opinión, una publicación compartida por varias cuentas, debido a que si no hay verificación editorial, técnica y de origen, la propaganda puede entrar vestida de contenido informativo.

Deepfakes y documentos falsos

Los deepfakes completan el cuadro, en los que audios falsos, videos alterados e imágenes generadas con IA circulan en procesos electorales, conflictos internacionales y debates públicos. La lógica es simple y peligrosa, crear una pieza creíble, lanzarla en el momento adecuado y dejar que la viralidad haga el resto.

Cuando la corrección llega, muchas veces ya es tarde, el usuario que vio el video falso quizá no verá el desmentido, la persona que compartió una imagen manipulada quizá no volverá a explicar que era falsa, y el daño reputacional o político puede permanecer aunque la evidencia técnica demuestre la manipulación.

Por eso la falta de verificación se convirtió en el verdadero hilo conductor, no importa si el contenido viene de una oficina pública, una campaña política, un medio de comunicación, una cuenta anónima o un archivo compartido en grupos privados. Si nadie revisa origen, autoría, fuentes y evidencia, la IA solo acelera una falla que ya existía.

Qué queda después del daño

Los casos MAHA y Argentina evidencian que la verificación ya no puede ser un paso opcional ni posterior, lo que implica que en documentos públicos, campañas políticas, medios de comunicación y plataformas digitales, revisar antes de publicar es una medida de protección social.

Y entender que la inteligencia artificial puede ayudar a ordenar información, detectar patrones y acelerar procesos, pero no sustituye el criterio editorial, científico ni jurídico.

Básicamente, cuando se usa sin controles, la IA convierte errores en documentos, propaganda en conversación pública y sospechas en aparente evidencia.

Tags

Lo Último