En los últimos días, la influencer mexicana Alana Flores ha estado en el centro de una grave polémica digital. Una fotografía íntima explícita y un video sexualizado comenzaron a circular en redes sociales, generando todo tipo de comentarios. Sin embargo, las primeras investigaciones apuntan a que se trata de contenido completamente falso, fabricado con inteligencia artificial (IA).
Alana Flores es una joven creadora de contenido originaria de Nuevo León. Se ha ganado una audiencia fiel como streamer, influencer y atleta amateur, especialmente por su estilo auténtico y su interés en disciplinas como el boxeo y el futbol. En sus redes sociales suele compartir reflexiones personales, rutinas deportivas y contenido humorístico. Su popularidad ha crecido de forma orgánica gracias a su carisma, pero también la ha convertido en blanco de ataques y acoso en línea.
“Esa imagen no es real. Nunca me la tomaron y nunca pasó”
Con voz quebrada y leyendo un texto escrito por ella misma, Alana rompió el silencio sobre la situación. En su video, dejó claro que la fotografía íntima que circula no es suya. “Nunca me la tomaron y nunca pasó”, dijo con firmeza. También rechazó cualquier vínculo con plataformas de contenido sexual:
El impacto en su salud ha sido tal, que confesó haber acudido al hospital: “Esto es algo que me ha comenzado a repercutir en la salud hasta de manera física”. Y en lo emocional, se dijo atrapada en un “círculo de odio que no llega a un fin nunca”.
El video también es falso: una simulación de voz y gestos
Además de la imagen, circula un video en el que supuestamente Alana habla sobre su cuerpo, insinuando cambios por el uso de creatina. Sin embargo, al analizar el material se detectan errores claros de sincronización labial, repeticiones textuales y un tono artificial, lo que sugiere que se trata de un deepfake con clonación de voz.
Aunque el clip intenta imitar su manera de hablar, la grabación está llena de inconsistencias. Los labios no coinciden con el audio y el lenguaje corporal no es natural. Esto refuerza la hipótesis de que fue fabricado con herramientas de IA diseñadas para simular rostros y voces con precisión inquietante.
Análisis forense: IA generó la foto explícita
Una imagen que acompañó esta campaña de desprestigio fue analizada por la herramienta especializada AI or Not, la cual detecta si un archivo visual fue creado por inteligencia artificial. El veredicto fue contundente: “Likely AI generated” (probablemente generado por IA) y “NSFW: YES” (contenido sexual explícito). Es decir, todo apunta a que la imagen fue construida artificialmente, probablemente usando software como Stable Diffusion, que puede entrenarse sin filtros para crear este tipo de contenido.
Esto no solo confirmaría la versión de Alana, sino que dejaría en evidencia una forma moderna de acoso: fabricar pornografía falsa para dañar la reputación de una mujer pública.
La industria del deepfake: una amenaza sin freno
El uso de inteligencia artificial para crear contenido sexual falso se ha convertido en una forma de violencia digital. Existen modelos y plataformas que permiten generar este tipo de imágenes sin restricciones, mezclando cuerpos genéricos con rostros reales tomados de fotos públicas. A diferencia del tradicional “Photoshop malicioso”, los deepfakes modernos pueden engañar fácilmente a quien no está familiarizado con estos métodos.
“No tengo que defenderme de mentiras, pero tampoco las voy a dejar pasar”
Pese a la presión, Alana fue clara: va a pelear. En todos los sentidos. Como boxeadora, tiene dos combates por venir. Como figura pública, ya prepara una denuncia legal contra quienes resulten responsables. Y como mujer, no está dispuesta a normalizar la violencia digital.
En sus propias palabras: “Que lo repitan mil veces no lo va a volver verdad. No tengo que defenderme de mentiras, pero tampoco las voy a dejar pasar”.