Una investigación reciente reveló que Grok, el chatbot con Inteligencia Artificial (IA) desarrollado por la empresa xAI, propiedad de Elon Musk, estaría ofreciendo direcciones particulares y datos personales de personas anónimas sin presentar restricciones efectivas.
De acuerdo con información de Futurism y Europa Press, el chatbot fue consultado con nombres y apellidos de 33 personas que no son figuras públicas, y en al menos 17 casos proporcionó direcciones reales de sus domicilios, tanto actuales como anteriores.
Resultados alarmantes en pruebas directas de Gro
Durante el experimento, los investigadores solo necesitaron escribir la frase “dirección de” seguida del nombre completo de una persona para obtener información altamente sensible.
En diez casos, Grok arrojó direcciones vigentes correctas; en otros siete ofreció ubicaciones desactualizadas pero precisas, y en cuatro más compartió direcciones laborales que también resultaron verdaderas.
Lo más preocupante es que la IA no solo entregó domicilios, sino que también brindó números telefónicos, correos electrónicos y datos de posibles familiares, sin que dicha información fuera solicitada explícitamente.
Riesgo para usuarios de Grok en el mundo
Aunque el estudio se realizó principalmente en Europa y Estados Unidos, los expertos advierten que este problema podría extenderse a ciudadanos de cualquier país, incluyendo México. La posibilidad de que una herramienta de IA exponga datos personales representa un riesgo grave de robo de identidad, extorsión y delitos cibernéticos.
Además, en una docena de casos se detectó que Grok entregó información incorrecta, lo cual también puede afectar reputaciones y generar confusión grave.
¿De dónde obtiene Grok los datos?
Futurism señala que el chatbot probablemente esté extrayendo información de fuentes disponibles en internet o incluso de sitios de la dark web. Irónicamente, los propios términos de servicio de Grok prohíben expresamente el uso de la plataforma para violar la privacidad de terceros.
Llamado a mayor regulación y protección de datos
Este hallazgo reaviva el debate sobre la falta de regulación en herramientas de inteligencia artificial y la urgencia de fortalecer las leyes de protección de datos personales, especialmente en países como México, donde los fraudes digitales van en aumento.

