Tecnología

Estafadores usan IA para clonar voces de familiares y extorsionarte en llamadas falsas

En 2022, circuló en todo el mundo un video en donde falsificaron la imagen y voz del presidente de Ucrania, Volodimir Zelenski poco tiempo de iniciada la guerra

cómo-evitar-las-llamadas-de-los-bancos
Estafadores usan IA para clonar voces de familiares y extorsionarte en llamadas falsas

La Inteligencia Artificial es una poderosa arma de doble filo que, en manos equivocadas, podría ser utilizada para estafar a personas y clonar identidades, como es el caso de las llamadas falsas con voces familiares.

Estas llamadas utilizan lo que se conoce como IA generativa, es decir, sistemas capaces de crear texto, imágenes o cualquier otro soporte, como vídeo, a partir de las instrucciones de un usuario, escribió el portal BBC Mundo.

Échale un ojo: Delincuentes se modernizan y utilizan la Inteligencia Artificial para el robo de identidad

En 2022, circuló en todo el mundo un video en donde falsificaron la imagen y voz del presidente de Ucrania, Volodimir Zelenski, donde mencionaba que se rendía ante el embate ruso y ordenaba a sus soldados dejar las armas. El presidente no tardó mucho en aclarar que ese primer video era falso, igual que la mencionada declaración de desarme.

Este tipo de estafas no son tan nuevas. En México es muy común que marquen a tu celular desde un número falso para intentar estafarte. El método más común es hacerse pasar por un familiar que está en el extranjero y pedir dinero prestado.

Otra de las estadas más comunes es escuchar la palabra “mamá o papá” sollozando, lo que pone en alerta a quien escucha. Una persona se hace pasar por el hijo secuestrado y quienes hablan después piden una recompensa monetaria para “liberar” a su hijo.

Inteligencia Artificial puede clonar la voz

Basta con dejar registros de tu voz para que ésta pueda ser utilizada al gusto de quien escriba las instrucciones. Lamentablemente muchos de nosotros estamos arrojando datos sensibles sin saber concretamente en dónde y quién los almacena.

Muchas herramientas de IA tienen la capacidad de generar imágenes, audios y hasta videos con solo escribir instrucciones básicas en la zona de “tareas”. Internet se encargar de rastrear los registros de la voz deseada y copiarla tan fielmente que es casi imposible para el oido humano notar la diferencia con una real.

¿Cómo evitar caer en estas estafas?

Potencialmente, todas aquellas personas que usen constantemente las redes sociales, son propensas a ser estafadas. Las llamadas, fotos y videos que se suben a internet quedan registradas y basta con darle la puntual instrucción a una herramienta para conseguir el objetivo.

Algunas de las recomendaciones son:

  • Evita dar información a quien no conozcas. Si te trata de una llamada telefónica, podrías orillar a la otra persona que te revele datos que tú conoces, pedirle que diga una palabra que le cuesta trabajo pronunciar o mandar un mensaje una vez finalizada la llamada.
  • Si tienes la oportunidad de pedirle que te mande una foto de donde se encuentra actualmente, hazlo. Podrán copiar la voz de otra personas pero no su ubicación en tiempo real, pues puede que esté a unas calles de encontrarse mientras te dan instrucciones contrarias.
  • Nunca proporciones información. Solo busca respuestas, no des datos que los estafadores puedan usar luego en tu contra.

Recomendados:

DV Player placeholder

Tags


Lo Último