miércoles, julio 3, 2024
InicioInternacional¡Estafa! Usan IA para imitar voces de familiares

¡Estafa! Usan IA para imitar voces de familiares

Cómo funciona la estafa con IA

¿Qué harías si recibes una llamada de tu nieto pidiéndote dinero urgente porque está en la cárcel? ¿O si te llama tu jefe para que le transfieras una gran suma a una cuenta desconocida? Antes de hacer nada, piénsalo dos veces: puede que se trate de una estafa telefónica usando la inteligencia artificial (IA) para clonar la voz de tus conocidos.

Cómo funciona la estafa con IA

La IA generativa es una rama de la inteligencia artificial que permite crear contenidos digitales a partir de datos reales, como imágenes, textos o sonidos.

En el caso de las voces, existen programas de generación de voz con tecnología de IA que pueden analizar la forma de hablar de una persona y reproducirla con gran realismo.

Estos programas solo necesitan una muestra de audio de unos segundos para imitar el tono, el acento y la edad de la persona en cuestión.

Los estafadores aprovechan esta tecnología para hacerse pasar por amigos o familiares de sus víctimas y pedirles dinero, contraseñas o claves bancarias.

Los audios se pueden obtener de cualquier fuente donde la persona hable, como redes sociales, YouTube o podcasts.

Los timadores suelen inventar situaciones de emergencia o presión para convencer a sus víctimas de que actúen rápido y sin verificar la identidad del supuesto conocido.

Ejemplos reales

Estas estafas no son solo teoría: ya se han dado casos reales en los que los timadores han logrado engañar a personas usando voces clonadas con IA.

Algunos ejemplos son:

  • Ruth Card y Greg Grace, un matrimonio estadounidense que recibió una llamada falsa de su nieto pidiéndoles dinero para salir de la cárcel. La voz sonaba tan real que les hizo sacar 3.000 dólares canadienses del banco antes de que un empleado les alertara del fraude.
  • Una compañía energética que recibió una llamada falsa de su CEO pidiéndole una transferencia de 220.000 euros. La voz era idéntica a la del verdadero jefe y el timador incluso imitó su acento alemán.
  • Varios timadores que clonaron la voz del director de otra compañía para intentar hacerse con 35 millones de dólares. El timador usó una herramienta llamada ElevenLabs, que se puede adquirir por unos 330 dólares mensuales.

Cómo protegerse

Ante este tipo de estafas, lo mejor es estar alerta y seguir algunas recomendaciones:

  • Desconfiar de las llamadas que provengan de números desconocidos o extraños, aunque parezcan ser de un conocido.
  • Verificar la identidad del supuesto conocido por otro medio, como un mensaje, una videollamada o una llamada desde otro número.
  • No dar datos personales, contraseñas o claves bancarias por teléfono sin estar seguro de con quién se habla.
  • No hacer transferencias ni pagos sin comprobar la veracidad y el destino del dinero.
  • Denunciar cualquier intento o caso de estafa a las autoridades competentes.

La inteligencia artificial es una herramienta poderosa que puede tener usos positivos, pero también negativos.

Por eso, es importante estar informado y ser prudente ante posibles fraudes que intenten aprovecharse de nuestra confianza y buena fe.

Te puede interesar Guerra entre Rusia y Ucrania lo ultimo hoy

FuenteProceso