Clonan voces con IA para extorsionar

2025-10-13 15:58:33   809 Visitas


México.- Delincuentes pueden clonar la voz de familiares con inteligencia artificial (IA) para engañar y realizar estafas por teléfono, advirtieron expertos en tecnología de Kaspersky y ESET. Y alertaron que con apenas unos segundos de audio, logran recrear voces reales y simular llamadas falsas de emergencia para cometer extorsiones y fraudes.

Publicidad



“Los cibercriminales toman pequeños fragmentos de una grabación real y mediante el uso de la Inteligencia Artificial y los patrones de voz, crean conversaciones y frases para llevar a cabo sus engaños”, explicó ESET.


ESET también destacó que el uso de las llamadas falsas, también conocidos como deepfakes de audio va en aumento, así como delitos como los secuestros virtuales, donde los criminales simulan el rapto de un familiar a través de llamadas intimidatorias para exigir un pago de rescate, sin que haya un secuestro físico real. Por ello, recomendaron utilizar una palabra clave familiar que evite caer en engaños durante una llamada.


Publicidad



Usar palabra clave para evitar ser víctima de llamadas falsas a partir de voces con IA

Según el blog oficial de ESET, los criminales ocupan esta técnica especialmente mediante llamadas que simulan situaciones de emergencia o secuestros. Y destacaron que uno de los métodos más efectivos para prevenir este tipo de extorsión es acordar previamente una palabra clave familiar que pueda ser utilizada en situaciones reales y sirva para confirmar si la persona que llama es quien dice ser.

Sobre la frase segura, la compañía de seguridad destacó que debe ser:

Simple Fácil de recordar

Diferente de otras contraseñas

“Sólo asegúrate de cambiarlo de vez en cuando, e inmediatamente si crees que ya no es privado”, agregó.

Otras recomendaciones para evitar llamadas falsas son:

No compartir audios personales en redes sociales

Usar la verificación en dos pasos

Sospechar de llamadas con voces extrañas o mensajes alarmistas


Edición: Nallely Durán