Los Hackers o ciberdelincuentes han adoptado herramientas de clonación de voz de inteligencia artificial (IA) de reciente creación para llevar a cabo una nueva clase de estafa. Con una pequeña muestra de audio.
Pueden clonar la voz de casi cualquier persona y dejar mensajes falsos en un buzón de voz o enviar audios por servicios de mensajería. Esto les permite hacerse pasar por familiares, amigos o incluso autoridades para solicitar dinero o información personal.
Únete a nuestro canal de WhatsApp
Ola de estafas de voz con inteligencia artificial
Recientemente el equipo de investigación de McAfee Labs (Es una compañía de software especializada en seguridad informática ubicada en California) descubrió la facilidad con la que los ciberdelincuentes pueden llevar a cabo estas estafas.
Los estudios arrojaron que de las 7.000 personas encuestadas, una de cada cuatro. Dijo que había experimentado una estafa de clonación de voz con IA o conocía a alguien que lo había hecho.
Le puede interesar: ¿Cómo saber si su celular tiene virus? Aquí le contamos como detectarlo y eliminarlo
Incluso que con tan solo una breve grabación de la voz de una persona y un guion elaborado por un ciberdelincuente. Estos mensajes de voz clonados suenan convincentes. De hecho, según nuestra encuesta global, el 70% de las personas dijeron que no estaban seguros al intentar distinguir entre una voz clonada y una voz real.
La técnica que utilizan para llevar esto acabo, es usar un tipo de mensajes muy concretos. Mensajes urgentes y llenos de angustia.
A su vez, emplean una herramienta de clonación para hacerse pasar por un amigo o familiar de la víctima con un mensaje de voz sobre un accidente de coche, o, tal vez, dicen que les han robados o están heridos. De cualquier manera, en el mensaje falso siempre dicen que necesitan dinero de inmediato.
Finalmente McAfee Labs menciona que, este tipo de estafa ha demostrado ser bastante efectiva hasta ahora. Una de cada diez personas encuestadas en nuestro estudio dijo que ha recibido un mensaje de un clon de voz con IA, y el 77% de esas víctimas dijeron que perdieron dinero como resultado.
Puedes protegerte tomando medidas:
- Establece una palabra clave verbal con tus hijos, familiares o amigos íntimos de confianza. Asegúrate de que sólo la conozcas tú y tus allegados. (Los bancos y las empresas de alarmas suelen establecer cuentas con una palabra clave del mismo modo para asegurarse de que eres realmente tú cuando hablas con ellos).
- Cuestiona siempre la fuente. Además de las herramientas de clonación de voz, los estafadores disponen de otras herramientas que pueden falsear los números de teléfono para que parezcan legítimos.
- Piensa antes de hacer clic y compartir. ¿Quién está en tus redes sociales? ¿Hasta qué punto les conoces realmente y confías en ellos? Cuanto más amplias sean tus conexiones, mayor será el riesgo al que te expongas al compartir contenido sobre ti.
- Borra tu nombre de los sitios de intermediarios de datos. ¿Cómo ha conseguido ese estafador tu número de teléfono? Lo más probable es que hayan sacado esa información de un sitio de intermediación de datos.
Sigue nuestras redes sociales: