La Policia Nacional alerta de la nueva estafa con IA que clona voces de tus familiares y amigos
El 'voice hacking' utiliza Inteligencia Artificial para imitar voces y engañar a tus seres queridos
La Policía Nacional ha emitido una alerta sobre el 'voice hacking', una nueva modalidad de estafa que emplea Inteligencia Artificial (IA) para clonar voces de personas cercanas y así engañar a sus familiares y amigos. Esta técnica, también conocida como 'deepfake de voz', permite a los ciberdelincuentes generar audios falsos con el fin de solicitar dinero o realizar otras acciones fraudulentas.
Según explicó una portavoz del cuerpo policial en un vídeo compartido en TikTok, los estafadores obtienen grabaciones de voz de sus víctimas y las utilizan para crear audios manipulados. "Los ciberdelincuentes consiguen tu voz mediante una grabación y, con Inteligencia Artificial, generan un audio en el que pueden engañar a tus familiares y amigos fingiendo que eres tú y pidiéndoles dinero", detalló.
¿Qué es el 'voice hacking' y cómo funciona?
El Instituto Nacional de Ciberseguridad (INCIBE) define el 'voice hacking' o clonación de voz como una técnica que emplea IA para replicar la voz de una persona y crear grabaciones que parecen auténticas. Este método permite a los estafadores suplantar la identidad de alguien de confianza, ya sea un familiar, un amigo o incluso un ejecutivo de empresa, para engañar a las víctimas.
Entre las modalidades más comunes destacan el 'vishing', en el que los delincuentes se hacen pasar por instituciones confiables para obtener datos confidenciales, y la suplantación de identidad por voz, en la que se utilizan grabaciones manipuladas para solicitar dinero o información personal.
Casos reales de estafas con 'voice hacking'
Uno de los casos más impactantes es el de Jennifer DeStefano, una mujer estadounidense que en 2023 recibió una llamada en la que la voz de su hija, clonada mediante IA, aseguraba haber sido secuestrada. Los estafadores exigieron un rescate de 50.000 dólares, aunque más tarde se descubrió que su hija estaba a salvo.
Otro ejemplo reciente tuvo lugar en España, donde un hombre recibió una llamada de alguien que se hacía pasar por su hijo, solicitando una transferencia urgente de 2.000 euros para pagar una supuesta deuda. Gracias a la rápida intervención policial, se logró evitar el fraude y detener a los responsables.
Medidas preventivas contra el 'voice hacking'
Ante esta creciente amenaza, la Policía Nacional y el INCIBE recomiendan varias medidas para prevenir este tipo de estafas:
- Desconfiar de llamadas sospechosas: verificar la identidad del interlocutor antes de actuar, especialmente si se solicitan transferencias de dinero o datos sensibles.
- Acordar una clave de seguridad: establecer una palabra o frase secreta con familiares y amigos puede ser útil para confirmar la autenticidad de una llamada.
- Mantener actualizados los dispositivos: instalar las actualizaciones de seguridad para protegerse de vulnerabilidades que puedan ser explotadas.
- Evitar usar asistentes de voz en público: los asistentes virtuales (Siri, Alexa, etc.) pueden registrar conversaciones y comandos, lo que podría facilitar a los estafadores recopilar información para realizar ataques de ingeniería social o construir un perfil detallado de tu voz.
- Configurar la autenticación de voz: activar esta función en dispositivos compatibles para que respondan solo a tu voz o a voces previamente registradas, añadiendo una capa adicional de seguridad.
- Cambiar contraseñas regularmente: utilizar contraseñas seguras que combinen letras mayúsculas y minúsculas, números y caracteres especiales, evitando usar la misma contraseña en múltiples cuentas.
El 'voice hacking' se enmarca en el contexto de las ciberamenazas emergentes, impulsadas por el rápido avance de la Inteligencia Artificial y el aprendizaje automático. Según un informe de Europol, se espera que el uso malicioso de la IA aumente en los próximos años, lo que exigirá una mayor concienciación y medidas de seguridad por parte de usuarios y autoridades.
El 'voice hacking' representa una nueva y preocupante amenaza en el panorama de las estafas cibernéticas. Gracias a la Inteligencia Artificial, los delincuentes pueden clonar voces y engañar a las víctimas haciéndose pasar por sus seres queridos. Ante esta situación, es crucial estar alerta, seguir las recomendaciones de seguridad y fomentar la concienciación para protegerse de esta y otras modalidades de fraude en línea. Solo mediante la colaboración entre usuarios, autoridades y expertos en ciberseguridad podremos hacer frente a los desafíos que plantea el uso malicioso de la IA.