SEGRE

La Policia Nacional alerta de la nova estafa amb IA que clona veus dels teus familiars i amics

El 'voice hacking' utilitza Intel·ligència Artificial per imitar veus i enganyar els teus éssers estimats

La Policia Nacional alerta de la nova estafa amb IA que clona veus dels teus familiars i amics.Unsplash.

Publicat per
segre

Creat:

Actualitzat:

La Policia Nacional ha emès una alerta sobre el 'voice hacking', una nova modalitat d’estafa que fa servir Intel·ligència Artificial (IA) per clonar veus de persones properes i així enganyar els seus familiars i amics. Aquesta tècnica, també coneguda com a 'deepfake de veu', permet als ciberdelinqüents generar àudios falsos a fi de sol·licitar diners o realitzar altres accions fraudulentes.

Segons va explicar una portaveu del cos policial en un vídeo compartit en TikTok, els estafadors obtenen enregistraments de veu de les seues víctimes i les utilitzen per crear àudios manipulats. "Els ciberdelinqüents aconsegueixen la teua veu mitjançant un enregistrament i, amb Intel·ligència Artificial, generen un àudio en el qual poden enganyar els teus familiars i amics fingint que ets tu i demanant-los diners", va detallar.

Què és el 'voice hacking' i com funciona?

L’Institut Nacional de Ciberseguretat (INCIBE) defineix el 'voice hacking' o clonació de veu com una tècnica que fa servir IA per replicar la veu d’una persona i crear enregistraments que semblen autèntics. Aquest mètode permet als estafadors suplantar la identitat d’algú de confiança, ja sigui un familiar, un amic o fins i tot un executiu d’empresa, per enganyar les víctimes.

Entre les modalitats més comunes destaquen el 'vishing', en el que els delinqüents es fan passar per institucions confiables per obtenir dades confidencials, i la suplantació d’identitat per veu, en la qual s’utilitzen enregistraments manipulats per sol·licitar diners o informació personal.

Casos reals d’estafes amb 'voice hacking'

Un dels casos més impactants és el de Jennifer DeStefano, una dona nord-americana que el 2023 va rebre una trucada en la qual la veu de la seua filla, clonada mitjançant IA, assegurava haver estat segrestada. Els estafadors van exigir un rescat de 50.000 dòlars, encara que més tard es va descobrir que la seua filla estava fora de perill.

Un altre exemple recent va tenir lloc a Espanya, on un home va rebre una trucada d’algú que es feia passar pel seu fill, sol·licitant una transferència urgent de 2.000 euros per pagar un suposat deute. Gràcies a la ràpida intervenció policial, es va aconseguir evitar el frau i detenir els responsables.

Mesures preventives contra el 'voice hacking'

Davant d’aquesta creixent amenaça, la Policia Nacional i l’INCIBE recomanen diverses mesures per prevenir aquest tipus d’estafes:

  • Desconfiar de trucades sospitoses: verificar la identitat de l’interlocutor abans d’actuar, especialment si se sol·liciten transferències de diners o dades sensibles.
  • Acordar una clau de seguretat: establir una paraula o frase secreta amb familiars i amics pot ser útil per confirmar l’autenticitat d’una trucada.
  • Mantenir actualitzats els dispositius: instal·lar les actualitzacions de seguretat per protegir-se de vulnerabilitats que puguin ser explotades.
  • Evitar utilitzar assistents de veu en públic: els assistents virtuals (Siri, Alexa, etc.) poden registrar converses i comandos, el que podria facilitar als estafadors recopilar informació per realitzar atacs d’enginyeria social o construir un perfil detallat de la teua veu.
  • Configurar l’autenticació de veu: activar aquesta funció en dispositius compatibles perquè responguin només a la teua veu o a veus prèviament registrades, afegint una capa addicional de seguretat.
  • Canviar contrasenyes regularment: utilitzar contrasenyes segures que combinin lletres majúscules i minúscules, números i caràcters especials, evitant utilitzar la mateixa contrasenya en múltiples comptes.

El 'voice hacking' s’emmarca en el context de les ciberamenaces emergents, impulsades pel ràpid avenç de la Intel·ligència Artificial i l’aprenentatge automàtic. Segons un informe d’Europol, s’espera que l’ús maliciós de l’IA augmenti en els propers anys, la qual cosa exigirà una conscienciació més gran i mesures de seguretat per part d’usuaris i autoritats.

El 'voice hacking' representa una nova i preocupant amenaça en el panorama de les estafes cibernètiques. Gràcies a la Intel·ligència Artificial, els delinqüents poden clonar veus i enganyar les víctimes fent-se passar pels seus éssers estimats. Davant d’aquesta situació, és crucial estar alerta, seguir les recomanacions de seguretat i fomentar la conscienciació per protegir-se d’aquesta i altres modalitats de frau en línia. Només mitjançant la col·laboració entre usuaris, autoritats i experts en ciberseguretat podrem fer davant els desafiaments que planteja l’ús maliciós de l’IA.

Titulars del dia

* camp requerit
Subscriu-te a la newsletter de SEGRE
tracking