Durante los últimos años, la Inteligencia Artificial ha tenido avances notables en el ámbito del procesamiento de voz. Con este tipo de tecnología se pueden clonar voces, lo que es útil para la creación de contenidos audiovisuales y hasta música.
La contraparte es que también ha abierto la puerta a las estafas telefónicas, un tipo de delito digital que busca manipular emocionalmente a las víctimas para obtener su dinero, información personal o acceso a sus cuentas bancarias.
Y aunque parezcan difíciles de detectar, por la precisión con la que se clonan las voces, hay diversas señales que pueden evitar que caigas en las garras de los ciberdelincuentes. Sigue leyendo para saber cuáles son.
¿Cómo son las estafas telefónicas con voces clonadas por la IA?
Anteriormente, las estafas telefónicas solían depender de llamadas automatizadas o de personas que fingían ser empleados de bancos o servicios públicos.
No obstante, con la llegada de la Inteligencia Artificial, los ciberdelincuentes recurren a sistemas de clonación de voz para imitar el tono, la entonación y el ritmo del habla de una persona real, explica la Secretaría de Seguridad y Protección Ciudadana (SSPC).
Sin embargo, esta dependencia señala que hay patrones en el actuar de los estafadores que pueden ayudar a reconocerlos y, por lo tanto, a evitar ser víctima de delitos como el robo de identidad o el phishing.
"El uso de frases concretas, los tonos propios de una emergencia para generar angustia y perturbar a la víctima, y argumentan eventos como robos, accidentes o secuestros" son las principales estrategias a las que recurren, indica la SSPC en un comunicado.
¿Cómo identificar una estafa telefónica con IA?
Aunque las voces clonadas con IA son convincentes, hay detalles que las delatan.
Uno de los más evidentes es la falta de naturalidad en las pausas o en la respiración. Las voces generadas por IA tienden a sonar demasiado fluidas o, por el contrario, con pausas artificiales.
Además, a menudo presentan una entonación uniforme, sin las variaciones emocionales propias de una conversación real.
El siguiente signo de alerta es la ausencia de ruido ambiental. Las llamadas reales suelen incluir sonidos de fondo, como el tráfico, el viento o el murmullo de otras personas. En cambio, las voces clonadas suelen oírse "demasiado limpias".
Por último, si la llamada busca generar una reacción emocional inmediata, como miedo o urgencia, es muy probable que se trate de un intento de estafa. En tales casos, conviene cortar la llamada y verificar la información por otros medios.
¿Cómo protegerte de las estas telefónicas con IA?
La prevención es la mejor defensa frente a la clonación de voz.
En primer lugar, se recomienda limitar la exposición de la propia voz en redes sociales y plataformas públicas, ya que bastan unos pocos segundos de audio para crear un clon convincente.
De igual manera, es importante establecer palabras clave o códigos de verificación entre familiares o colegas, que puedan usarse en caso de emergencia para confirmar la identidad del interlocutor.
Asimismo, se debe evitar compartir información personal o financiera por teléfono, incluso si la voz parece familiar. Los bancos y empresas legítimas nunca solicitan datos confidenciales de esa manera.
Finalmente, conviene denunciar cualquier intento sospechoso ante las autoridades o plataformas de ciberseguridad.
Aunque la IA ofrece beneficios indiscutibles, también plantea nuevos riesgos. Por eso, prender a reconocer y enfrentar las voces clonadas es esencial para protegernos de las estafas telefónicas del futuro.