La importancia de la verificación de con quién se habla es cada vez mayor y más compleja, pues recientemente las modalidades de estafa han “evolucionado” y cambiado de tal manera que resulta más difícil para las víctimas reconocer estos actos, ya que la inteligencia artificial puede hacer que todo parezca real.

La advertencia, esta vez emitida por el INCIBE, así como por Vectra AI, apunta a una modalidad de clonación de voz, lo que significa que una persona puede recibir una llamada que parezca real, pero no lo sea. En estos casos, se toma la voz de un ser querido de la víctima, se clona y se utiliza en una llamada para solicitar dinero o datos personales.
En los reportes se ha señalado que las llamadas suelen iniciar con frases como “hola, soy tu primo” o “amigo, necesito ayuda”, entre otras, con el fin de generar confianza en la víctima y así facilitar el ataque y lograr el cometido.
¿Cuál es la efectividad del ataque?
De acuerdo con los reportes de expertos, estas estafas buscan desactivar el juicio crítico de las personas mediante la manipulación de momentos emocionales, con la idea de que un ser querido se encuentra en problemas o en una situación de urgencia.

Un elemento adicional para aumentar la confusión es que no solo se utiliza la voz clonada. Para dar mayor “realismo” a la conversación, los delincuentes incluyen sonidos de fondo como alarmas, tráfico, lluvia, entre otros.
En cuestión de segundos logran armar el ataque
La creación de este tipo de ataques, además de requerir un estudio previo de las personas con las que se relaciona la víctima, también se basa en la obtención de audios de la persona a clonar. Estos se consiguen principalmente a través de videos publicados en redes sociales.
Asimismo, utilizan otros métodos, como realizar llamadas simulando encuestas o hacerse pasar por funcionarios de empresas o entidades, como compañías de telecomunicaciones, para obtener la información necesaria para la clonación.

¿Cómo reconocerlo y prevenirlo?
Algunas formas de detección incluyen la presencia de “errores” en la inteligencia artificial, como pausas o breves cortes de voz similares a fallas de señal. También puede percibirse una forma de hablar poco natural.

La recomendación de los expertos es no descartar de inmediato la posibilidad de urgencia, pero sí mantener la calma y analizar quién está hablando. Es importante no dejarse llevar por la emocionalidad. Se aconseja colgar de inmediato y luego llamar al número real de la persona para verificar la información. (Nunca devolver la llamada al número desconocido).
