Inteligencia artificial
Nuevo riesgo de la IA: denuncian casos de clonación de voz para estafas telefónicas en EE.UU.
Expertos advierten que para los delincuentes bastaría con conocer un pequeño fragmento de un mensaje de voz para clonar los rasgos y generar una voz artificial idéntica.
En medio de la creciente polémica que ha suscitado el rápido avance de la llamada Inteligencia Artificial; IA, y las advertencias hechas por expertos sobre la necesidad de reglamentarla, acusando que la máxima de que ‘las máquinas podrían llegar a matar a los humanos’, se han suscitado nuevas alertas.
Así como meses atrás una supuesta imagen del papa Francisco vestido con ropa moderna, generada por Inteligencia Artificial, logró sembrar la duda sobre si se trataba de una fotografía real, e incluso llegó a permear los medios de comunicación derivando en el lanzamiento de una ‘fake news’, ahora, ciudadanos del común han puesto sobre la mesa la existencia de nuevos escenarios en los que la IA ha comenzado a emplearse para casos de ‘suplantación’, presentándose también para estafas.
Uno de dichos escenarios es el de las estafas telefónicas, pues si bien la suplantación a través de las llamadas ya era una modalidad que despertaba alarmas en algunos países, el uso de la Inteligencia Artificial ha comenzado a ser empleado por los delincuentes para hacer más creíbles sus llamadas para hacerse pasar por otras personas.
Así, gracias a la Inteligencia Artificial y sus ‘virtudes’, los delincuentes han comenzado a lograr ‘fabricar’ artificialmente la voz de una persona, poniéndola a decir lo que a ellos les place. Situación que logran incluso con sencillas muestras de audio, muchas veces sacadas de mensajes de voz o videos que los mismos usuarios dejan libres en sus redes sociales.
Tendencias
Un caso de ello fue recientemente puesto en conocimiento público por una víctima de estaba en Estados Unidos, a través de una denuncia publicada por un magazine matutino de la televisión de ese país: Good Morning América.
Según recoge el referido medio, el caso ocurrió en el Estado de Texas, teniendo cómo víctima a un abuelo que recibió a través de una llamada telefónica la petición de ayuda de uno de sus nietos, quien dijo estar en México de vacaciones con unos amigos, y haber sufrido un accidente.
En medio de la angustia generada para el abuelo, al enterarse del supuesto accidente de su nieto, este accedió a colaborar de forma inmediata, con el envío de una importante suma de dinero; cerca de 1.000 dólares.
Sin embargo, el caso quedó al descubierto cuando el anciano angustiado se comunicó con su hijo, un hombre identificado como Lee Hall, padre del presunto nieto accidentado.
Hall advirtió entonces que su padre había sido víctima de estafa, poniendo de manifiesto el uso de sofisticados métodos de suplantación, al advertir que la voz de su hijo, un joven identificado como Christian, había sido perfectamente clonada.
El hecho se comprobó con una sencilla llamada, en la que el padre confrontó al hijo, y este le confirmó que se encontraba en la Universidad de Dallas, y que no había tenido comunicación con su abuelo, mucho menos para pedirle dinero para solventar los gastos de un accidente en México.
Así, en el programa, el denunciante, el hijo del abuelo estafado, señaló que el caso era muy grave en tanto su padre ni siquiera tenía redes sociales a través de las que hubiesen podido los delincuentes identificar el lazo familiar para realizar la llamada con tal precisión, no solo conociendo los nombres de la familia, sino también logrando la suplantación idéntica de la voz de Christian.
Según medios locales en Estados Unidos, si bien el caso podría haber sido un simple caso de suplantación para estafa, el tema del uso de Inteligencia Artificial también ha sido advertido ya en ese país por otras víctimas, lo que despierta las alarmas en ese país, de forma extensible a autoridades en otras latitudes del orbe.
Sobre el particular, este mismo programa, Good Morning América, refirió el caso de una mujer identificada como Jennifer DeStefano, en el estado de Arizona, quien advirtió que también fue víctima de un intento de suplantación con una voz al parecer generada por Inteligencia Artificial.
En el caso de esta mujer, ella advierte que la voz clonada era la de su hija, la cual emularon llorando y sollozando, a la vez que advertía estar secuestrada por unos ‘hombres malos’, a lo que después un hombre la citaba para hacer efectiva la entrega de una suma de dinero.
No obstante, según DeStefano, ella tenía la forma de comprobar que su hija Briana se encontraba en perfectas condiciones, por lo que pudo evitar caer en angustia, admitiendo que la voz empleada en efecto era la de la niña.
Ante estas denuncias, en Estados Unidos, la Comisión Federal de Comercio admitió que han sido varios los casos conocidos de suplantación con voces al parecer ideadas con IA, refiriendo que dicha posibilidad sí es real, y que para ello, a los delincuentes les bastaba con pequeñas muestras de voz para clonar las ondas y replicar el tono y timbre de voz.
En consecuencia, expertos en seguridad informática citados por el referido magazine han advertido que lo más importante es lograr afrontar esas llamadas con calma, e intentar dar parte a las autoridades, buscando también comprobar por otros medios si lo que se advierte en la llamada es real.
En consecuencia, los expertos ponen de manifiesto que una alerta para la eventual suplantación está dada por el intento de crear alerta, y la solicitud de dinero a través de transferencias bancarias.
Incluso, para ir más allá, y cómo acción preventiva, se ha recomendado mantener las cuentas de redes sociales privadas, con lo que solo puedan acceder a ellas personas de entera confianza; los contactos, evitando así dar llave a su voz, a los estafadores.
Para hacer frente a este tipo de estafas, también es conveniente que las familias ideen una palabra clave que puede ser pedida en caso de duda frente a una denuncia.