Tecnología

La pregunta clave que debe hacer para evitar que delincuentes desocupen sus cuentas bancarias durante una llamada

Los piratas informáticos están explotando las capacidades de la inteligencia artificial para suplantar la identidad de los usuarios.

22 de enero de 2025, 7:54 p. m.
Los expertos recomiendan no responder llamadas de números desconocidos.
Los expertos recomiendan no responder llamadas de números desconocidos. | Foto: Getty Images

Las estafas se han convertido en un fenómeno cotidiano, un problema creciente impulsado por la amplia gama de herramientas disponibles para los ciberdelincuentes. Estos actores maliciosos logran engañar a una cantidad creciente de usuarios, muchos de los cuales, en algún momento, han sido víctimas de fraudes.

Aunque este problema no es reciente, la continua evolución de la tecnología ha dado lugar a métodos cada vez más sofisticados, que muchas veces pasan desapercibidos. Esto se debe al uso de aplicaciones de mensajería y plataformas digitales ampliamente populares, las cuales facilitan el engaño.

Para incrementar la efectividad de sus maniobras, los estafadores recurren a técnicas de ingeniería social, manipulando emocionalmente a las personas para que tomen decisiones bajo presión o miedo.

Los ciberdelincuentes usan técnicas de ingeniería social para engañar a los usuarios.
Los ciberdelincuentes usan técnicas de ingeniería social para engañar a los usuarios. | Foto: Getty Images

Con la llegada de la inteligencia artificial (IA), los ciberdelincuentes han encontrado una nueva herramienta para realizar estafas aún más elaboradas, suplantando la identidad de amigos, familiares e incluso colegas. La IA permite la creación de contenido de voz artificial, lo que facilita la suplantación de identidad de manera más convincente. A través de estas herramientas, los criminales pueden imitar la voz de sus víctimas para extorsionarlas o robarles dinero.

Isabel Manjarrez, investigadora de seguridad en Kaspersky, explica: “Estas mismas técnicas de aprendizaje automático pueden emplearse para desarrollar contenidos de voz artificial, y, a medida que la tecnología avanza, los estafadores podrán crear audios aún más realistas y accesibles. Lamentablemente, las personas cuyas muestras de voz o video están disponibles en Internet, como celebridades y figuras públicas, son más propensas a ser víctimas de suplantación”.

La suplantación de voz mediante IA se ha convertido en una nueva amenaza para la seguridad de las personas, y es crucial que los usuarios estén preparados para actuar rápidamente ante intentos de fraude.

Para prevenir ser víctima de esta estafa, es importante estar atento a ciertas señales de alerta.
Para prevenir ser víctima de esta estafa, es importante estar atento a ciertas señales de alerta. | Foto: Getty Images

Recientemente, ha circulado un video en redes sociales en el que se muestra como frases o palabras claves personales pueden ayudar a detectar llamadas fraudulentas.

Por ejemplo, si un estafador intenta hacerse pasar por un familiar imitando su voz y utilizando una excusa trágica, una pregunta personal clave, como “¿cuándo es el cumpleaños de mi mamá?”, puede ser suficiente para desbaratar el engaño.

La falta de respuesta o un error en la información revelaría la falsedad de la llamada, lo que permitiría a la persona cortar la comunicación y bloquear el número para evitar futuros intentos de fraude.

@priceitcol

¡Cuidado con esta estafa 🚨! Usan inteligencia artificial para hacerse pasar por tus amigos o familiares. Te explico cómo funciona y cómo protegerte. ¿Qué opinan ustedes? No olvides seguirnos: nosotros hablamos de precios y ahorro todos los días, para que no pagues de más por tus productos #ahorro #precios #estafa #ai #voz #dinero #cuidado

♬ Minimal for news / news suspense(1169746) - Hiraoka Kotaro

Manjarrez subraya la importancia de proteger los datos personales en línea, ya que su exposición —como imágenes faciales o grabaciones de voz— representa un riesgo significativo.

“La divulgación de datos sensibles en Internet plantea un reto considerable para evitar su uso indebido en la creación de contenidos falsos o en la suplantación de identidad. Esto puede ocasionar daños materiales, económicos y psicológicos, así como un impacto negativo en la reputación de las víctimas. Por eso, es esencial establecer pautas y estándares claros para la creación y uso de deepfakes”, concluye la experta.