Tecnología
El lado oscuro de la inteligencia artificial: así es como ciberdelincuentes habrían usado ChatGPT para crear malware y estafas
OpenAI, empresa creadora del chatbot ChatGPT, ha identificado y bloqueado redes que abusan de sus herramientas con fines ilícitos.
Léenos en Google Discover y mantente un paso adelante con SEMANA

Para nadie es un secreto que la llegada de la inteligencia artificial ha traído múltiples beneficios a la vida de las personas en diferentes ámbitos. Sin embargo, también se ha convertido en una puerta de entrada para los ciberdelincuentes, ya que esta tecnología puede emplearse para suplantar voces e imágenes con el fin de cometer diversos tipos de estafas.
Una de las empresas más reconocidas en este campo es OpenAI, creadora de ChatGPT, uno de los chatbots más populares de la actualidad. Recientemente, la compañía reveló casos de redes que han abusado de sus herramientas de inteligencia artificial, como ChatGPT, para impulsar campañas maliciosas, generar contenido con información sesgada o monitorear conversaciones en redes sociales.

Desde febrero de 2024, la firma tecnológica ha interrumpido las actividades de 40 redes por violar los términos de uso de sus herramientas de IA. Estas acciones hacen parte de su compromiso por desarrollar una inteligencia artificial que beneficie a todos y contribuya a resolver problemas complejos.
En un nuevo informe publicado este martes, OpenAI detalla varios casos de uso indebido por parte de actores maliciosos ubicados principalmente en Camboya, Corea, Rusia y China, quienes utilizaron sus herramientas para ejecutar ciberataques, estafas y operaciones de influencia encubierta, entre otros fines.
Entre los ejemplos mencionados, una red de origen coreano empleó ChatGPT para desarrollar malware y una estructura de comando y control. Otra red, que operaba desde Camboya, Birmania y Nigeria, intentó usar el chatbot para engañar a personas mediante una campaña fraudulenta.

Asimismo, se ha detectado su uso en regímenes autoritarios, como el de China, donde se aprovecharon los modelos de OpenAI para desarrollar herramientas de monitorización masiva en redes sociales y para generar contenido destinado a plataformas como YouTube y TikTok con el propósito de difundir desinformación.
No obstante, OpenAI también destacó que ChatGPT ha sido utilizado de forma positiva: la herramienta se emplea para identificar estafas hasta tres veces más de lo que se usa para cometerlas, lo que refuerza su potencial como aliada en la lucha contra el fraude digital.
*Con información de Europa Press.