Para nadie es un secreto que la llegada de la inteligencia artificial ha traído múltiples beneficios a la vida de las personas en diferentes ámbitos. Sin embargo, también se ha convertido en una puerta de entrada para los ciberdelincuentes, ya que esta tecnología puede emplearse para suplantar voces e imágenes con el fin de cometer diversos tipos de estafas.

Una de las empresas más reconocidas en este campo es OpenAI, creadora de ChatGPT, uno de los chatbots más populares de la actualidad. Recientemente, la compañía reveló casos de redes que han abusado de sus herramientas de inteligencia artificial, como ChatGPT, para impulsar campañas maliciosas, generar contenido con información sesgada o monitorear conversaciones en redes sociales.

Una red coreana usó ChatGPT para diseñar malware y sistemas de comando y control. | Foto: Getty Images

Desde febrero de 2024, la firma tecnológica ha interrumpido las actividades de 40 redes por violar los términos de uso de sus herramientas de IA. Estas acciones hacen parte de su compromiso por desarrollar una inteligencia artificial que beneficie a todos y contribuya a resolver problemas complejos.

En un nuevo informe publicado este martes, OpenAI detalla varios casos de uso indebido por parte de actores maliciosos ubicados principalmente en Camboya, Corea, Rusia y China, quienes utilizaron sus herramientas para ejecutar ciberataques, estafas y operaciones de influencia encubierta, entre otros fines.

Entre los ejemplos mencionados, una red de origen coreano empleó ChatGPT para desarrollar malware y una estructura de comando y control. Otra red, que operaba desde Camboya, Birmania y Nigeria, intentó usar el chatbot para engañar a personas mediante una campaña fraudulenta.

OpenAI bloquea 40 redes por uso malicioso de su inteligencia artificial. | Foto: 2025 Anadolu

Asimismo, se ha detectado su uso en regímenes autoritarios, como el de China, donde se aprovecharon los modelos de OpenAI para desarrollar herramientas de monitorización masiva en redes sociales y para generar contenido destinado a plataformas como YouTube y TikTok con el propósito de difundir desinformación.

No obstante, OpenAI también destacó que ChatGPT ha sido utilizado de forma positiva: la herramienta se emplea para identificar estafas hasta tres veces más de lo que se usa para cometerlas, lo que refuerza su potencial como aliada en la lucha contra el fraude digital.

*Con información de Europa Press.