El sistema de inteligencia artificial Grok, desarrollado por xAI y promovido por el magnate Elon Musk, quedó en el centro de una fuerte controversia tras conocerse que permitió la creación y difusión de imágenes sexualizadas de menores en la red social X.
El caso encendió las alarmas por las fallas en las salvaguardias de la herramienta y reabrió el debate sobre los límites y responsabilidades de la IA generativa.
Fallas en los controles de Grok
En los últimos días, Grok accedió a solicitudes de algunos usuarios para desnudar digitalmente a personas que aparecían en imágenes compartidas con el chatbot.
Entre los casos detectados no solo hubo mujeres adultas, sino también niños, lo que agravó la situación. De acuerdo con lo informado por Bloomberg, estas acciones se realizaron pese a que la herramienta cuenta, en teoría, con filtros diseñados para evitar este tipo de usos indebidos.

La posibilidad de manipular imágenes reales y convertirlas en contenido sexualizado evidenció un vacío en los mecanismos de control de la inteligencia artificial, que terminó siendo explotado por usuarios dentro de la propia plataforma X.
La expansión del abuso en la red social X
Según reportes de CNBC, el abuso de Grok comenzó en los últimos días del año y fue escalando rápidamente hasta que, en Nochevieja, el problema se extendió de forma masiva en X. La viralización de este contenido facilitó la distribución de imágenes explícitas sin el conocimiento ni el consentimiento de las víctimas, amplificando el daño y la exposición.
La rapidez con la que este material circuló puso en entredicho no solo a la herramienta de IA, sino también a la capacidad de la red social para frenar la propagación de contenidos ilegales y altamente sensibles.

Contenido ilegal y prohibido por las propias políticas
El uso de fotografías de menores convierte este caso en una situación especialmente grave. Se trata de material de abuso sexual infantil (CSAM, por sus siglas en inglés), un tipo de contenido ilegal y expresamente prohibido tanto por la ley como por las políticas de uso aceptable de xAI, la empresa responsable de Grok.

En concreto, dichas políticas establecen que, para cumplir con la normativa vigente, no se permite utilizar el servicio para “representar imágenes de personas de manera pornográfica” ni para “la sexualización o explotación de los niños”. Sin embargo, los hechos demostraron que estas restricciones no se aplicaron de forma efectiva en todos los casos.
Reconocimiento de errores y silencio oficial
Ante las denuncias de los usuarios, Grok respondió públicamente a uno de los señalamientos y reconoció los fallos en su sistema. “Hemos identificado fallos en las salvaguardias y las estamos solucionando urgentemente: el CSAM es ilegal y está prohibido”, señaló la herramienta en un mensaje que circuló en la plataforma.
*Con información de Europa Press.










