Grok, el ‘chatbot’ del magnate Elon Musk, ha permitido a los usuarios crear imágenes sexualizadas de niños y distribuirlas en X, una acción que se salta las salvaguardias de la esa herramienta de inteligencia artificial.
En los últimos días, Grok ha accedido a la petición de algunos usuarios de desnudar a mujeres y niños que aparecen en las imágenes que han compartido con el ‘chatbot’, como ha informado Bloomberg.
Según informan en CNBC, el abuso de Grok empezó en los últimos días del 2025 y escaló hasta que en Nochevieja se extendió por la plataforma X, ampliándose con ello la distribución de las imágenes explícitas, sin conocimiento ni consentimiento de las víctimas.

El abuso de esta IA se agrava con el uso de fotografías de menores. Se trata de un tipo de contenido conocido como material de abuso sexual infantil (CSAM, por sus siglas en inglés), ilegal y prohibido en las propias políticas de uso aceptable de xAI, la empresa responsable de Grok.

En concreto, las políticas establecen que, para cumplir con la ley, no permite el uso de su servicio para “representar imágenes de personas de manera pornográfica” ni “la sexualización o explotación de los niños”.
“Hemos identificado fallos en las salvaguardias y las estamos solucionando urgentemente: el CSAM es ilegal y está prohibido”, ha reconocido Grok en respuesta a un usuario que ha expuesto el problema.

Frente a esto, el magnate no dudo en pronunciarse, quien en su su cuenta de X fue claro con un mensaje: “Cualquiera que utilice Grok para crear contenido ilegal sufrirá las mismas consecuencias que si subiera contenido ilegal”.
We take action against illegal content on X, including Child Sexual Abuse Material (CSAM), by removing it, permanently suspending accounts, and working with local governments and law enforcement as necessary.
— Safety (@Safety) January 4, 2026
Anyone using or prompting Grok to make illegal content will suffer the… https://t.co/93kiIBTCYO
Además, la compañía indicó: “Tomamos medidas contra el contenido ilegal en X, incluido el material de abuso sexual infantil (CSAM), eliminándolo, suspendiendo cuentas de forma permanente y trabajando con los gobiernos locales y las fuerzas del orden según sea necesario”.
*Con información de Europa Press
