Tecnología

Fallos en Grok, la IA de Elon Musk, facilitaron la generación de contenido prohibido: la compañía adoptó medidas inmediatas

El propio chatbot admitió la existencia de errores en las salvaguardias y aseguró que están siendo corregidos de forma urgente, reiterando que el CSAM es ilegal.

GoogleSiga de cerca las tendencias en tecnología y ciencia en Discover

4 de enero de 2026, 9:49 p. m.
Las normas de uso de Grok prohíben expresamente la creación de imágenes en cualquier forma de sexualización.
Las normas de uso de Grok prohíben expresamente la creación de imágenes en cualquier forma de sexualización. Foto: Getty Images

Grok, el ‘chatbot’ del magnate Elon Musk, ha permitido a los usuarios crear imágenes sexualizadas de niños y distribuirlas en X, una acción que se salta las salvaguardias de la esa herramienta de inteligencia artificial.

En los últimos días, Grok ha accedido a la petición de algunos usuarios de desnudar a mujeres y niños que aparecen en las imágenes que han compartido con el ‘chatbot’, como ha informado Bloomberg.

Según informan en CNBC, el abuso de Grok empezó en los últimos días del 2025 y escaló hasta que en Nochevieja se extendió por la plataforma X, ampliándose con ello la distribución de las imágenes explícitas, sin conocimiento ni consentimiento de las víctimas.

x
Algunos usuarios lograron que el chatbot “desnudara” digitalmente a mujeres y niños a partir de imágenes compartidas. Foto: NurPhoto via Getty Images

El abuso de esta IA se agrava con el uso de fotografías de menores. Se trata de un tipo de contenido conocido como material de abuso sexual infantil (CSAM, por sus siglas en inglés), ilegal y prohibido en las propias políticas de uso aceptable de xAI, la empresa responsable de Grok.

La exposición temprana a pantallas en niños podría tener graves consecuencias para la salud, según reveló un nuevo estudio

En concreto, las políticas establecen que, para cumplir con la ley, no permite el uso de su servicio para “representar imágenes de personas de manera pornográfica” ni “la sexualización o explotación de los niños”.

“Hemos identificado fallos en las salvaguardias y las estamos solucionando urgentemente: el CSAM es ilegal y está prohibido”, ha reconocido Grok en respuesta a un usuario que ha expuesto el problema.

La huella ambiental de Grok 4 desató debate sobre el verdadero costo de la inteligencia artificial.
Grok 4 se entrenó con cifras que alarman tanto por lo económico como por lo ecológico. Foto: Composición de SEMANA: con imágenes del portal Getty

Frente a esto, el magnate no dudo en pronunciarse, quien en su su cuenta de X fue claro con un mensaje: “Cualquiera que utilice Grok para crear contenido ilegal sufrirá las mismas consecuencias que si subiera contenido ilegal”.

Además, la compañía indicó: “Tomamos medidas contra el contenido ilegal en X, incluido el material de abuso sexual infantil (CSAM), eliminándolo, suspendiendo cuentas de forma permanente y trabajando con los gobiernos locales y las fuerzas del orden según sea necesario”.

*Con información de Europa Press