Tecnología

La inteligencia artificial de Elon Musk desató crisis por contenido sexual de menores compartido en X

Grok quedó en el centro de la polémica tras permitir la generación de imágenes sexuales con menores en X.

GoogleSiga de cerca las tendencias en tecnología y ciencia en Discover

3 de enero de 2026, 2:49 a. m.
La expansión del abuso digital dejó en evidencia límites insuficientes en la moderación.
La expansión del abuso digital dejó en evidencia límites insuficientes en la moderación. Foto: Getty Images / X

El sistema de inteligencia artificial Grok, desarrollado por xAI y promovido por el magnate Elon Musk, quedó en el centro de una fuerte controversia tras conocerse que permitió la creación y difusión de imágenes sexualizadas de menores en la red social X.

El caso encendió las alarmas por las fallas en las salvaguardias de la herramienta y reabrió el debate sobre los límites y responsabilidades de la IA generativa.

Fallas en los controles de Grok

En los últimos días, Grok accedió a solicitudes de algunos usuarios para desnudar digitalmente a personas que aparecían en imágenes compartidas con el chatbot.

Entre los casos detectados no solo hubo mujeres adultas, sino también niños, lo que agravó la situación. De acuerdo con lo informado por Bloomberg, estas acciones se realizaron pese a que la herramienta cuenta, en teoría, con filtros diseñados para evitar este tipo de usos indebidos.

La combinación de creatividad y automatización ha dado lugar a un fraude que se propaga con rapidez en la red social.
El uso indebido de un chatbot generó alarma por la difusión de imágenes explícitas sin consentimiento. Foto: Getty Images

La posibilidad de manipular imágenes reales y convertirlas en contenido sexualizado evidenció un vacío en los mecanismos de control de la inteligencia artificial, que terminó siendo explotado por usuarios dentro de la propia plataforma X.

La expansión del abuso en la red social X

Según reportes de CNBC, el abuso de Grok comenzó en los últimos días del año y fue escalando rápidamente hasta que, en Nochevieja, el problema se extendió de forma masiva en X. La viralización de este contenido facilitó la distribución de imágenes explícitas sin el conocimiento ni el consentimiento de las víctimas, amplificando el daño y la exposición.

La rapidez con la que este material circuló puso en entredicho no solo a la herramienta de IA, sino también a la capacidad de la red social para frenar la propagación de contenidos ilegales y altamente sensibles.

Avanza iniciativa para restringir el uso de redes sociales a menores de 15 años desde 2026: este es el país que impulsa la ley

Contenido ilegal y prohibido por las propias políticas

El uso de fotografías de menores convierte este caso en una situación especialmente grave. Se trata de material de abuso sexual infantil (CSAM, por sus siglas en inglés), un tipo de contenido ilegal y expresamente prohibido tanto por la ley como por las políticas de uso aceptable de xAI, la empresa responsable de Grok.

El aviso de “espacio insuficiente” es cada vez más común y refleja un celular con bajo rendimiento.
La creación de contenido sexual con menores violó las propias normas de uso de la herramienta. Foto: Getty Images/iStockphoto

En concreto, dichas políticas establecen que, para cumplir con la normativa vigente, no se permite utilizar el servicio para “representar imágenes de personas de manera pornográfica” ni para “la sexualización o explotación de los niños”. Sin embargo, los hechos demostraron que estas restricciones no se aplicaron de forma efectiva en todos los casos.

Reconocimiento de errores y silencio oficial

Ante las denuncias de los usuarios, Grok respondió públicamente a uno de los señalamientos y reconoció los fallos en su sistema. “Hemos identificado fallos en las salvaguardias y las estamos solucionando urgentemente: el CSAM es ilegal y está prohibido”, señaló la herramienta en un mensaje que circuló en la plataforma.

*Con información de Europa Press.


Más de Tecnología



Noticias Destacadas