Una controversia por el uso de inteligencia artificial encendió las alarmas dentro de Apple. La compañía tomó una decisión inédita frente a Grok, el asistente desarrollado por xAI de Elon Musk, tras detectar un uso masivo de su herramienta para generar imágenes inapropiadas en X.
De acuerdo con el Centro para la Lucha contra el Odio Digital, en apenas unos días de enero circularon millones de imágenes alteradas, muchas de ellas relacionadas con mujeres y menores. Este fenómeno se originó en una función que permitía editar fotos con un solo clic, lo que facilitó su rápida difusión dentro de la plataforma.
Presión internacional y advertencias
El alcance del problema provocó reacciones de organizaciones civiles y entidades públicas, que exigieron medidas a gigantes tecnológicos como Apple y Google. En ese contexto, Apple decidió intervenir y advirtió a xAI que la aplicación de Grok podría ser retirada de la App Store si no se ajustaba a sus normas.

La postura de la compañía quedó consignada en un documento enviado a legisladores de Estados Unidos, conocido tras ser divulgado por NBC News y retomado por 9to5Mac. Allí se detalla que las primeras actualizaciones presentadas por X no lograron cumplir con los estándares exigidos.

Ajustes bajo presión
Ante el riesgo de quedar fuera de la tienda de aplicaciones, la empresa de Elon Musk introdujo nuevas modificaciones tanto en Grok como en su red social. Aunque Apple reconoció avances, consideró que aún había aspectos por corregir y mantuvo la advertencia.

Fue solo después de una serie de cambios adicionales que la tecnológica concluyó que las fallas habían sido atendidas en gran medida. Con ello, permitió que la aplicación continuara disponible para los usuarios, al considerar que ya cumplía en buena parte con sus lineamientos y condiciones establecidas, evitando así su retiro definitivo de la tienda digital.
