La figura de Elon Musk suele generar posturas extremas, pues para algunos es un visionario brillante y para otros una personalidad excéntrica y controvertida. Esa división alimenta una base de seguidores que tiende a respaldar sin cuestionamientos muchas de sus ideas.
En este contexto, una de las controversias más recientes se centra en Grok, la IA de X, que fue actualizada para bloquear la generación de desnudos a partir de imágenes de personas por los riesgos legales y éticos que implica, aunque el debate volvió a intensificarse tras una solicitud directa del propio Musk que provocó reacciones.

Con la intención de ampliar el entrenamiento de su IA, Musk está pidiendo a los usuarios de la red social X a compartir información médica, como radiografías, resonancias y ecografías, para que Grok pueda analizarlas y aprender de ellas.
El empresario asegura que él mismo ha utilizado esta función y sostiene que, en algunos casos, la IA ha ofrecido interpretaciones incluso más precisas que las de profesionales de la salud, lo que ha generado un intenso debate sobre los límites y riesgos de este tipo de prácticas.

“Todavía está en una fase inicial, pero ya es bastante preciso y llegará a ser extremadamente bueno”, señaló el empresario en una publicación.
Más allá del entusiasmo del magnate, expertos recuerdan que, aunque la inteligencia artificial pueda interpretar datos médicos con mayor precisión que una persona promedio, sigue siendo una tecnología falible. Puede equivocarse, ofrecer conclusiones erróneas o generar alarmas innecesarias, por lo que confiar ciegamente en sus respuestas podría resultar contraproducente y causar más preocupación.

Compartir información médica con una IA se asemeja a buscar síntomas en internet, una práctica que suele conducir a diagnósticos exagerados y temor injustificado; por ello, la recomendación sigue siendo acudir siempre a un profesional de la salud.
Si bien herramientas como Gemini de Google o ChatGPT de OpenAI permiten analizar imágenes médicas sin haberlo promovido abiertamente, la idea de entregar datos tan sensibles —como estudios invasivos— a un chatbot ha encendido alertas entre expertos.
“Se trata de información muy personal, y no se sabe exactamente qué va a hacer Grok con ella”, dijo Bradley Malin, profesor de informática biomédica en la Universidad de Vanderbilt.










