Tecnología

Así fue cómo la IA engañó a médicos radiólogos: advierten riesgos de “litigios fraudulentos”

Un estudio reveló que la IA puede engañar a radiólogos con imágenes falsas.

GoogleSiga de cerca las tendencias en tecnología y ciencia en Discover

25 de marzo de 2026 a las 9:16 p. m.
Radiografías creadas con IA ya logran confundir a expertos médicoss
Radiografías creadas con IA ya logran confundir a expertos médicoss Foto: Antonio Gravante/Shotshop/IMAGO

La capacidad de la IA para generar imágenes médicas falsas, también señaladas como deepfakes, ya no es algo que parecía imposible, ya que recientemente un estudio evidenció que radiografías creadas con algoritmos avanzados pueden ser tan realistas que logran confundir incluso a especialistas, lo que abre la puerta a riesgos legales y de ciberseguridad.

Radiografías falsas que parecen reales

Imágenes de rayos X falsas generadas con inteligencia artificial fueron capaces de confundir a expertos, con “riesgos significativos”.

El estudio indicó que las imágenes fueron diseñadas para imitar con precisión los resultados clínicos de pacientes reales. Esto no solo puso en evidencia la capacidad técnica de estas herramientas, sino también su potencial uso malintencionado, ya que pueden engañar tanto a radiólogos experimentados como a otros sistemas de inteligencia artificial.

La IA logró imitar radiografías reales y engañar a médicos en varios países.
Solo el 41 % de radiólogos detectó imágenes falsas sin saber que eran de IA. Foto: Tordjman M, Yuce M, et al. / Revista Radiology

En la investigación, 17 radiólogos de 12 hospitales en seis países analizaron un total de 264 radiografías. La mitad de ellas había sido generada por herramientas como ChatGPT o RoentGen.

Los resultados fueron reveladores: cuando los especialistas no sabían que estaban frente a un experimento, solo el 41 % logró identificar correctamente las imágenes falsas. Sin embargo, una vez informados de la presencia de contenido sintético, la precisión aumentó al 75 %, según el informe publicado en Radiology.

Riesgo de litigios fraudulentos

El impacto de estos resultados va más allá del ámbito tecnológico. Las implicaciones legales podrían ser profundas si este tipo de imágenes se utiliza de forma indebida.

“Crea una vulnerabilidad grave que puede dar lugar a litigios fraudulentos si, por ejemplo, una fractura simulada pudiera ser indistinguible de una real”, declaró en un comunicado el Dr. Mickael Tordjman, líder del estudio e investigador de la Escuela de Medicina Icahn del Mount Sinai en Nueva York.

El especialista también advirtió sobre los riesgos en materia de ciberseguridad: “También existe un riesgo significativo para la ciberseguridad si los hackers acceden a la red de un hospital e inyectan imágenes sintéticas para manipular los diagnósticos de los pacientes o provocar un caos clínico generalizado al socavar la fiabilidad fundamental del historial clínico digital”.

Alertan sobre nueva amenaza: deepfakes “accesibles” impulsan fraudes digitales más sofisticados para estafar a usuarios

La IA también se equivoca

El estudio también evaluó la capacidad de diferentes modelos de lenguaje para detectar estas imágenes falsas. Los resultados mostraron que incluso las herramientas más avanzadas presentan limitaciones.

Modelos como GPT-40 y GPT-5 de OpenAI, Gemini 2.5 Pro de Google y Llama 4 Maverick de Meta Platforms registraron niveles de precisión que oscilaron entre el 57 % y el 85 %.

ChatGPT-4o no pudo reconocer todas las imágenes que ayudó a crear.
La precisión de las IA para detectar fraudes oscila entre 57 % y 85 %. Foto: Getty Images

Incluso ChatGPT-4o, responsable de generar algunas de las imágenes falsas utilizadas en el estudio, no logró detectarlas todas, aunque superó a otros sistemas de aprendizaje automático.

La urgencia de reforzar la seguridad digital

Ante este panorama, los investigadores subrayan la necesidad de implementar medidas que permitan diferenciar entre imágenes reales y sintéticas. Entre las soluciones planteadas se encuentra el uso de marcas de agua invisibles que certifiquen la autenticidad de los archivos médicos.

“Potencialmente, solo estamos viendo la punta del iceberg”, afirmó Tordjman sobre la posibilidad de que aparezcan tomografías computarizadas y resonancias magnéticas falsas. “Es fundamental crear ahora bases de datos educativas y herramientas de detección”.

*Con información de DW.