OPINIÓN

Catalina Gutiérrez de Piñeres

Inteligencia artificial en salud: decidir cuándo usarla y cuándo no

Una reflexión sobre el criterio y el liderazgo necesarios para decidir cuándo la inteligencia artificial debe apoyar el cuidado en salud.
20 de abril de 2026 a las 5:04 p. m.

La inteligencia artificial se ha instalado con fuerza en la conversación sobre el futuro del sector salud. Algoritmos que apoyan diagnósticos, sistemas que priorizan riesgos, modelos predictivos que anticipan eventos clínicos y plataformas que prometen eficiencia y precisión. Frente a este escenario, la pregunta que debemos hacernos es cómo y para qué la estamos incorporando.

El algoritmo de la empatía: el verdadero reto de la transformación en salud

La inteligencia artificial no es neutral. Aprende de los datos que recibe, de las decisiones que se le delegan y de los criterios que la gobiernan. Por eso, su adopción en salud no puede abordarse solo desde la innovación tecnológica, sino desde una reflexión profunda sobre responsabilidad, ética y propósito.

En mi experiencia, uno de los mayores riesgos es asumir que la inteligencia artificial reemplaza el criterio humano. En salud, automatizar sin discernimiento puede llevar a decisiones más rápidas, pero no necesariamente más justas, más seguras o más humanas. Un algoritmo puede identificar patrones, pero no comprende contextos. Puede sugerir caminos, pero no asume las consecuencias de una decisión clínica.

La inteligencia artificial debe entenderse como una herramienta de apoyo, no como una delegación absoluta del cuidado. Su verdadero valor aparece cuando libera tiempo, reduce cargas administrativas y mejora la capacidad de anticipación para que los equipos de salud se concentren en lo esencial: escuchar, acompañar y cuidar.

Hoy vemos avances importantes en analítica predictiva, estratificación del riesgo y apoyo a la toma de decisiones clínicas. Estas aplicaciones pueden ser poderosas si están bien diseñadas y correctamente gobernadas. Pero también pueden amplificar inequidades si se entrenan con datos incompletos, sesgados o descontextualizados. En salud, los sesgos no son solo errores técnicos: son riesgos reales para los usuarios.

Por eso, incorporar inteligencia artificial exige liderazgo. Liderazgo para definir qué decisiones pueden apoyarse en algoritmos y cuáles deben seguir siendo humanas. Liderazgo para establecer límites claros. Liderazgo para entender que no todo lo que es técnicamente posible es éticamente deseable.

Otro desafío clave es la gobernanza. La inteligencia artificial en salud no puede operar como una ‘caja negra’. Los líderes debemos exigir trazabilidad, explicabilidad y responsabilidad. Debemos saber por qué un sistema recomienda una acción, qué variables considera y qué riesgos implica seguirla. La transparencia no es opcional cuando hablamos de decisiones que afectan la vida y la dignidad de las personas.

Además, la adopción de inteligencia artificial es, ante todo, un proceso cultural. No basta con implementar tecnología; es necesario preparar a los equipos, fortalecer el criterio clínico, promover el pensamiento crítico y construir confianza. La tecnología no reemplaza la responsabilidad profesional: la exige aún más.

La pregunta correcta, entonces, no es qué tan avanzada es nuestra inteligencia artificial, sino qué tan bien gobernada está. No es cuántos procesos automatizamos, sino cuánto mejor cuidamos gracias a esa automatización. No es cuántas decisiones delegamos, sino cuáles decidimos seguir asumiendo como líderes y profesionales de la salud.

He dicho antes que la transformación digital en salud solo tiene sentido cuando se pone al servicio de las personas. Con la inteligencia artificial ocurre lo mismo, pero con mayor urgencia. Porque cuanto más poderosa es la herramienta, mayor es la responsabilidad de quien la usa.

El futuro de la salud no será humano o tecnológico: será humano con tecnología bien gobernada. Y en ese equilibrio está el verdadero desafío del liderazgo en esta nueva etapa.

Catalina Gutiérrez de Piñeres, CEO Previsalud