La inteligencia artificial en salud ha dejado de ser una promesa. Según Deloitte, el 61% de los ejecutivos de salud ya están construyendo iniciativas con IA agéntica o tienen presupuesto asignado, y el 85% planea aumentar la inversión en los próximos dos a tres años. Pero hay una diferencia fundamental entre adoptar IA y gobernarla. Y esa diferencia es la que separará a los sistemas de salud que transforman su operación de los que simplemente acumulan proyectos piloto sin impacto real.
La IA agéntica no es un chatbot mejorado. Son sistemas capaces de actuar con autonomía creciente: coordinan agendas, validan autorizaciones, priorizan listas de espera, preseleccionan imágenes radiológicas, resuelven reclamos de facturación sin intervención humana. Lo que antes requería múltiples personas y días de trabajo, un agente de IA puede resolverlo en minutos.
Y aquí es donde aparece el problema que pocos quieren nombrar: cuanta más autonomía tiene un sistema, mayor es la exigencia ética para quien lo gobierna.
El espejismo de la eficiencia sin gobernanza
El Foro Económico Mundial estima que al menos el 20% del gasto global en salud es desperdicio. La IA promete reducir ese desperdicio. Y puede hacerlo. Pero no basta con automatizar procesos si nadie define qué decisiones puede tomar un agente por sí solo, cuáles requieren supervisión humana y cuáles están fuera de su alcance.
La distinción técnica existe y es clara. Hay decisiones donde el humano debe estar en el circuito (human-in-the-loop): diagnósticos, cambios de medicación, decisiones clínicas irreversibles. Y hay decisiones donde el humano supervisa desde fuera (human-on-the-loop): agendamiento, derivaciones administrativas, documentación rutinaria.
El problema es que esta distinción rara vez se formaliza en los sistemas de salud. Se implementa la herramienta, se celebra la eficiencia, y nadie se pregunta quién responde cuando el agente toma una decisión equivocada con un paciente real.
Una encuesta de la American Medical Association reveló que el 93% de los médicos reporta que las autorizaciones previas retrasan la atención, y el 89% las vincula con burnout profesional. La tentación de automatizar ese proceso es enorme. Pero si un agente de IA deniega una autorización que debía aprobarse, el daño no es administrativo. Es clínico. Y la pregunta que debe responder el CEO, no el equipo técnico, es: ¿estamos preparados para asumir esa responsabilidad?
Lo que HIMSS26 dejó en evidencia
La conferencia HIMSS de este año confirmó algo que venimos señalando: la conversación sobre IA en salud se movió de la capacidad a la gobernanza. Ya no se trata de si los modelos funcionan. Se trata de si las estructuras organizacionales, los marcos regulatorios y las culturas institucionales están evolucionando a la velocidad necesaria para sostener lo que la tecnología ya permite hacer.
En Estados Unidos, 47 estados introdujeron más de 250 proyectos de ley sobre regulación de IA en salud solo en 2025, y 33 se convirtieron en ley. Sin estándares federales unificados, el resultado es un mosaico regulatorio que genera incertidumbre.
Para América Latina, este dato debería encender una alarma. Si en la economía más grande del mundo la regulación va detrás de la tecnología, en nuestra región la brecha es aún mayor. Y la ausencia de regulación no significa ausencia de riesgo.
La brecha latinoamericana: oportunidad y peligro
En Chile, hemos logrado informatizar más de 1.200 establecimientos de salud pública, con historias clínicas electrónicas que alcanzan a 14 millones de personas. Esa base de datos es un activo extraordinario. Pero también es un campo de tensión: más de la mitad de los hogares rurales en América Latina no tiene acceso a internet confiable. Los registros clínicos siguen siendo heterogéneos e incompletos en muchos países. Y las preguntas sobre privacidad, seguridad de la información y responsabilidad algorítmica están lejos de resolverse.
La IA agéntica amplifica lo que ya existe. Si existe un sistema de información robusto, la IA lo potencia. Si existe fragmentación, la IA la escala. Por eso la gobernanza no es un tema técnico. Es un tema de dirección estratégica.
Un hospital público en Ciudad de México ya utiliza IA en radiología para identificar lesiones y fracturas con mayor precisión. Panamá ha desplegado telemedicina con alcance a 12 regiones. Son avances reales. Pero ninguno de estos proyectos es sostenible sin un marco de gobernanza que defina quién audita los algoritmos, cómo se mide su desempeño clínico y qué sucede cuando fallan.
Tres métricas que todo CEO debería exigir
La gobernanza de IA no se resuelve con un comité de ética que se reúne una vez al trimestre. Se resuelve con métricas operativas que permitan monitorear en tiempo real cómo se comportan estos sistemas. Propongo tres que considero fundamentales.
La primera es la tasa de intervención: con qué frecuencia un clínico corrige la decisión del agente. Si esa tasa sube, el modelo está derivando. Si baja a cero, nadie está supervisando. Ambos escenarios son peligrosos.
La segunda es la adherencia a protocolos clínicos. Un agente de IA debe operar dentro de las guías de práctica clínica basadas en evidencia. Si sus recomendaciones se desvían de esas guías, debe existir un mecanismo automático que lo detecte y escale la decisión a un profesional.
La tercera es la trazabilidad de las decisiones. Cada acción de un agente de IA debe poder explicarse: qué datos utilizó, qué reglas aplicó, por qué llegó a esa conclusión. Sin trazabilidad no hay auditoría posible. Y sin auditoría, no hay confianza clínica.
La gobernanza es función del CEO
Los datos de Deloitte muestran algo revelador: las organizaciones que lideran la adopción de IA agéntica son las más grandes (ingresos superiores a 5.000 millones de dólares), priorizan soluciones multiagente y esperan ahorros superiores al 20%. Las que observan desde la distancia son más pequeñas, prefieren soluciones puntuales y esperan un impacto mínimo.
La brecha competitiva ya se está abriendo.
Pero el tamaño no es lo que determina el éxito. Lo que importa es dónde se ubica la decisión sobre IA dentro de la organización. Si la IA se gobierna desde el departamento de tecnología, se optimizan procesos. Si se gobierna desde la dirección ejecutiva, se transforma el modelo de atención.
La diferencia no es semántica. Es estratégica.
Un CEO que delega la gobernanza de IA al CTO está delegando decisiones sobre calidad clínica, equidad en el acceso, privacidad de los pacientes y sostenibilidad del modelo de atención. Son decisiones que definen la identidad de la institución. No son decisiones técnicas.
El momento de actuar es ahora
El 98% de los ejecutivos de salud espera obtener al menos un 10% de ahorro en costos con IA agéntica en los próximos dos a tres años. Esa expectativa es razonable si viene acompañada de gobernanza. Sin ella, es una apuesta.
Para los sistemas de salud de América Latina, el desafío es doble. Necesitamos adoptar estas tecnologías para cerrar brechas que son inaceptables. Pero necesitamos hacerlo con marcos de gobernanza propios, adaptados a nuestra realidad: presupuestos limitados, infraestructura desigual, marcos regulatorios incipientes y una deuda histórica de equidad que la tecnología puede profundizar o comenzar a saldar.
La IA agéntica no va a esperar a que estemos listos. Los agentes ya están operando en sistemas de salud del mundo desarrollado. La pregunta para los líderes de salud de nuestra región no es si adoptarlos, sino cómo gobernarlos. Y esa pregunta no la puede responder un algoritmo.


Deja un comentario