Llevo semanas estudiando ética de la inteligencia artificial en un curso de la UNAM — un programa diseñado para profesionales que trabajan con IA en contextos educativos. Y en el módulo de esta semana encontré algo que me detuvo a pensar: los principios que propone el curso para gobernar la IA no son nuevos. Los aprendí en la facultad de medicina hace treinta años.

Beneficencia, no maleficencia, autonomía, justicia, equidad. Los cinco principios de la bioética, formulados para regular la relación médico-paciente, son exactamente los que hoy se proponen para evaluar si un sistema de inteligencia artificial es éticamente aceptable. No es una coincidencia menor. Es una señal de que algo en la estructura del problema es común.

¿Por qué los mismos principios? Porque la IA y la medicina comparten una misma condición de fondo: operan sobre personas vulnerables, en contextos de asimetría de poder, con consecuencias que pueden ser irreversibles. El médico sabe más que el paciente sobre su enfermedad. El sistema de IA sabe más que el usuario sobre sus datos. En ambos casos, esa asimetría puede usarse para bien o para mal, y la ética es el intento sistemático de que sea para bien.

La medicina desarrolló estos principios después de décadas de fracasos éticos. El experimento de Tuskegee, el escándalo de la talidomida, las prácticas de esterilización forzada — la bioética moderna nació de catástrofes concretas, no de especulaciones filosóficas. Hoy, la IA comienza a acumular su propio inventario de fracasos: sistemas de predicción de riesgo con sesgos raciales, algoritmos de contratación que discriminan por género, modelos diagnósticos entrenados en poblaciones que no representan a quienes los usarán.

El patrón es el mismo. La respuesta debería serlo también.

Pero hay una diferencia importante. En medicina, el profesional que toma decisiones conoce los principios éticos, ha jurado aplicarlos, y existe una comunidad disciplinar que lo responsabiliza cuando los viola. En IA, el gap es estructural: quienes diseñan los sistemas rara vez son quienes sufren sus consecuencias, y quienes sufren las consecuencias rara vez tienen poder para cuestionar los sistemas. La responsabilidad está diluida entre el equipo de ingeniería, la empresa que despliega, el cliente que compra, y el usuario final que sencillamente acepta los términos.

El curso agrega al marco bioético seis principios de ética tecnológica: responsabilidad, precaución, justicia ambiental, transparencia, trazabilidad y reparación justa. Cada uno tiene una traducción directa al mundo de los sistemas de salud pública.

¿Quién responde cuando un algoritmo de triaje en un hospital público prioriza mal a un paciente? ¿El hospital? ¿La empresa que vendió el software? ¿El médico que validó la recomendación sin revisarla con profundidad? ¿Cuándo se aplica el principio de precaución antes de implementar un modelo predictivo entrenado con datos de poblaciones del hemisferio norte en pacientes del sistema público latinoamericano? Nadie lo está discutiendo de forma sistemática.

En Rayen Salud llevamos años trabajando con datos de más de 14 millones de personas. Sabemos qué datos tenemos, dónde están, cómo se procesan. Pero agregar IA sobre esa base implica una capa adicional de opacidad que los estándares actuales no están preparados para absorber. Esto no es un problema técnico. Es un problema de gobernanza, y la gobernanza es responsabilidad del nivel directivo, no del equipo de tecnología.

Hay algo que me parece particularmente urgente en el contexto latinoamericano. Nuestros sistemas de salud pública llevan décadas en proceso de digitalización, con recursos escasos, brechas de recurso humano y marcos regulatorios que siempre llegan tarde. Cuando la IA llegue a escala — y ya está llegando — no lo hará a sistemas maduros con infraestructura ética consolidada. Lo hará a sistemas que todavía están aprendiendo a gestionar los datos que ya tienen.

El riesgo no es la ciencia ficción de una IA que reemplaza al médico. El riesgo real es más mundano y más peligroso: una IA que automatiza sesgos existentes, que profundiza las inequidades de acceso, que transfiere responsabilidades clínicas sin transferir la accountability correspondiente. Y nadie en la sala de gestión preguntando: ¿cuál es nuestra política de no maleficencia para este sistema?

Estudiar esto en un curso me recuerda algo que la gestión tiende a olvidar: el problema no es la falta de principios. Los principios ya los tenemos — la medicina los construyó durante décadas a partir de errores que costaron vidas. El problema es que no estamos trasladando esos principios al lugar donde se toman las decisiones que importan.

¿Cuántas organizaciones de salud en Chile y América Latina tienen hoy un proceso sistemático de evaluación ética antes de adquirir o implementar herramientas de IA? No un checklist de compliance. Un proceso real, con los principios correctos, con personas responsables de aplicarlos, y con consecuencias cuando no se aplican.

Esa pregunta es la que me llevo esta semana. Y creo que es la que deberíamos estar respondiéndonos los que tomamos decisiones en salud digital.

Deja un comentario