Consideremos el siguiente escenario: dos pacientes con hepatopatía crónica (una enfermedad severa del hígado) esperan un trasplante. Ambos pacientes están en un estado tan grave que, si no reciben un órgano sano pronto, sus posibilidades de supervivencia se extinguirán paulatinamente.
Afortunadamente, ha llegado un hígado a la unidad de trasplantes. Este órgano es compatible con los dos pacientes y ambos se pueden beneficiar considerablemente del trasplante hepático. A quien lo reciba se le podría pronosticar, en principio, una supervivencia larga con buena calidad de vida.
Desafortunadamente, de este hígado solo hay un lóbulo trasplantable. Esto quiere decir que uno de los candidatos se quedará sin trasplante. En bioética y salud pública, el término racionamiento se refiere precisamente al hecho de asignar un recurso a un beneficiario mientras se le niega a otra persona que también lo necesita.
En un caso como este, el racionamiento se vuelve un dilema trágico, esto es, una situación éticamente conflictiva en la que está en juego la vida de personas. ¿A quién de los dos pacientes se le debe asignar el hígado? ¿Y en base a qué características?
Modelos para elegir al receptor
En la mayoría de países, la distribución de hígados trasplantables se realiza considerando principalmente una predicción de mortalidad a corto plazo en la lista de espera. Tienen prioridad quienes tienen mayor probabilidad de morir esperando el trasplante.
La medición del riesgo de mortalidad se basa en una regresión lineal (una fórmula matemática muy utilizada en estadística) con tres variables: la creatinina, la bilirrubina y el International Normalized Ratio (que estandariza los tiempos de la protrombina). Estos tres biomarcadores son indicadores normalmente utilizados en diversas analíticas en salud.
La interacción de esos tres valores compone el sistema de puntuación denominado modelo de enfermedad hepática terminal, llamado en inglés escala MELD (Model for End-stage Liver Disease). Esta escala mide el estado de gravedad de la enfermedad hepática crónica.
Sin embargo, algunos desafíos han generado la necesidad de repensar este sistema. Un factor importante es la disponibilidad creciente de órganos subóptimos. Estos órganos son de menor calidad porque provienen de donantes con peor estado de salud. Si trasplantamos un órgano deteriorado a un paciente sano, esta persona puede necesitar más adelante otro trasplante. En cambio, trasplantar un hígado a un paciente con poca esperanza de vida puede suponer que se malogren los beneficios mayores que podría haber generado ese órgano en otra persona.
La inteligencia artificial entra en escena
Para superar dichas ineficiencias, se deben tener en cuenta las características no solo del destinatario, como hacía la predicción de mortalidad en el sistema anterior, sino también del donante. Así, Reino Unido ha implantado el Transplant Benefit Score (TBS) –puntuación del beneficio del trasplante–, que tiene en cuenta 7 variables del donante y 21 del receptor del órgano. El objetivo es maximizar la duración del hígado trasplantado.
La interacción de estas 28 variables del TBS es más compleja que las tres del MELD. Esto ha impulsado investigaciones para desarrollar modelos de inteligencia artificial (IA) aplicables a este sistema. Por ejemplo, se han utilizado redes neuronales para este propósito. Las redes neuronales son algoritmos avanzados de IA basados en aprendizaje automático que entrenan en capas interconectadas de datos.
El uso de redes neuronales ha conseguido predecir el riesgo de mortalidad tras trasplante a 90 días con mayor precisión que modelos estadísticos previos. Las herramientas de IA son también más eficaces para pronosticar de manera precisa la supervivencia del injerto (esto es, del órgano trasplantado) en cada receptor. Todo ello permite dirigir el recurso escaso a la persona que aparentemente se va a beneficiar más de él.
Algoritmos opacos
Sin embargo, estos modelos basados en IA –que todavía requieren mayor investigación– tienen un problema. Como las redes neuronales funcionan autónomamente, no permiten conocer el peso que ha tenido cada variable en la configuración del resultado final. Es decir, estos sistemas de IA producen recomendaciones que se han gestado en un proceso algorítmico cuyos mecanismos causales ni las personas expertas son capaces de explicar. Esta opacidad y falta de transparencia se suele denominar la “caja negra” de la IA.
Dadas sus múltiples repercusiones, la inexplicabilidad de la IA es un tema candente discutido en disciplinas como las ciencias computacionales, la medicina, la administración empresarial, el derecho y la filosofía. ¿Cómo se debe valorar el uso de algoritmos inexplicables en la IA médica?
Hay quienes han defendido que la precisión –y no la explicabilidad– debe ser el valor fundamental de la inteligencia artificial en medicina. Argumentan que el conocimiento médico es a menudo incompleto y que está atravesado por múltiples incertidumbres. De hecho, la inexplicabilidad ya existe con algunos tratamientos médicos efectivos como, por ejemplo, la prescripción del litio en enfermedades psiquiátricas. Es decir, mientras los tratamientos sean exitosos no nos debe preocupar el no poder explicar cuáles son las causas subyacentes de estos beneficios.
Sin embargo, la aspiración de que la IA sea lo más precisa posible, y siempre que esto genere inexplicabilidad, se vuelve especialmente problemática cuando se quiere utilizar la IA para apoyar la priorización de recursos sanitarios escasos.
Problemas éticos
En una investigación reciente (en proceso de revisión) que he tenido el placer de liderar, hemos analizado cómo la falta de explicabilidad incumple ideales éticos importantes.
La inexplicabilidad entorpece la atribución de responsabilidades en caso de errores, dificulta la inspección de sesgos (problemáticos tanto a nivel clínico como ético) y pone en jaque la transparencia y confianza que son necesarias para la aceptación pública de estas tecnologías.
Como estos criterios son fundamentales en la distribución equitativa de recursos sanitarios escasos, debemos favorecer la implantación de algoritmos de IA cuyo funcionamiento sea explicable. La precisión predictiva es, sin duda, también importante. Pero debemos incentivar los desarrollos y aplicaciones de algoritmos precisos que sean explicables.
Volviendo al caso inicial, supongamos que la distribución del hígado fuese decidida por la recomendación de la inteligencia artificial. ¿Qué haría usted si fuese la persona perjudicada? Si fuese mi caso, no dudaría en pedirle explicaciones.
Este artículo obtuvo el segundo premio en la II edición del certamen de divulgación joven organizado por la Fundación Lilly y The Conversation España.
Jon Rueda Etxebarria, La Caixa INPhINIT Fellow y doctorando en filosofía, Universidad de Granada
Este artículo fue publicado originalmente en The Conversation. Lea el original.
El periodismo independiente necesita del apoyo de sus lectores para continuar y garantizar que las noticias incómodas que no quieren que leas, sigan estando a tu alcance. ¡Hoy, con tu apoyo, seguiremos trabajando arduamente por un periodismo libre de censuras!
Apoya a El Nacional