SALUD
EN MANOS DE UN
ALGORITMO
¿CONFIARÍA EN UN DIAGNOSTICO DE LA IA?
Texto: The Conversation
Imagen de Portada: FreePik
Cada día, médicos y profesionales de la salud de todo el mundo tienen a su disposición la inteligencia artificial (IA) para buscar apoyo en la toma de decisiones sobre el diagnóstico, pronóstico y tratamientos de posibles enfermedades. Eso incluye desde la interpretación de imágenes en radiología, dermatología y oncología hasta recomendaciones personalizadas de tratamiento.
Sin embargo, su uso no está tan extendido como cabría esperar. Si los médicos no acuden a la IA no es por un problema tecnológico: un metaanálisis de 2023 identificó que el principal obstáculo para pasar del laboratorio a la cama del enfermo es la desconfianza.
Indiscutiblemente, acceder a diagnósticos más certeros, cirugías mejor planificadas o medicamentos ajustados al paciente afecta positivamente a la calidad de vida de los individuos y a la salud pública en general. Pero para que aumente la presencia de sistemas artificiales y técnicas de aprendizaje-máquina en la práctica asistencial, deben ser confiables.
Eso implica superar algunos de los obstáculos que dificultan que los profesionales de la salud comprendan y confíen completamente en las decisiones del sistema. Entre ellos, la naturaleza de “caja negra” de muchos algoritmos de IA, los sesgos en los que pueden incurrir, la deshumanización de la relación entre profesionales de la salud y sus pacientes y la dependencia excesiva de la IA. Todo esto puede generar “puntos únicos de falla” (SPOF, por sus siglas en inglés), donde un único componente o elemento fallido puede provocar un colapso del conjunto. Y eso aumenta la fragilidad de todo el sistema de atención sanitaria.
Ni desconfianza ni confianza ciega
En este contexto se crea CONFIIA (acrónimo de Confianza y Nuevas Formas de Integración de la Inteligencia Artificial), un proyecto español integrado por profesionales de la filosofía, la psicología, la labor asistencial, la medicina y la ingeniería.
Su misión es evaluar el nivel de confianza de la IA en salud desde una doble vertiente. Por un lado, los posibles recelos en profesionales sanitarios y pacientes en el uso de aplicaciones de IA en el ámbito de la salud. Por otro, y en un sentido opuesto, el problema que generaría una confianza ciega que no tenga en cuenta la falta de integración de mecanismos de seguridad en el desarrollo de esas aplicaciones a partir de elementos como exactitud, precisión, trazabilidad y transparencia.
La confianza es multifacética. Reducirla a números sin perder matices es un equilibrio delicado y difícil. Por ello es preciso medir sin simplificar.
A esto se suma que los modelos de IA cambian en cuestión de meses, e incluso semanas: cualquier conclusión se vuelve pronto obsoleta. De ahí la necesidad de que toda la investigación se sustente en una evaluación continua de la voz de profesionales, pacientes y desarrolladores.
¿Se puede medir algo tan escurridizo como la confianza?
Traducir un concepto multidimensional como la confianza a datos comparables no es sencillo. Requiere emplear tanto metodologías cuantitativas (encuestas validadas) como cualitativas (entrevistas en profundidad) con el personal sanitario y los pacientes, como propone CONFIIA.
Después se aplica UMAP, una técnica de análisis topológico capaz de “dibujar” clusters de confianza con multitud de variables a la vez. El mapa que dibuje mostrará grupos que confían ciegamente, quizá porque sólo perciben beneficios, perfiles prudentes que piden explicaciones transparentes y personas escépticas movidas por experiencias fallidas.
El propósito de nuestro proyecto es trazar la confianza en todas sus dimensiones para, a partir de los rasgos demográficos, calcular con qué perfil de pacientes y usuarios del sistema sanitario es más probable que una persona concreta se identifique. Y, con esa información, desarrollar intervenciones personalizadas, guías de uso seguro para desarrolladores, materiales formativos para profesionales de la salud y mensajes claros para pacientes en contextos de uso de la IA.
Cada propuesta se pilotará en centros clínicos españoles entre 2027 y 2028, con un objetivo medible: incrementar al menos en un 20 % los niveles de confianza respecto del punto de partida.
Atlas de confianza en otras áreas
Nuestro proyecto aspira a generar un “atlas de confianza” reproducible, útil para reguladores y empresas tecnológicas que busquen introducir la IA responsablemente en el ámbito de la salud, pero también en otros servicios críticos (energía, transporte, justicia…).
En última instancia, CONFIIA interpela a responder preguntas que ya no podemos aplazar. ¿Quién asume la responsabilidad si un algoritmo se equivoca? ¿Cómo explicamos sus decisiones a quienes no hablan el lenguaje del algoritmo? ¿Queremos realmente introducir la voz de la ciudadanía en el desarrollo de la IA? ¿Cuánto confiamos o debemos confiar en la IA en salud?
Articulistas
Aníbal M. Astobiza
Profesor-Investigador EMERGIA, especializado en ciencias cognitivas y éticas aplicadas, Universidad de Granada
Belén Liedo
Investigadora predoctoral en Ética y filosofía, Centro de Ciencias Humanas y Sociales (CCHS – CSIC)
José Ríos Díaz
Docente-Investigador en Ciencias de la Salud, Universidad Pontificia Comillas
Marcos Alonso
Profesor de Bioética, Universidad Complutense de Madrid
Mar Vallès Poch
Estudiante doctorado en Bioética, Universidad de Granada
Natividad Garrido Rodríguez
Investigadora Posdoctoral Catalina Ruíz, Universidad de La Laguna
Patricia García Garrido
Profesional tecnológica especializada en Inteligencia Artificial y Computación Cuántica, Universidad Nebrija
Pedro Chana Valero
Innovación, diseño y fabricación digital en Ciencias de la Salud. Fundación San Juan de Dios – SOUL Hi Hub. EUEF San Juan de Dios – Comillas., Universidad Pontificia Comillas
Rafael Mestre
Profesor Titular, University of Southampton
Ramón Ortega Lozano
Profesor de Bioética y de Psicología de la salud en la Escuela de Enfermería y fisioterapia San Juan de Dios, Universidad Pontificia Comillas
Txetxu Ausín
Investigador Científico, Instituto de Filosofía, Grupo de Ética Aplicada, Centro de Ciencias Humanas y Sociales (CCHS – CSIC)
Fuente:
The Conversation
