IA Inteligencia artificial en medicina
IA Inteligencia artificial en medicina
En este número de The Lancet Digital Health, Xiaoxuan Liu y sus colegas dan su perspectiva sobre la auditoría global de la inteligencia artificial médica (IA). Piden que el enfoque cambie de demostrar las fortalezas de la IA en la atención médica a descubrir proactivamente sus debilidades.
Las máquinas cometen errores impredecibles en la medicina, que difieren significativamente de los cometidos por los humanos. Liu y sus colegas afirman que los errores cometidos por las herramientas de IA pueden tener consecuencias de gran alcance debido a las relaciones complejas y opacas entre el análisis y la producción clínica. Dado que hay poco control humano sobre cómo una IA genera resultados y que el conocimiento clínico no es un requisito previo en el desarrollo de la IA, existe el riesgo de que una IA aprenda correlaciones espurias que parecen válidas durante el entrenamiento pero que no son confiables cuando se aplican a situaciones del mundo real.
Lauren Oakden-Rayner y sus colegas analizaron el rendimiento de una IA en una gama de características relevantes para la detección de fracturas de cadera. Esta auditoría algorítmica preclínica identificó barreras para el uso clínico, incluida una disminución de la sensibilidad en el punto de operación preespecificado. Este estudio destacó varios «modos de falla», que es la propensión de una IA a fallar recurrentemente en ciertas condiciones. Oakden-Rayner dijo a “The Lancet Digital Healt” que su estudio mostró que «los modos de falla de los sistemas de IA pueden parecer extraños desde una perspectiva humana. Tomemos, por ejemplo, en la auditoría de fractura de cadera (figura 5), el reconocimiento de que la IA pasó por alto una fractura extremadamente desplazada … el tipo de imagen que incluso un laico reconocería como completamente anormal». Estos errores pueden afectar drásticamente la confianza de los médicos y los pacientes en la IA. Otro ejemplo que demuestra la necesidad de auditoría se destacó el mes pasado en una investigación realizada por STAT y el Instituto de Tecnología de Massachusetts, que encontró que un algoritmo de salud EPIC utilizado para predecir el riesgo de sepsis en los Estados Unidos se deterioró bruscamente en el rendimiento, de 0 · 73 AUC a 0 · 53 AUC, durante 10 años. Este deterioro con el tiempo fue causado por cambios en el sistema de codificación del hospital, una mayor diversidad y volumen de datos de pacientes y cambios en los comportamientos operativos de los cuidadores. Hubo poca o ninguna supervisión de la herramienta de IA una vez que llegó al mercado, lo que podría causar daño a los pacientes en el hospital. Liu comentó: «sin la capacidad de observar y aprender de los errores algorítmicos, el riesgo es que continúe sucediendo y no haya responsabilidad por ningún daño que resulte».
Auditar la IA médica es esencial; pero, ¿de quién es la responsabilidad de garantizar que la IA sea segura de usar? Algunos expertos piensan que los desarrolladores de IA son responsables de proporcionar orientación sobre la gestión de sus herramientas, incluyendo cómo y cuándo comprobar el rendimiento del sistema, e identificar las vulnerabilidades que podrían surgir después de su puesta en práctica. Otros argumentan que no toda la responsabilidad recae en los desarrolladores de IA, y los proveedores de salud deben probar los modelos de IA en otros datos para verificar su utilidad y evaluar las vulnerabilidades potenciales. Liu dice: «Necesitamos que los equipos clínicos comiencen a desempeñar un papel activo en la supervisión algorítmica de la seguridad. Están en la mejor posición para definir cómo se ve el éxito y el fracaso para su institución de salud y su cohorte de pacientes».
Hay tres desafíos que superar para garantizar que la auditoría de IA se implemente con éxito. En primer lugar, en la práctica, la auditoría requerirá profesionales con experiencia clínica y técnica para investigar y prevenir errores de IA y para interrogar cuidadosamente los errores antes y durante la implementación en el mundo real. Sin embargo, los expertos con conjuntos de habilidades computacionales y clínicas aún no son comunes. Los institutos de atención médica, las empresas de IA y los gobiernos deben invertir en la mejora de las habilidades de los trabajadores de la salud para que estos expertos puedan convertirse en una parte integral del proceso de desarrollo de la IA médica.
En segundo lugar, los estándares de toda la industria para monitorear las herramientas médicas de IA a lo largo del tiempo deben ser aplicados por los organismos reguladores clave. Los investigadores están desarrollando herramientas para identificar cuándo un algoritmo se clasifica erróneamente debido a cambios en los datos o el entorno, pero estas herramientas deben ser respaldadas de manera sostenida y estandarizada, lideradas por reguladores, sistemas de salud y desarrolladores de IA.
En tercer lugar, el principal problema que puede exacerbar los errores en la IA es la falta de transparencia de los datos, el código y los parámetros debido a las preocupaciones de propiedad intelectual. Liu y sus colegas enfatizan que gran parte del beneficio que proporcionaría el software y el acceso a los datos se puede obtener a través de un portal web con la capacidad de probar el modelo en nuevos datos y recibir resultados del modelo. Oakden-Rayner dijo: «Los desarrolladores de IA tienen la responsabilidad de facilitar la auditoría para los médicos, especialmente al proporcionar detalles claros de cómo funciona su sistema y cómo se construyó».
Fuente: The Lancet Digital Health, 5 de bril 2022


