QuiƩn es responsable cuando la IA se equivoca
- Noticiero Medico
- hace 19 horas
- 4 Min. de lectura
Solo cuatro paĆses de la región europea de la OMS (8%) tienen estĆ”ndares para determinar quiĆ©n es responsable si una herramienta de inteligencia artificial (IA) comete un error o causa daƱos en entornos sanitarios, segĆŗn unĀ nuevo informeĀ publicado por la Oficina Regional para Europa de la Organización Mundial de la Salud (OMS).
Ā

De estos paĆses, solo uno, Rusia, tiene estĆ”ndares de responsabilidad completa segĆŗn los criterios de la OMS. Existen normas de responsabilidad civil, pero son incompletas en EspaƱa, BĆ©lgica y Suecia.
Ā
Esta falta de infraestructura legal llega en un momento en que dos tercios de los paĆses de la región informan que utilizan IA para diagnósticos y la otra mitad emplea chatbots de IA para el apoyo al paciente, escribieron los autores del informe.
Ā
Charlotte Blease, PhD, profesora asociada de salud digital en la Universidad de Uppsala, Suecia, y autora deĀ Dr Bot: Por quĆ© los mĆ©dicos pueden fallarnos ā y cómo la IA podrĆa salvar vidas, dijo que laĀ IA avanza a toda velocidad, mientras nuestra alfabetización y leyes aĆŗn se atan los cordones. La mayorĆa de los paĆses aĆŗn no cuentan con un plan adecuado de IA en salud: muchos documentos estratĆ©gicos pero muy poca inversión real. Estamos atornillando herramientas del siglo XXI en la ley del siglo XX.
Ā
De los paĆses encuestados por la OMS Europa, el 92 % afirmó que las normas de responsabilidad facilitarĆan la adopción generalizada de la IA en la sanidad. Nueve de cada diez paĆses dijeron que las directrices sobre transparencia, verificabilidad y explicabilidad tambiĆ©n serĆan Ćŗtiles.
Ā
Esta falta de estĆ”ndares claros, especialmente en materia de responsabilidad, crea desafĆos reales. Los clĆnicos pueden volverse reacios a confiar en la IA, temiendo repercusiones legales, o depender en exceso, asumiendo que el sistema asume la responsabilidad. Ambos escenarios aumentan los riesgos para la seguridad del paciente, dijo Hans Kluge, MD y director regional de la OMS para Europa.
Ā
El informe de la OMS Europa se basa en datos de encuestas recogidas entre junio de 2024 y marzo de 2025 de 50 de los 53 estados miembros de la Región Europea de la OMS.
Ā
¿Cómo decidir quién es responsable?
Ā
El problema clave para desarrollar estĆ”ndares de responsabilidad civil para la IA en la sanidad radica en la brecha de responsabilidad, dijo MihĆ”ly HĆ©der, PhD, profesor asociado del Departamento de FilosofĆa e Historia de la Ciencia de la Universidad Tecnológica y Económica deĀ Budapest.
Ā
Un sistema que toma una decisión no es un agente legalmente responsable, ya que la sociedad no considera que sea un agente moral, una posición que podrĆa mantenerse durante mucho tiempo. Por tanto, la responsabilidad debe asignarse a otro lugar, y esta redistribución estĆ” lejos de ser trivial, afirmó.
Blease afirmó que los errores de IA en la sanidad no generarÔn un solo culpable, sino que compartirÔn la responsabilidad entre el desarrollador del sistema, el hospital que la implementó y el profesional que la utilizó. El reto radica en determinar hasta qué punto cada uno es responsable.
Ā
Ā
Kluge aƱadió que las redes neuronales y los modelos de aprendizaje profundo se adaptan con el tiempo, dificultando la aplicación de marcos tradicionales de responsabilidad por producto que podrĆan exigir responsabilidades a su desarrollador original. El "problema de las muchas manos" aƱade complejidad. El desarrollo de la IA implica numerosos contribuyentes, lo que dificulta rastrear el daƱo a un actor especĆfico.
Ā
MĆ”s allĆ” de esto, muchos algoritmos avanzados funcionan como "cajas negras", lo que significa que clĆnicos y reguladores no entienden cómo los datos de entrada conducen a decisiones clĆnicas, algo que, segĆŗn Kluge, complica la responsabilidad, dificulta la detección de daƱos y limita la compensación para las personas afectadas.
Ā
AƱadió que los hospitales podrĆan enfrentarse a responsabilidades si no actĆŗan con cuidado al elegir o gestionar las herramientas de IA. Y si los fabricantes proporcionan advertencias claras y exigen que un profesional profesional capacitado opere el sistema, la responsabilidad de la operación segura puede recaer en los clĆnicos.
Ā
El 12 de julio de 2024, la UE publicó la Ley de IA, el primer marco legal mundial para la IA. Define las aplicaciones de salud con IA como de "alto riesgo", lo que significa que deben cumplir con estrictos estÔndares de seguridad, calidad de datos, supervisión humana y transparencia. Sin embargo, las reglas exactas para estas aplicaciones de IA de alto riesgo solo entrarÔn en vigor en agosto de 2026 y agosto de 2027.
Ā
"Los estĆ”ndares pueden estar cada vez mĆ”s cerca en Europa, al menos sobre el papel, pero para los pacientes la realidad sigue siendo muy local; es decir, la experiencia en Estocolmo, DublĆn o Bucarest sigue siendo muy diferente", dijo Blease.
Ā
Dado que la mayorĆa de los paĆses aĆŗn no cuentan con normas especĆficas de responsabilidad sanitaria relacionadas con IA, los organismos legales pueden optar por abordar los errores impulsados por la IA en la infraestructura actual. En Suecia, por ejemplo, los casos relacionados con la IA se gestionan a travĆ©s de su "sistema de lesiones de pacientes sin culpa", que compensa primero a los pacientes y se encarga de la responsabilidad despuĆ©s, segĆŗn Blease. Algo que creo que debe enfatizarse: esta caja negra de responsabilidad no es mucho mejor en medicina sin IA. Hay muy poca responsabilidad o admisión cuando ocurren errores en la sanidad, y con frecuencia ocurren debido a errores humanos, afirmó. SeƱaló que una ventaja de trabajar con IA es que es mĆ”s fĆ”cil interrogarla que a los mĆ©dicos humanos gracias a las huellas digitales y a estĆ”ndares tĆ©cnicos explĆcitos. Esto, seƱaló, significa que las aplicaciones de IA pueden usarse para responsabilizar a los humanos, destacando cuando un clĆnico ignoró las indicaciones o no utilizó correctamente una herramienta. "En cierto modo, la IA puede aclarar la rendición de cuentas en ambas partes", dijo.
La OMS Europa estĆ” actualmente en conversaciones con los Estados miembros sobre la mejor vĆa a seguir para una hoja de ruta regional de IA en la sanidad, segĆŗn Kluge.


