top of page

QuiƩn es responsable cuando la IA se equivoca

Solo cuatro países de la región europea de la OMS (8%) tienen estÔndares para determinar quién es responsable si una herramienta de inteligencia artificial (IA) comete un error o causa daños en entornos sanitarios, según un nuevo informe publicado por la Oficina Regional para Europa de la Organización Mundial de la Salud (OMS).

Ā 

IA se equivoca

De estos países, solo uno, Rusia, tiene estÔndares de responsabilidad completa según los criterios de la OMS. Existen normas de responsabilidad civil, pero son incompletas en España, Bélgica y Suecia.

Ā 

Esta falta de infraestructura legal llega en un momento en que dos tercios de los países de la región informan que utilizan IA para diagnósticos y la otra mitad emplea chatbots de IA para el apoyo al paciente, escribieron los autores del informe.

Ā 

Charlotte Blease, PhD, profesora asociada de salud digital en la Universidad de Uppsala, Suecia, y autora deĀ Dr Bot: Por quĆ© los mĆ©dicos pueden fallarnos — y cómo la IA podrĆ­a salvar vidas, dijo que laĀ IA avanza a toda velocidad, mientras nuestra alfabetización y leyes aĆŗn se atan los cordones. La mayorĆ­a de los paĆ­ses aĆŗn no cuentan con un plan adecuado de IA en salud: muchos documentos estratĆ©gicos pero muy poca inversión real. Estamos atornillando herramientas del siglo XXI en la ley del siglo XX.

Ā 

De los países encuestados por la OMS Europa, el 92 % afirmó que las normas de responsabilidad facilitarían la adopción generalizada de la IA en la sanidad. Nueve de cada diez países dijeron que las directrices sobre transparencia, verificabilidad y explicabilidad también serían útiles.

Ā 

Esta falta de estƔndares claros, especialmente en materia de responsabilidad, crea desafƭos reales. Los clƭnicos pueden volverse reacios a confiar en la IA, temiendo repercusiones legales, o depender en exceso, asumiendo que el sistema asume la responsabilidad. Ambos escenarios aumentan los riesgos para la seguridad del paciente, dijo Hans Kluge, MD y director regional de la OMS para Europa.

Ā 

El informe de la OMS Europa se basa en datos de encuestas recogidas entre junio de 2024 y marzo de 2025 de 50 de los 53 estados miembros de la Región Europea de la OMS.

Ā 

¿Cómo decidir quién es responsable?

Ā 

El problema clave para desarrollar estÔndares de responsabilidad civil para la IA en la sanidad radica en la brecha de responsabilidad, dijo MihÔly Héder, PhD, profesor asociado del Departamento de Filosofía e Historia de la Ciencia de la Universidad Tecnológica y Económica de Budapest.

Ā 

Un sistema que toma una decisión no es un agente legalmente responsable, ya que la sociedad no considera que sea un agente moral, una posición que podría mantenerse durante mucho tiempo. Por tanto, la responsabilidad debe asignarse a otro lugar, y esta redistribución estÔ lejos de ser trivial, afirmó.

Blease afirmó que los errores de IA en la sanidad no generarÔn un solo culpable, sino que compartirÔn la responsabilidad entre el desarrollador del sistema, el hospital que la implementó y el profesional que la utilizó. El reto radica en determinar hasta qué punto cada uno es responsable.

Ā 

Ā 

Kluge añadió que las redes neuronales y los modelos de aprendizaje profundo se adaptan con el tiempo, dificultando la aplicación de marcos tradicionales de responsabilidad por producto que podrían exigir responsabilidades a su desarrollador original. El "problema de las muchas manos" añade complejidad. El desarrollo de la IA implica numerosos contribuyentes, lo que dificulta rastrear el daño a un actor específico.

Ā 

MÔs allÔ de esto, muchos algoritmos avanzados funcionan como "cajas negras", lo que significa que clínicos y reguladores no entienden cómo los datos de entrada conducen a decisiones clínicas, algo que, según Kluge, complica la responsabilidad, dificulta la detección de daños y limita la compensación para las personas afectadas.

Ā 

Añadió que los hospitales podrían enfrentarse a responsabilidades si no actúan con cuidado al elegir o gestionar las herramientas de IA. Y si los fabricantes proporcionan advertencias claras y exigen que un profesional profesional capacitado opere el sistema, la responsabilidad de la operación segura puede recaer en los clínicos.

Ā 

El 12 de julio de 2024, la UE publicó la Ley de IA, el primer marco legal mundial para la IA. Define las aplicaciones de salud con IA como de "alto riesgo", lo que significa que deben cumplir con estrictos estÔndares de seguridad, calidad de datos, supervisión humana y transparencia. Sin embargo, las reglas exactas para estas aplicaciones de IA de alto riesgo solo entrarÔn en vigor en agosto de 2026 y agosto de 2027.

Ā 

"Los estƔndares pueden estar cada vez mƔs cerca en Europa, al menos sobre el papel, pero para los pacientes la realidad sigue siendo muy local; es decir, la experiencia en Estocolmo, Dublƭn o Bucarest sigue siendo muy diferente", dijo Blease.

Ā 

Dado que la mayoría de los países aún no cuentan con normas específicas de responsabilidad sanitaria relacionadas con IA, los organismos legales pueden optar por abordar los errores impulsados por la IA en la infraestructura actual. En Suecia, por ejemplo, los casos relacionados con la IA se gestionan a través de su "sistema de lesiones de pacientes sin culpa", que compensa primero a los pacientes y se encarga de la responsabilidad después, según Blease. Algo que creo que debe enfatizarse: esta caja negra de responsabilidad no es mucho mejor en medicina sin IA. Hay muy poca responsabilidad o admisión cuando ocurren errores en la sanidad, y con frecuencia ocurren debido a errores humanos, afirmó. Señaló que una ventaja de trabajar con IA es que es mÔs fÔcil interrogarla que a los médicos humanos gracias a las huellas digitales y a estÔndares técnicos explícitos. Esto, señaló, significa que las aplicaciones de IA pueden usarse para responsabilizar a los humanos, destacando cuando un clínico ignoró las indicaciones o no utilizó correctamente una herramienta. "En cierto modo, la IA puede aclarar la rendición de cuentas en ambas partes", dijo.


La OMS Europa estĆ” actualmente en conversaciones con los Estados miembros sobre la mejor vĆ­a a seguir para una hoja de ruta regional de IA en la sanidad, segĆŗn Kluge.

© 2019 Primera revista ecuatoriana de salud y ciencia médica

bottom of page