3 diciembre, 2025

Solo 4 de los 50 países europeos de la OMS tienen una estrategia específica de IA en salud

Por redacción puntocomunica
Share
  • El informe de la OMS revela que la mayoría de los Estados miembros carece de políticas nacionales dedicadas a la implementación de IA en el ámbito sanitario
  • “El retraso en la planificación estratégica limita el potencial de la IA para mejorar la salud de la población europea”, afirman desde el Departamento de IA de ASHO

Un informe reciente de la Organización Mundial de la Salud (OMS) basado en respuestas de cincuenta de sus Estados miembros revela que solo cuatro países cuentan con una estrategia nacional específica para la inteligencia artificial aplicada al sistema sanitario: Andorra, Finlandia, Eslovaquia y Suecia. El estudio advierte de una adopción acelerada de la IA en salud marcada por una ausencia preocupante de salvaguardas legales y éticas.

El análisis muestra que muchas tecnologías de IA ya se utilizan de forma generalizada en Europa. De hecho, según el informe de la OMS, 32 de los 50 países encuestados aplican sistemas de diagnóstico asistido por IA, especialmente en imagen médica, y alrededor de la mitad de los países utiliza chatbots o asistentes virtuales para la interacción con pacientes. Sin embargo, la expansión de estas herramientas se produce sin un marco legal robusto, dejando vulnerables tanto a pacientes como a profesionales.

Además, el informe de la OMS destaca la creación de health data hubs en varios países europeos como una iniciativa positiva que está impulsando la consolidación, interoperabilidad y gobernanza del dato sanitario. Estos centros nacionales o regionales de datos representan un avance relevante hacia ecosistemas más seguros, coordinados y preparados para integrar sistemas de IA de forma responsable.

La OMS subraya que solo cuatro de los cincuenta países encuestados cuentan con una estrategia nacional específica de IA en salud, mientras que otros siete países están desarrollando actualmente una estrategia. El resto, por su parte, depende de planes multisectoriales de IA donde la salud es una prioridad parcial.

Menos del 25 % de los países ofrece formación específica en IA a los profesionales sanitarios, y apenas 4 de 50 Estados miembros han establecido estándares de responsabilidad legal para los casos en que la IA falla.

Esto evidencia un retraso significativo en la preparación del capital humano y regulatorio necesario para un uso seguro de estas tecnologías. Además, la OMS alerta de que, sin estrategias claras, protección de datos robusta y una inversión en alfabetización digital, la IA podría agravar las desigualdades sanitarias y aumentar los riesgos de responsabilidad legal.

“El retraso estratégico limita el potencial de la IA sanitaria y aumenta el riesgo para pacientes y profesionales. Contar con una estrategia nacional específica permitiría planificar mejor los recursos, establecer responsabilidades legales claras y garantizar el uso ético y seguro de la inteligencia artificial en salud”, explican desde el departamento de IA de ASHO.

España y la necesidad de marcos legales para la IA en salud

España se encuentra entre los países que aún no han publicado una estrategia nacional específica de IA en salud, aunque existen planes generales de transformación digital en el sistema sanitario. La adopción de tecnologías de IA, especialmente en diagnóstico por imagen y herramientas de apoyo a la toma de decisiones clínicas está en expansión, pero la formación de profesionales y la regulación legal aún presentan vacíos importantes.

España, al igual que otros países europeos, necesita acelerar la definición de marcos legales y educativos que acompañen la innovación tecnológica, porque solo así la IA podrá mejorar la salud de manera segura y equitativa”, añaden desde el departamento de IA de ASHO.

El informe también pone de relieve la urgencia de crear estándares de responsabilidad para los sistemas de IA, reforzar la formación de los trabajadores sanitarios, asegurar la gobernanza de los datos y fomentar la participación pública, con los pacientes en el centro del diseño de los sistemas de IA.

La ausencia de estrategias nacionales específicas y de protección legal podría traducirse en riesgos concretos: decisiones sesgadas por datos incompletos, desigualdades en el acceso a la atención o exposición de pacientes y profesionales a errores o fallos de la IA, sin mecanismos claros de compensación o responsabilidad.