«Compartir el historial médico con ChatGPT es un riesgo para nuestros datos personales», advierte ASHO
- La compañía health-tech catalana ASHO advierte de los riesgos para la privacidad y la seguridad de los pacientes ante el envío de datos clínicos sensibles a plataformas de inteligencia artificial
- Desde el departamento de IA de ASHO alertan de que compartir información clínica sensible implica eludir las barreras de seguridad que protegen los datos de los pacientes
Compartir el historial médico con plataformas de inteligencia artificial como ChatGPT Health puede poner en riesgo la privacidad de los pacientes. Así lo advierte la health-tech catalana ASHO, que alerta de la pérdida de control sobre los datos clínicos cuando se introducen fuera de los sistemas sanitarios.
Desde el departamento de inteligencia artificial de ASHO explican que, en los hospitales y centros sanitarios, la información de los pacientes se almacena en entornos seguros y bajo estrictas normativas como el Reglamento General de Protección de Datos (RGPD), además de contar con infraestructuras que cumplen con los máximos niveles del Esquema Nacional de Seguridad (ENS). Sin embargo, estas garantías desaparecen cuando los datos se comparten con plataformas externas como ChatGPT Health.
Al tratarse de una empresa multinacional con servidores distribuidos en todo el mundo, OpenAI no asegura las mismas medidas de protección y control que los sistemas sanitarios españoles. “Aunque residamos en España y demos nuestros datos a ChatGPT, la información clínica deja de estar bajo control hospitalario y queda fuera de todas esas salvaguardas”, explican desde ASHO.
Además, advierten de que será OpenAI quien tenga el control sobre los datos, sin necesidad de permisos adicionales para gestionarlos o entrenar sus algoritmos, ya que son los propios usuarios quienes los comparten de forma voluntaria. Como consecuencia, los hospitales y centros sanitarios certificados en protección de la información pierden el control sobre cualquier dato que se transfiera fuera de sus infraestructuras.
Por ello, ASHO hace un llamamiento a la concienciación: “La información sensible y privada debe almacenarse únicamente en entornos que garanticen medidas de seguridad, trazabilidad y control de accesos”.
La codificación sanitaria, clave para la ciberseguridad
La directora gerente de ASHO, Ruth Cuscó, subraya que la codificación sanitaria tiene como objetivo evitar que terceros puedan descifrar los datos de los pacientes sin su consentimiento. Compartir el historial médico fuera de los sistemas seguros rompe estas barreras de confidencialidad y sienta un precedente peligroso para la privacidad.
“Quienes comparten sus datos pueden ver su intimidad gravemente comprometida sin ser plenamente conscientes de ello”, advierte Cuscó.
Precaución ante las ‘alucinaciones’ de la IA generativa
Además de los riesgos de seguridad, ASHO recuerda que los algoritmos generativos, aunque avanzados, no son infalibles. Pueden producir errores de interpretación o imprecisiones en la información.
“Aunque se trate de modelos potentes y entrenados con conocimiento clínico, las respuestas que generan no deben tomarse al pie de la letra. Las llamadas ‘alucinaciones’ de la IA son comunes, incluso en entornos especializados”, explican desde el departamento de IA.
Por otro lado, desde ASHO insisten en que, aunque OpenAI haya señalado que ChatGPT Health no pretende sustituir a los profesionales sanitarios, todas las consultas médicas deben realizarse en un entorno clínico adecuado.
“Aunque la IA pueda ofrecer información basada en datos, no existe ningún marco que permita a los algoritmos diagnosticar patologías. Esa responsabilidad recae exclusivamente en los equipos médicos”, concluyen desde la compañía.

