Han de reconocerse las valiosas aportaciones que contiene el artículo de revisión de Núñez Reiz et al.1, sobre tecnologías disruptivas que, acertadamente consideran, pueden traer una revolución a la práctica moderna de la atención al paciente crítico. No obstante, nos gustaría realizar algunas consideraciones acerca de las cuestiones éticas y legales que suscita la utilización de dichos modelos para la toma de decisiones clínicas.
La literatura coincide en que un componente fundamental para lograr una implementación segura y efectiva de esas herramientas de Big Data Analysis (BDA) y Machine Learning (ML), es el desarrollo de los marcos regulatorios que aborden el desafío único que representa el actual ritmo de innovación, los riesgos significativos que implican y la naturaleza potencialmente fluida de los modelos de aprendizaje automático2.
En el desarrollo de estos marcos regulatorios, por supuesto que son relevantes las cuestiones apuntadas por Núñez Reiz et al., como la privacidad y la seguridad de los pacientes cuyos datos sirven para desarrollar estos modelos; sin embargo, los mayores riesgos de la implantación de estas tecnologías afectan, precisamente, al paciente crítico que es objeto de una decisión clínica por la utilización de una de esas herramientas de BDA y ML, esto es, el paciente ostenta un interés igualmente legítimo en el tratamiento automatizado de esos datos. Sin ir más lejos, el Reglamento General de Protección de Datos reconoce, entre otros, el derecho a obtener información significativa sobre la lógica aplicada por el algoritmo que realiza una predicción o inferencia sobre el estado de salud de un paciente —elaboración de un perfil en términos del reglamento—.
Ahora bien, la cuestión sobre la que nos gustaría incidir es que el daño individual producido por una herramienta de BDA y ML puede ser imperceptible o irreparable desde la perspectiva del individuo titular del derecho, pero puede afectar masivamente a los derechos fundamentales de sectores o conjuntos de la sociedad de una manera relevante en esta dimensión colectiva3. En este sentido, la literatura ha mostrado una creciente preocupación por la reproducción de sesgos raciales o de género en estos mecanismos4, que podrían resultar discriminatorios para dichos colectivos.
A fin de cuentas, el paciente crítico es el paradigma de esta problemática, puesto que el ejercicio de derechos individuales puede resultar inviable e ineficaz en la práctica, mientras que el establecimiento de un marco regulatorio con fundamento en la protección de derechos colectivos, con especial atención a los procesos de validación y supervisión de estos modelos o al papel que desempeñan los Comités de Ética a los que hacen referencia los autores, puede reducir considerablemente los riesgos a los que son expuestos los individuos en la implementación de estas tecnologías.
FinanciaciónEl presente trabajo se realiza en el marco de la financiación del Gobierno Vasco a Grupos de Investigación del Sistema Universitario Vasco (IT 1066-16).