Buscar
Cerrar este cuadro de búsqueda.
Escuela de Pensamiento
Buscar
Cerrar este cuadro de búsqueda.

Cómo debe responder el Derecho al uso de la inteligencia artificial en la salud

La inteligencia artificial (IA) está llamada a revolucionar muchas de las industrias y sectores económicos, y la sanidad es uno de los que más rápidamente se implanta. Sin embargo, su avance plantea dilemas éticos y legales: ¿cómo garantizar el anonimato de la información?, ¿puede decidir un algoritmo condicionado por sesgos de género o sesgos de edad?, ¿quién debe ser el responsable de los resultados de la aplicación de la IA?
¡Compártelo!

La publicación del informe Inteligencia Artificial en salud: retos éticos y legales, elaborado por el Observatorio de Tendencias en la Medicina del Futuro, trata de arrojar luz sobre estas y otras cuestiones. Su objetivo es garantizar que la digitalización de la medicina personalizada de precisión sienta las bases sobre supuestos sólidos.

Coordinado por Carlos Romeo, catedrático de Derecho Penal de la Universidad del País Vasco/EHU, y miembro del Consejo Científico de la Escuela de Pensamiento, la publicación plantea soluciones que “permitan que los sistemas de IA se empleen en la práctica clínica por profesionales pasando por la elaboración de códigos de conducta internacionales y garanticen los derechos de los individuos”.

Qué aporta la IA a la sanidad

Dos son las áreas de desarrollo de la AI en la sanidad.

  • Automatización de procesos. Se trata de la creación de herramientas capaces de resolver de forma eficiente tareas sencillas y repetitivas.
  • Resolución de problemas complejos de salud. Pero a la IA se le encargan también otras misiones más delicadas. La predisposición de las personas al desarrollo de determinadas enfermedades, la detección de portadores de enfermedades hereditarias o la predicción de tratamientos unipersonales son algunas de ellas.

 

Seis retos éticos y legales

Pero la eficiencia que puede aportar la AI a la práctica médica plantea nuevos retos a la sociedad y al profesional del derecho:

1. Garantizar el anonimato de los individuos y pacientes.

2. Protección de la información del individuo. Incluso cuando se garantiza el anonimato de la información, las tecnologías de Big Data pueden establecer relaciones entre datos masivos asignando los datos a personas concretas.

3. Evitar posibles sesgos. A la hora de tomar decisiones, hay que garantizar que la IA lo hace basándose exclusivamente en perfiles y en procesos de estratificación no en otro tipo de información.

4. Garantizar que la toma de decisiones automatizada se base exclusivamente en propuestas del sistema de IA o en perfiles obtenidos de los pacientes.

5. Asegurar la transparencia sobre los elementos esenciales. Del mismo modo, la información sobre el proceso por el cual un sistema de IA llega a una conclusión decisoria debe ser abierta.6.

6. Establecer a quién atribuir y quién debe asumir responsabilidades.

 

Los derechos a los que afecta

Ante el escenario descrito, la publicación defiende que jurídicamente “el punto de partida deben ser los derechos fundamentales y libertades públicas de los individuos o del conjunto de la sociedad, y que en un futuro podrían reconocerse nuevos derechos derivados del uso del big data y la IA”.

De este modo, las dos referencias básicas para proteger estos derechos del paciente son el Reglamento General de Protección de Datos (RGPD) y la Ley Orgánica de Protección de Datos y Garantía de los Derechos Digitales (LO 3/2018 del 5 de diciembre).

Se trata de reconocer un conjunto de derechos a favor del usuario. Estos se pueden clasificar en: “Derechos respecto a la gestión de los datos empleados en los procesos de aprendizaje de los algoritmos de IA y en los derechos respecto a la toma de decisiones basada en los resultados obtenidos con herramientas de IA”. Entre otros, estaríamos hablando del derecho a la información sanitaria, el respeto al derecho a la intimidad y a la protección de los datos personales y a la autonomía del paciente.

11 recomendaciones para el uso ético y legal de la IA

La mayor aportación del informe llega en forma de once conclusiones y reflexiones:

  • Podrán ser instrumentos de ayuda en la toma de decisiones del profesional sanitario, sin llegar nunca a reemplazarlo.
  • Se debe formar a los profesionales en este ámbito.
  • Las decisiones de los profesionales de la salud podrán apoyarse en la IA pero deberán evitar adoptarlas de manera rutinaria, se debe atender a cada situación individual.
  • Habrá que reflexionar para anticipar posibles situaciones como la autonomía total de la decisión de la máquina.
  • Seguir avanzando en la seguridad y en la protección de los datos.
  • Desarrollar mecanismos de validación y de formación de los miembros de los comités de ética de la investigación y de los comités asistenciales.
  • Reflexionar sobre cómo proteger las patentes o mecanismos de estas herramientas y su comercialización.
  • Elaborar un marco normativo adecuado a esta realidad.
  • Redactar códigos de conducta internacionales.
  • Introducir normativa con guías sobre el desarrollo de las herramientas de IA para, por ejemplo, evitar los sesgos.
  • Garantizar el principio de transparencia y de información para minimizar las reticencias al uso de estas herramientas.
En el marco del XI Foro de Economía, José Miguel Rodríguez Pardo, presidente de la Escuela de Pensamiento de Fundación Mutualidad, expone ante los congresistas medidas de sostenibilidad al sistema de pensiones como la optimización del salario en base a los tres pilares de la previsión social.
El 56,5% de las empresas de seguros no ofrecen un servicio diferen cial al colectivo sénior: conclusiones del informe de Fundación Mutualidad para conciliar oferta y demanda del sector.
Desde hace casi 300 años la contaminación, las emisiones de dióxido de carbono y la actividad humana están estrechamente relacionadas.