Guía para la evaluación de impacto sobre los derechos fundamentales en el uso de inteligencia artificial (EIDF)
Enlace a la noticia en la página de la APDCAT: https://apdcat.gencat.cat/es/documentacio/intelligencia_artificial/index.html
La inteligencia artificial (IA) cada vez más presente en nuestra sociedad, entendida en un sentido amplio, podemos verla como una herramienta de apoyo a la toma de decisiones en cualquier ámbito. Este apoyo en la toma de decisiones afecta, y de forma muy relevante, a las personas, ya que los datos y la tecnología dibujan perfiles y patrones que sirven para decidir e influir directamente en ellos.
En este sentido, la Autoridad Catalana de Protección de Datos (APDCAT) ha elaborado una Guía con un modelo (pionero en Europa) y casos de uso para la evaluación de impacto sobre los derechos fundamentales en el uso de inteligencia artificial (EIDF), en línea con lo que establece el Reglamento de Inteligencia Artificial (RIA). El documento se ha trabajado en el marco del grupo de trabajo de “DPD en red”, y nace con la voluntad de ser un referente para otras organizaciones que necesiten llevar a cabo una EIDF.
En la Guía la APDCAT aborda la interacción de las EIDF con el RGPD, propone un modelo de EIDF y cuatro casos de uso.
Interacción con el RGPD.
- Art. 35.1 y 7 RGPD: incluye una evaluación de los riesgos para los derechos de los interesados y el RIA hace énfasis en la evaluación del impacto en los derechos individuales, independientemente del uso de datos personales en el desarrollo y la implementación de la IA, aunque existe una falta de orientación en la implementación del EIDF.
- Art 27.4 RIA: establece que si ya se cumple cualquiera de las obligaciones establecidas en el presente artículo mediante la EIPD realizada conforme al art 35 RGPD, la EIDF complementará dicha EIPD.
- Art 26. 9 RIA: los responsables de despliegue de IA deben utilizar la información facilitada en virtud del art. 13 RIA (transparencia y comunicación de información a responsables de despliegue) para cumplir su obligación de llevar a cabo una EIPD conforme al art. 35 RGPD.
Si los responsables del despliegue de la IA no cumplen las obligaciones de la EIDF en virtud del RIA, o si las autoridades competentes no aplican adecuadamente estas obligaciones, en el futuro las autoridades de protección de datos pueden desempeñar un papel activo en la aplicación de la EIDF de los sistemas de IA a través de las disposiciones del art. 35 RGPD, en la medida en que el RGPD sea aplicable (este es el caso en muchas situaciones en las que la IA afecte a personas y grupos, dada la amplia definición de datos personales y tratamiento de datos en el RGPD y el papel de los datos en el desarrollo, la implementación y el uso de la IA).
Teniendo en cuenta todos estos diferentes aspectos de la interacción entre la EIDF en el RIA y el art.35 RGPD, y dada también la experiencia de las autoridades de protección de datos en el tratamiento de cuestiones de derechos fundamentales, es adecuado y necesario que éstas autoridades desempeñen un papel activo a la hora de proporcionar orientación sobre la EIDF en el contexto de los sistemas de IA basados en datos personales.
Modelo:
En la primera parte se aborda el papel de la EIDF en el Reglamento de Inteligencia Artificial (RIA) y las fases que conforman el modelo adoptado par la APDCAT:
- Planificación y determinación del alcance.
- Recopilación de datos y análisis de riesgos:
- Variables clave para la evaluación de impacto.
- Variables y construcción del índice de impacto.
- Gestión de riesgos.
El modelo utilizado en los casos de uso se basa estas tres fases y consta de varios elementos:
- Cuestionario de planificación y alcance
- Matrices de riesgo
Casos de uso:
En la segunda parte se abordan los casos de uso, en este caso:
- Plataforma de analítica avanzada del aprendizaje.
- Una herramienta para la gestión de los recursos humanos.
- Una herramienta de imágenes médicas impulsada por IA para la detección del cáncer.
- ATENEA, IA al servicio de las personas mayores.
Archivos adjuntos