Justicia y Paz, ante la votación en el Parlamento Europeo.
En el marco de la votación de la Ley de Inteligencia Artificial en el Parlamento Europeo, la sociedad civil pide a los miembros del Parlamento Europeo que garanticen que la Ley de Inteligencia Artificial de la UE prioriza los derechos fundamentales y protege a las personas afectadas por los sistemas de inteligencia artificial (IA).
Cada vez más vemos el despliegue de sistemas de IA para vigilarnos e identificarnos en espacios públicos, predecir nuestra probabilidad de delinquir, redirigir la vigilancia policial y el control de la inmigración a zonas ya excesivamente vigiladas, facilitar violaciones del derecho a solicitar asilo y de la presunción de inocencia, predecir nuestras emociones y categorizarnos mediante inferencias discriminatorias, así como tomar decisiones que determinan nuestro acceso a la asistencia social, la educación y al empleo.
Sin una regulación adecuada, los sistemas de IA exacerbarán los perjuicios sociales existentes de la vigilancia masiva, la discriminación estructural, el poder centralizado de las grandes empresas tecnológicas, la toma de decisiones públicas sin rendición de cuentas y la extracción medioambiental. La complejidad, la falta de rendición de cuentas y de transparencia pública, y los escasos procedimientos de reparación disponibles dificultan que las personas puedan ejercer sus derechos cuando se ven perjudicadas por los sistemas de IA. En particular, estos obstáculos suponen un riesgo especial para las personas más marginadas de la sociedad.
La complejidad, la falta de rendición de cuentas y de transparencia pública, y los escasos procedimientos de reparación disponibles dificultan que las personas puedan ejercer sus derechos cuando se ven perjudicadas por los sistemas de IA.
La Ley de Inteligencia Artificial de la Unión Europea puede, y debe, abordar estas cuestiones, garantizando que el desarrollo y el uso de la inteligencia artificial se realicen en un marco de responsabilidad, transparencia y limitaciones adecuadas basadas en los derechos fundamentales. Pedimos a los miembros del Parlamento Europeo que garanticen lo siguiente en la votación de la Ley de IA:
1. Capacitar a las personas afectadas por los sistemas de IA.
—Garantizar requisitos de accesibilidad horizontales e integrados para todos los sistemas de IA.
—Garantizar que las personas afectadas por los sistemas de IA sean notificadas y tengan derecho a buscar información cuando se vean afectadas por decisiones y resultados asistidos por IA.
—Incluir en derecho de las personas afectadas a presentar una denuncia ante una autoridad nacional, si se han violado sus derechos por el uso de un sistema de IA.
—Incluir el derecho a la representación de las personas físicas y el derecho de las organizaciones de interés público a presentar reclamaciones independientes ante una autoridad nacional de supervisión.
—Incluir el derecho a recursos efectivos en caso de vulneración de derechos.
2. Garantizar la rendición de cuentas y la transparencia en el uso de la IA.
—Incluir la obligación de que los usuarios realicen y publiquen una evaluación de impacto de derechos fundamentales antes de desplegar un sistema de IA de alto riesgo e implicar de manera significativa a la sociedad civil y a las personas afectadas en este proceso.
—Exigir a todos los usuarios de sistemas de IA de alto riesgo y a los usuarios de todos los sistemas en la esfera pública, que registren el uso del sistema en la base de datos europea de IA antes de su despliegue.
—Garantizar que el proceso de clasificación de los sistemas de IA de alto riesgo dé prioridad a la seguridad jurídica y no ofrezca a los proveedores ninguna laguna legal.
—Garantizar que los proveedores de IA con sede en la UE cuyos sistemas afecten a personas de fuera de la UE estén sujetos a los mismos requisitos que los de dentro de la UE.
3. Prohibir los sistemas de IA que supongan un riesgo inaceptable para los derechos fundamentales.
—Prohibición total de la identificación biométrica remota y en tiempo real en espacios de acceso público, por parte de todos los actores, sin excepción.
—Prohibición de todas las formas de sistemas predictivos y de elaboración de perfiles en la aplicación de la ley y la justicia penal (localización/basados en el lugar y basados en la persona).
—Prohibición de la IA en contextos migratorios para realizar evaluaciones y perfiles de riesgo individuales, basados en datos personales y sensibles, y sistemas de análisis predictivo cuando se utilicen para interceptar, restringir e impedir la migración.
—Prohibición de los sistemas de categorización biométrica que clasifican a las personas físicas en función de atributos sensibles o protegidos, así como el uso de cualquier sistema de categorización biométrica y de detección automática de comportamientos en espacios de acceso público.
—Prohibición del uso de sistemas de reconocimiento de emociones para inferir las alteraciones y los estados mentales de las personas a partir de datos físicos, fisiológicos, conductuales y biométricos.
Pedimos a los miembros del Parlamento Europeo que voten a favor de incluir estas protecciones en la Ley de IA y que garanticen que este Reglamento es un vehículo para la promoción de los derechos fundamentales y la justicia social.
Se puede ver una descripción detallada de cómo la Ley de IA puede proteger mejor los derechos fundamentales en la declaración firmada por 123 organizaciones de la sociedad civil. Más información sobre las enmiendas propuestas por la sociedad civil aquí.
La Comisión General de Justicia y Paz ha firmado esta declaración.
Fuente: www.religiondigital.org / Imagen: Pexels.