Martes, 13 de junio, 2023

El Parlamento Europeo debe utilizar la votación en sesión plenaria que consolidará su postura definitiva sobre la Ley de Inteligencia Artificial de la Unión Europea (Ley de IA) para prohibir los sistemas elaboración de perfiles racistas y discriminatorios que afectan a migrantes y a otros grupos marginados, ha dicho hoy Amnistía Internacional en vísperas de la votación, que tendrá lugar el 14 de junio.

Existe el riesgo de que el Parlamento Europeo acabe con  importantes protecciones en materia de derechos humanos conseguidas durante la votación de la Comisión del 11 de mayo,  y abra la puerta al uso de tecnologías que entran en conflicto directo con el derecho internacional de los derechos humanos.

Mher Hakobyan, asesor de Amnistía Internacional para el trabajo de incidencia sobre la regulación de la inteligencia artificial

La organización pide que el Parlamento Europeo prohíba el uso de tecnologías de vigilancia masiva —como las herramientas de identificación biométrica remota en diferido y en tiempo real— en la Ley de IA, que constituye un hito legislativo.

La investigación de Amnistía Internacional demuestra que la tecnología invasiva de reconocimiento facial amplía la actuación policial racista y discriminatoria contra personas racializadas, que incluye prácticas como la de parada y registro que afectan de manera desproporcionada a las personas de color. También se utiliza para impedir y restringir el desplazamiento de las personas migrantes y solicitantes de asilo.

“Existe el riesgo de que el Parlamento Europeo acabe con importantes protecciones en materia de derechos humanos conseguidas durante la votación de la Comisión del 11 de mayo, y abra la puerta al uso de tecnologías que entran en conflicto directo con el derecho internacional de los derechos humanos”, ha afirmado Mher Hakobyan, asesor de Amnistía Internacional para el trabajo de incidencia sobre la regulación de la inteligencia artificial.

Los órganos legislativos deben prohibir la elaboración de perfiles racistas y los sistemas de evaluación de riesgos, que etiquetan como ‘amenazas’ a las personas migrantes y solicitantes de asilo, así como las tecnologías que predicen movimientos fronterizos y niegan a las personas el derecho de asilo.

Mher Hakobyan, asesor de Amnistía Internacional para el trabajo de incidencia sobre la regulación de la inteligencia artificial

En su intento de reforzar los muros de la “Fortaleza Europa, los Estados de la UE han ido recurriendo cada vez más al uso de tecnologías opacas y hostiles para facilitar los abusos contra personas migrantes, refugiadas y solicitantes de asilo en sus fronteras.

“Ante la persistencia de semejante ambiente de falta de hospitalidad hacia personas que huyen de guerras y conflictos o que buscan una vida mejor, es fundamental que el Parlamento Europeo no desestime los daños que causan los sistemas racistas de IA. Los órganos legislativos deben prohibir la elaboración de perfiles racistas y los sistemas de evaluación de riesgos, que etiquetan como ‘amenazas’ a las personas migrantes y solicitantes de asilo, así como las tecnologías que predicen movimientos fronterizos y niegan a las personas el derecho de asilo”, ha añadido Mher Hakobyan.

Si bien la Ley de IA puede ayudar a evitar y reducir los daños causados por las nuevas tecnologías en Europa, es crucial que la UE no contribuya a violar los derechos humanos exportando tecnologías draconianas fuera de su territorio. La Ley de IA debe prohibir la exportación de cualquier sistema cuyo uso no esté permitido en la UE, como el reconocimiento facial y otras tecnologías de vigilancia.

La investigación de Amnistía Internacional ha identificado cámaras fabricadas por una empresa neerlandesa llamada TKH Security situadas en espacios públicos y montadas en infraestructura policial en la Jerusalén Oriental ocupada para afianzar el control del gobierno israelí sobre la población palestina y el sistema israelí de apartheid sobre esta población.

Investigaciones similares han revelado también que tres empresas con sede en Francia, Suecia y Países Bajos vendieron sistemas de vigilancia digital, como tecnología de reconocimiento facial (TRF) y cámaras de red, a actores clave del aparato de vigilancia masiva chino. En algunos casos, las infraestructuras exportadas por la UE se han utilizado contra la comunidad uigur y otros grupos étnicos predominantemente musulmanes en toda China.

“El Parlamento Europeo tiene la obligación de defender y hacer respetar los derechos humanos. Todo lo que no sea una prohibición absoluta de las tecnologías que se utilizan para la vigilancia masiva, la actuación policial racista y la elaboración de perfiles sería incumplir esa obligación”, ha afirmado Mher Hakobyan.

“Los órganos legislativos de la UE también deben garantizar que tecnologías prohibidas en el territorio de la Unión no se exportan para perpetrar abusos contra los derechos humanos en otros lugares. Esta ley debe proteger y promover los derechos humanos de todas las personas, no sólo de las que están en Europa.”

Información general

La Comisión Europea propuso una ley sobre el uso de la inteligencia artificial el 21 de abril de 2021. El Consejo de la UE, que representa a los gobiernos nacionales de la Unión, adoptó su posición en diciembre de 2022. El Parlamento Europeo se propone realizar una votación definitiva para fijar su posición oficial el 14 de junio, después de lo cual ambas instituciones, junto con la Comisión Europea, tendrán que acordar un texto común para el Reglamento.

Amnistía Internacional, como parte de una coalición de organizaciones de la sociedad civil encabezada por la Red Europea de Derechos Digitales (EDRi), viene pidiendo una regulación de la UE sobre la inteligencia artificial que proteja y promueva los derechos humanos.