Lunes, 06 de abril, 2026

Las propuestas presentadas con el pretexto de “simplificación” constituyen un recorte sin precedentes de los derechos online en el ámbito de la UE que nos protegen de la vigilancia, la discriminación mediante sistemas de IA y muchos más daños a manos de empresas y Estados


El año pasado, la Comisión Europea lanzó una iniciativa para simplificar las leyes vigentes de la UE sobre inteligencia artificial (IA) y protección de datos, alegando que “impulsaría la competitividad” y reduciría “los trámites burocráticos”. En noviembre de 2025, presentó propuestas para introducir cambios radicales en leyes de envergadura como la relativa a la inteligencia artificial y el Reglamento general de protección de datos (RGPD).

Están en juego las normas que nos protegen tanto dentro como fuera de Internet. Las empresas hacen un gran esfuerzo para desacreditar la regulación, pero las regulaciones protegen nuestros derechos de ser aplastados por Estados y gobiernos. Protegen nuestro medioambiente, nuestros derechos laborales, nuestros derechos online y muchos más.

Con el respaldo de empresas poderosas, lo que se conoce como “Reglamento ómnibus digital” de la Comisión amenaza con debilitar las normas digitales de la Unión que en su día se consideraron referencias globales para la privacidad y la IA. Esto se basa en una falsa dicotomía entre regulación e innovación, defendida por las grandes empresas tecnológicas que buscan un entorno sin reglas que dé prioridad a los beneficios a cualquier precio. La verdadera innovación significa encontrar formas de garantizar que los beneficios de las nuevas tecnologías son compartidos por la sociedad en general y no sirven únicamente a los intereses de los oligarcas de las grandes empresas tecnológicas.

Las propuestas presentadas con el pretexto de “simplificación” constituyen un recorte sin precedentes de los derechos online en el ámbito de la UE que nos protegen de la vigilancia, la discriminación mediante sistemas de IA y muchos más daños a manos de empresas y Estados. 

¿Quién se beneficia de la desregulación/simplificación de la IA y quién es más probable que sufra las mayores consecuencias?  

El proceso de “simplificación” es un proceso de desregulación que probablemente beneficiará a los intereses de las empresas. Las grandes empresas tecnológicas llevan años oponiéndose a los intentos de regularlas, calificando el contenido de las normas de gobernanza de censura y —con el auge de la IA— presionando a favor de un mayor acceso a nuestros datos para alimentar sus modelos de negocio basados en la vigilancia. Los cambios propuestos a las leyes de la UE llegan en un momento en el que las grandes empresas tecnológicas intensifican sus actividades de presión en instituciones de la Unión en Bruselas: solamente Amazon gastó siete millones de euros en captación de apoyos en un solo año.

La presión se intensifica en diferentes áreas de regulación y tiene como consecuencia la reducción de protecciones medioambientales, el menoscabo de la gobernanza empresarial y la erosión de los derechos digitales. Todo ello constituye un esfuerzo coordinado para debilitar la rendición de cuentas de las empresas.

La supresión de estas medidas de protección nos pone en peligro a toda la ciudadanía.

¿Qué cambios propone el “Reglamento ómnibus digital?

Hasta ahora, la Comisión ha dado a conocer el “paquete digital” integrado por el Reglamento ómnibus digital y el Reglamento ómnibus digital sobre la IA, que afecta a muchas leyes, especialmente al RGPD y a la Ley de IA.

El Reglamento general de protección de datos (RGPD)

El RGPD es una ley de la UE que protege los datos personales regulando la forma en que las organizaciones los recopilan, utilizan y protegen. Sin embargo, las reformas que propone la Comisión al Reglamento incluyen redefinir qué constituyen datos personales. La sociedad civil ha advertido de que esto debilitará las protecciones previstas en la ley y podría permitir a las grandes empresas tecnológicas recabar más datos personales para entrenar y operar sistemas de IA. Además, se exige a las empresas que eliminen esos datos de los sistemas de IA, pero únicamente si no exige “un esfuerzo desproporcionado”, expresión que no se define con claridad y queda abierto al uso indebido. Estas excepciones especiales para la IA, como han señalado otros grupos de la sociedad civil, podrían socavar los fines básicos del RGPD, que son proteger a las personas del daño causado por la recopilación y el análisis masivos de su información personal.

Las reformas también limitan la capacidad de las personas de obtener acceso a sus propios datos, un derecho básico que les permite saber qué datos se conservan sobre ellas y cómo se están usando. Los cambios propuestos permitirían que los responsables del tratamiento denieguen una petición si consideran que es “para fines distintos de la protección de sus datos”.

En conjunto, estos cambios dejarían agujeros en la ley emblemática de la UE en materia de protección de datos, facilitarían que empresas y Estados recopilasen y manipulasen nuestros datos, y nos dificultaría saber qué se está haciendo con ellos, mucho más impedirlo.

La Ley de Inteligencia Artificial (IA)

La Ley de IA, que aún no ha entrado totalmente en vigor, es uno de los intentos globales más ambiciosos de proteger a las personas de los daños de los sistemas de IA. Pero los cambios propuestos en el Reglamento ómnibus sobre IA amenazan con socavar esto al debilitar las normas y retrasando su implementación, especialmente para sistemas de alto riesgo que son los más peligrosos para la salud, la seguridad o los derechos fundamentales de la ciudadanía de la UE.

Incluso con la Ley de IA vigente, las disposiciones sobre transparencia son deficientes. Por ejemplo, se permite que el proveedor (es decir, una empresa) determine si su propio sistema no debería considerarse de alto riesgo y publique sin más esta valoración en una base de datos de la UE. Según los cambios propuestos, desaparecería incluso esta salvaguardia mínima. Las empresas de IA ya no tendrían que publicar la valoración, lo que les da libertad total para decidir los niveles de riesgo que representan sus sistemas. Esta falta de transparencia hará más difícil que se cuestionen sus valoraciones.

Los cambios propuestos también retrasarían la implementación completa de la Ley de AI. Esto es especialmente preocupante, dado que la cláusula de derechos adquiridos por la que los sistemas de alto riesgo puestos en marcha antes de la fecha límite seguirían exentos de muchas obligaciones concebidas para mitigar los riesgos para los derechos humanos que representan.

¿Se verán afectadas otras leyes?

Se espera que haya más propuestas de “simplificación” en preparación que mermarán más nuestros derechos para satisfacer los intereses de las empresas, incluido un plan para reformar las “directrices para legislar mejor” que justificarán no elaborar políticas transparentes y participativas.

El “control de adecuación digital” o evaluación del efecto de las leyes digitales vigentes en la competitividad incluirá una “evaluación de la totalidad de los principales instrumentos jurídicos”, incluidos la Ley de Servicios Digitales (DSA) y el Reglamento de Mercados Digitales (DMA), proceso que se podría usar para justificar aún más la desregulación.

¿Por qué estos reglamentos son tan importantes para los derechos humanos?

La IA y los derechos humanos

A medida que se despliegan sistemas de IA en todo el mundo, no podría ser más clara la necesidad de una regulación más estricta. Con demasiada frecuencia, estos sistemas se basan en cantidades masivas de datos privados y públicos que reflejan injusticias sociales y dan lugar a resultados sesgados que desembocan en el aumento de la discriminación de algunos de los sectores más vulnerables de la sociedad.

Amnistía Internacional ha documentado, por ejemplo, que los cambios legislativos en Hungría permitieron el uso de tecnología de reconocimiento facial en reuniones pacíficas como las Marchas del Orgullo de Budapest y Pécs. En otros lugares, el uso de sistemas de IA para monitorear los movimientos de personas refugiadas y migrantes plantea riesgos graves para los derechos humanos, incluido el derecho a solicitar asilo. Otras formas de IA, como los algoritmos para la detección de fraudes que se usan como parte del “estado del bienestar digital”, han afectado desproporcionadamente a minorías étnicas, personas de ingresos bajos, y personas migrantes y refugiadas en varios países europeos como Dinamarca, Francia, Suecia y Países Bajos.

Protección de datos y derechos humanos

El RGPD es una de las leyes más importantes que protegen a las personas del uso indebido de sus datos personales por las grandes empresas tecnológicas y los Estados. Aunque su aplicación es insuficiente, el potencial de esta ley como baluarte contra el voraz apetito del modelo de negocio de Sillicon Valley, basado en la vigilancia ilegal, es de vital importancia. Las leyes de protección de datos son algunas de las herramientas más cruciales para luchar contra la recopilación masiva de nuestros datos, la perfilación discriminatoria, el reempaquetado y el análisis de datos personales con fines de reventa por parte de corredores de datos, y las empresas de publicidad online. Las lagunas de las leyes de protección de datos también pueden facilitar la distribución y venta de datos a autoridades estatales que pueden usarlos para perfilar, vigilar, negar derechos como las prestaciones sociales o incluso decidir si arrestarnos o detenernos.

¿Cuál es el siguiente paso?

Las propuestas de la Comisión no son un hecho consumado: en los próximos meses habrá negociaciones que decidirán la forma final que adoptarán. Ya hay señales alentadoras de que el Consejo Europeo y el Parlamento Europeo están oponiéndose a algunas de las disposiciones más perjudiciales del Reglamento ómnibus sobre IA. En una votación reciente, el Parlamento de la UE mantuvo el requisito de inscripción en registro para sistemas de alto riesgo, aunque en una forma debilitada, lo que significa que sigue habiendo problemas y que la batalla está lejos de haber terminado.

Los derechos humanos y el control de adecuación digital

Además del paquete digital, también suscita enorme preocupación el próximo control de adecuación digital. Se desconoce su alcance total, y es indefinido, pero ya se han mencionado la DSA y el DMA como objetivos potenciales para la simplificación, y solamente estos dos reglamentos ya suscitan seria preocupación.

La DSA tiene el potencial de ejercer cierto control sobre características peligrosas del modelo empresarial de las grandes empresas tecnológicas, incluida la amplificación algorítmica. La investigación de Amnistía Internacional vincula los algoritmos de las plataformas a la limpieza étnica contra la población musulmana rohinyá de Myanmar y a abusos graves contra los derechos humanos de la comunidad tigriana en Etiopía. En ambos casos, Meta no moderó y, en algunas ocasiones, amplificó activamente contenido dañino y discriminatorio en Facebook.

Debilitar la DSA y el DMA dejaría a las comunidades más expuestas a sufrir perjuicios por parte de los monopolios y a los efectos de las prácticas anticompetitivas de las grandes empresas tecnológicas. La investigación de Amnistía Internacional ha puesto de manifiesto que el amplio poder que ejercen, prácticamente sin control, en distintos sectores digitales representa un serio peligro para el derecho a la privacidad, el derecho a la no discriminación, la libertad de opinión y el acceso a la información, y les permite influir en los Estados para impedir una regulación que respete los derechos.

Aunque insuficiente, la legislación sobre derechos digitales de la UE ofrece protecciones esenciales contra este tipo de daños. En lugar de desmantelarlas, hace falta reforzarlas y hacer que se cumplan. La ciudadanía europea y de todo el mundo cuyos derechos se ven afectados debe oponerse a las propuestas de la Comisión y denunciar la “simplificación” por lo que es realmente: una privación de nuestros derechos para servir a los intereses de las grandes empresas tecnológicas y la IA.