Queríamos irnos de vacaciones, pero resulta que hoy se cumple un año de la entrada en vigor de la #AiAct y... no tenemos buenas noticias.

Las autoridades de toda Europa se están preparando para aplicar la ley por fases, pero las protecciones por las que luchamos están en riesgo. A puerta cerrada, la Comisión Europea se está poniendo del lado de las grandes tecnológicas, y de algunos gobiernos de la UE. ⬇️

Este primer año, la Comisión Europea ha abierto diferentes consultas para preguntar sobre la aplicación de la Ley de IA. Pero en lugar de mejorar protecciones, sistemas de IA peligrosos pueden tener luz verde sin apenas supervisión ni rendición de cuentas. Con la excusa de la “simplificación”, están intentando debilitar las ya mínimas garantías legales. ⬇️

Mientras tanto, algunos gobiernos de la UE ya están explotando las lagunas de la Ley de IA para permitir usos peligrosos de estos sistemas para la vigilancia.

La IA ya se está usando para perfilar, y monitorear a personas en procesos migratorios y/o comunidades racializadas.

🇦🇹 En Austria, el gobierno usa sistemas biométricos para identificar activistas climáticos y manifestantes en las protestas.

🇭🇺 En Hungría, aprobaron una ley para usar reconocimiento facial en los eventos del Orgullo. ⬇️

Seguimos denunciando las lagunas de la #AiAct, por ejemplo...
- Permite que la policía y las autoridades migratorias operen en la opacidad, exentas de revelar los sistemas que utilizan. Si no se puede explicar cómo funciona un sistema ni a quién perjudica, no debe tener cabida.
- Permite que empresas y agencias de la UE utilcen IA dañina fuera de las fronteras europeas. Si algo no es compatible con los derechos humanos en Europa, tampoco debe tolerarse fuera. ⬇️

Hay sistemas que no necesitan regulación: simplemente, deben prohibirse. Por ejemplo...

- Puntuación social, incluso en procedimientos migratorios
- “Detectores de mentiras” con IA utilizados por policía y autoridades migratorias
- Toda forma de identificación biométrica en espacios públicos
- Sistemas de policía predictivos, incluidas las predicciones basadas en localización
- Herramientas de pronóstico en la gestión de fronteras
- Reconocimiento de dialectos usado en procedimientos de asilo
⬇️

Decenas de organizaciones de la sociedad civil europea llevamos años alertando sobre los riesgos de la IA y las carencias de la #AiAct. Infórmate, difunde y ayúdanos a seguir presionando.

Puedes seguir el hashtag #ProtectNotSurveil y la cuenta @edri. 🔚