¡Únete! - Chat Control, licenc...
| Réplica en Bluesky | https://bsky.app/profile/algorights.mastodon.social.ap.brid.gy |
| También en Telegram | https://t.me/algorights |
| Réplica en Bluesky | https://bsky.app/profile/algorights.mastodon.social.ap.brid.gy |
| También en Telegram | https://t.me/algorights |
CDT Europe, together with 30 other civil society organisations, wrote an open letter to the European Commission and Member States to express our concerns regarding the timely implementation of the AI Act.
La sentencia, que crea jurisprudencia, considera que el uso de aplicaciones en la toma de decisiones públicas debe ir acompañada de transparencia que permita su fiscalización. Rechaza que la seguridad nacional o la propiedad intelectual puedan limitar de forma absoluta este “derecho constitucional”.
La inteligencia artificial se está expandiendo rápidamente por su promesa de eficiencia y ahorro de tiempo en múltiples procesos. Pero todavía no es perfecta. Diariamente decisiones automatizadas invisibles influyen en la vida de las personas. Existen algoritmos para determinar si una persona merece la libertad condicional, si una víctima de violencia está en peligro o si alguien debe obtener una pensión de bienestar social. Y todos ellos se equivocan a veces, con consecuencias graves, incluso, letales.
Decenas de organizaciones de la sociedad civil europea llevamos años alertando sobre los riesgos de la IA y las carencias de la #AiAct. Infórmate, difunde y ayúdanos a seguir presionando.
Puedes seguir el hashtag #ProtectNotSurveil y la cuenta @edri. 🔚
Hay sistemas que no necesitan regulación: simplemente, deben prohibirse. Por ejemplo...
- Puntuación social, incluso en procedimientos migratorios
- “Detectores de mentiras” con IA utilizados por policía y autoridades migratorias
- Toda forma de identificación biométrica en espacios públicos
- Sistemas de policía predictivos, incluidas las predicciones basadas en localización
- Herramientas de pronóstico en la gestión de fronteras
- Reconocimiento de dialectos usado en procedimientos de asilo
⬇️
Mientras tanto, algunos gobiernos de la UE ya están explotando las lagunas de la Ley de IA para permitir usos peligrosos de estos sistemas para la vigilancia.
La IA ya se está usando para perfilar, y monitorear a personas en procesos migratorios y/o comunidades racializadas.
🇦🇹 En Austria, el gobierno usa sistemas biométricos para identificar activistas climáticos y manifestantes en las protestas.
🇭🇺 En Hungría, aprobaron una ley para usar reconocimiento facial en los eventos del Orgullo. ⬇️
Queríamos irnos de vacaciones, pero resulta que hoy se cumple un año de la entrada en vigor de la #AiAct y... no tenemos buenas noticias.
Las autoridades de toda Europa se están preparando para aplicar la ley por fases, pero las protecciones por las que luchamos están en riesgo. A puerta cerrada, la Comisión Europea se está poniendo del lado de las grandes tecnológicas, y de algunos gobiernos de la UE. ⬇️