Algorights

@algorights
3.3K Followers
637 Following
599 Posts
Somos una red colaborativa para reivindicar los #DerechosHumanos en el ámbito de la #InteligenciaArtificial.
Réplica en Blueskyhttps://bsky.app/profile/algorights.mastodon.social.ap.brid.gy
También en Telegramhttps://t.me/algorights
🇪🇸 #Spain #Actions #Online #ChatControl Acabo de descubrir esta campaña, lanzada a finales de agosto por la FETAP (@cgt.es). Considerando lo peligrosa que es esta iniciativa Europea, y que España es una de los países que la apoyan… Firmen y compartan, ¡ánimo! Queda una semana. 🇪🇸🖋 nochatcontrol.org

¡Únete! - Chat Control, licenc...
¡Únete! - Chat Control, licencia para espiar

Únete a la campaña contra la implementación del Chat Control en la Unión Europea

Chat Control, licencia para espiar
📢 Together with 30 CSOs, we sent a letter to the European Commission and MSs to urge them to uphold their commitment to swiftly implement the #AI Act, without any delay or reopening of the legislation, and appoint national competent authorities. 👇🏻 Read the full statement: cdt.org/insights/joi...

Joint CSOs Open Letter on Keep...
Joint CSOs Open Letter on Keeping the AI Act National Implementation on Track

CDT Europe, together with 30 other civil society organisations, wrote an open letter to the European Commission and Member States to express our concerns regarding the timely implementation of the AI Act.

Center for Democracy and Technology
Por si no os habéis enterado de la tremenda buena noticia que nos dieron ayer desde @civio, aquí va otra vez: el Tribunal Supremo ha confirmado que los algoritmos que usan las administraciones públicas para tomar decisiones deben ser transparentes. https://civio.es/novedades/2025/09/17/civio-abre-camino-en-la-transparencia-algoritmica-el-supremo-condena-al-gobierno-a-entregar-el-codigo-fuente-de-bosco/
Civio abre camino en la transparencia algorítmica: el Supremo condena al Gobierno a entregar el código fuente de BOSCO

La sentencia, que crea jurisprudencia, considera que el uso de aplicaciones en la toma de decisiones públicas debe ir acompañada de transparencia que permita su fiscalización. Rechaza que la seguridad nacional o la propiedad intelectual puedan limitar de forma absoluta este “derecho constitucional”.

Civio
Diariamente, decisiones automatizadas invisibles influyen en la vida de las personas. Todos los algoritmos se pueden equivocar, a veces, con consecuencias graves, incluso letales. Por aquí se explica por qué pedimos un registro de algoritmos desde la coalición #IACiudadana: https://telos.fundaciontelefonica.com/si-el-algoritmo-se-equivoca-quien-repara-los-danos/
Si el algoritmo se equivoca, ¿quién repara los daños? - Telos Fundación Teléfonica

La inteligencia artificial se está expandiendo rápidamente por su promesa de eficiencia y ahorro de tiempo en múltiples procesos. Pero todavía no es perfecta. Diariamente decisiones automatizadas invisibles influyen en la vida de las personas. Existen algoritmos para determinar si una persona merece la libertad condicional, si una víctima de violencia está en peligro o si alguien debe obtener una pensión de bienestar social. Y todos ellos se equivocan a veces, con consecuencias graves, incluso, letales.

Telos Fundación Teléfonica - web revista Telos Fundación Teléfonica

Decenas de organizaciones de la sociedad civil europea llevamos años alertando sobre los riesgos de la IA y las carencias de la #AiAct. Infórmate, difunde y ayúdanos a seguir presionando.

Puedes seguir el hashtag #ProtectNotSurveil y la cuenta @edri. 🔚

Hay sistemas que no necesitan regulación: simplemente, deben prohibirse. Por ejemplo...

- Puntuación social, incluso en procedimientos migratorios
- “Detectores de mentiras” con IA utilizados por policía y autoridades migratorias
- Toda forma de identificación biométrica en espacios públicos
- Sistemas de policía predictivos, incluidas las predicciones basadas en localización
- Herramientas de pronóstico en la gestión de fronteras
- Reconocimiento de dialectos usado en procedimientos de asilo
⬇️

Seguimos denunciando las lagunas de la #AiAct, por ejemplo...
- Permite que la policía y las autoridades migratorias operen en la opacidad, exentas de revelar los sistemas que utilizan. Si no se puede explicar cómo funciona un sistema ni a quién perjudica, no debe tener cabida.
- Permite que empresas y agencias de la UE utilcen IA dañina fuera de las fronteras europeas. Si algo no es compatible con los derechos humanos en Europa, tampoco debe tolerarse fuera. ⬇️

Mientras tanto, algunos gobiernos de la UE ya están explotando las lagunas de la Ley de IA para permitir usos peligrosos de estos sistemas para la vigilancia.

La IA ya se está usando para perfilar, y monitorear a personas en procesos migratorios y/o comunidades racializadas.

🇦🇹 En Austria, el gobierno usa sistemas biométricos para identificar activistas climáticos y manifestantes en las protestas.

🇭🇺 En Hungría, aprobaron una ley para usar reconocimiento facial en los eventos del Orgullo. ⬇️

Este primer año, la Comisión Europea ha abierto diferentes consultas para preguntar sobre la aplicación de la Ley de IA. Pero en lugar de mejorar protecciones, sistemas de IA peligrosos pueden tener luz verde sin apenas supervisión ni rendición de cuentas. Con la excusa de la “simplificación”, están intentando debilitar las ya mínimas garantías legales. ⬇️

Queríamos irnos de vacaciones, pero resulta que hoy se cumple un año de la entrada en vigor de la #AiAct y... no tenemos buenas noticias.

Las autoridades de toda Europa se están preparando para aplicar la ley por fases, pero las protecciones por las que luchamos están en riesgo. A puerta cerrada, la Comisión Europea se está poniendo del lado de las grandes tecnológicas, y de algunos gobiernos de la UE. ⬇️