Escuchando los tremendos informes de la coalicción de #IACiudadana.
Ahora @AlgoRace
Escuchando los tremendos informes de la coalicción de #IACiudadana.
Ahora @AlgoRace
La inteligencia artificial se está expandiendo rápidamente por su promesa de eficiencia y ahorro de tiempo en múltiples procesos. Pero todavía no es perfecta. Diariamente decisiones automatizadas invisibles influyen en la vida de las personas. Existen algoritmos para determinar si una persona merece la libertad condicional, si una víctima de violencia está en peligro o si alguien debe obtener una pensión de bienestar social. Y todos ellos se equivocan a veces, con consecuencias graves, incluso, letales.
Desde la coalición #IACiudadana proponemos que el Gobierno de España cree un registro público y obligatorio de todos los algoritmos que toman decisiones con impacto en lo público.
Hace falta saber qué sistemas se están usando, cómo se han diseñado, si han sido evaluados o tienen riesgos.
Te niegan una ayuda, no te atienden en un servicio público o te someten a controles en la frontera… y nadie sabe explicarte por qué. A veces, ni siquiera hay una persona detrás de la decisión. Y no hay forma sencilla de saber qué algoritmos usa la administración pública.
Por eso, desde la coalición #IACiudadana proponemos un registro de algoritmos nacional, obligatorio y accesible, que permita saber qué algoritmos se usan, para qué y con qué efectos. 🧵 👇
https://civio.es/novedades/2025/03/14/registro-de-algoritmos-ia-transparencia-espana/
¿Puede un país garantizar los derechos de su ciudadanía si no sabe qué decisiones toman sus algoritmos? Frente a los límites del Reglamento europeo, la coalición IA Ciudadana propone crear un registro nacional, obligatorio y accesible, que permita saber qué algoritmos se usan, para qué y con qué efectos.
Desde la coalición #IACiudadana proponemos que el Gobierno de España cree un registro público y obligatorio de todos los algoritmos que toman decisiones con impacto en lo público.
Hace falta saber qué sistemas se están usando, cómo se han diseñado, si han sido evaluados o tienen riesgos.
El primer paso para saber si los algoritmos que utilizan administraciones públicas y empresas son justos es conocer cuáles son esos algoritmos y cómo funcionan.
La coalición #IACiudadana pide al Gobierno un registro central de algoritmos transparente para evitar discriminaciones de la #inteligenciaartificial: https://iaciudadana.org/2025/03/17/la-coalicion-ia-ciudadana-pide-al-gobierno-un-registro-central-de-algoritmos-transparente-para-evitar-discriminaciones-de-la-inteligencia-artificial/
¿Quién vigila a los algoritmos? 👀
¿Puede un país garantizar los derechos de su ciudadanía sin saber qué decisiones toman sus algoritmos? Desde la coalición #IACiudadana proponemos crear un registro nacional, obligatorio y accesible, para saber qué algoritmos se usan, para qué y con qué efectos. ⬇️
https://civio.es/novedades/2025/03/14/registro-de-algoritmos-ia-transparencia-espana/
¿Puede un país garantizar los derechos de su ciudadanía si no sabe qué decisiones toman sus algoritmos? Frente a los límites del Reglamento europeo, la coalición IA Ciudadana propone crear un registro nacional, obligatorio y accesible, que permita saber qué algoritmos se usan, para qué y con qué efectos.
Desde Algorights consideramos que el texto final de la #AiAct, si bien conlleva ciertas mejoras y garantías, es insuficiente para proteger los derechos humanos en el ámbito de #IA. Y por tanto seguiremos demandando regulación y políticas públicas más audaces.
Por ejemplo, esto que pedimos al Ministerio de Transformación Digital junto con la coalición #IACiudadana.