Escuchando los tremendos informes de la coalicción de #IACiudadana.

Ahora @AlgoRace

Diariamente, decisiones automatizadas invisibles influyen en la vida de las personas. Todos los algoritmos se pueden equivocar, a veces, con consecuencias graves, incluso letales. Por aquí se explica por qué pedimos un registro de algoritmos desde la coalición #IACiudadana: https://telos.fundaciontelefonica.com/si-el-algoritmo-se-equivoca-quien-repara-los-danos/
Si el algoritmo se equivoca, ¿quién repara los daños? - Telos Fundación Teléfonica

La inteligencia artificial se está expandiendo rápidamente por su promesa de eficiencia y ahorro de tiempo en múltiples procesos. Pero todavía no es perfecta. Diariamente decisiones automatizadas invisibles influyen en la vida de las personas. Existen algoritmos para determinar si una persona merece la libertad condicional, si una víctima de violencia está en peligro o si alguien debe obtener una pensión de bienestar social. Y todos ellos se equivocan a veces, con consecuencias graves, incluso, letales.

Telos Fundación Teléfonica - web revista Telos Fundación Teléfonica

Desde la coalición #IACiudadana proponemos que el Gobierno de España cree un registro público y obligatorio de todos los algoritmos que toman decisiones con impacto en lo público.

Hace falta saber qué sistemas se están usando, cómo se han diseñado, si han sido evaluados o tienen riesgos.

Tras la petición de la plataforma #IACiudadana al Gobierno central para la creación de un Registro de Algoritmos, hemos preguntado al Gobierno Vasco. El catálogo está en Open Data Euskadi opendata.euskadi.eus/contenidos/d... Por ahora solo hay 13 (salud, educación, empleo, atención ciudadana...).
Bluesky

Bluesky Social

Te niegan una ayuda, no te atienden en un servicio público o te someten a controles en la frontera… y nadie sabe explicarte por qué. A veces, ni siquiera hay una persona detrás de la decisión. Y no hay forma sencilla de saber qué algoritmos usa la administración pública.

Por eso, desde la coalición #IACiudadana proponemos un registro de algoritmos nacional, obligatorio y accesible, que permita saber qué algoritmos se usan, para qué y con qué efectos. 🧵 👇

https://civio.es/novedades/2025/03/14/registro-de-algoritmos-ia-transparencia-espana/

Un registro de algoritmos, el primer paso para una IA transparente en España

¿Puede un país garantizar los derechos de su ciudadanía si no sabe qué decisiones toman sus algoritmos? Frente a los límites del Reglamento europeo, la coalición IA Ciudadana propone crear un registro nacional, obligatorio y accesible, que permita saber qué algoritmos se usan, para qué y con qué efectos.

Civio
La coalición #IACiudadana pide al Gobierno un registro central de algoritmos transparente para evitar discriminaciones de la IA 📌 iaciudadana.org @civio.es @algorights.mastodon.social.ap.brid.gy @digitalfems.bsky.social @algorace.bsky.social @politicalwatch.es @komons.bsky.social #AIEthics
Bluesky

Bluesky Social

Desde la coalición #IACiudadana proponemos que el Gobierno de España cree un registro público y obligatorio de todos los algoritmos que toman decisiones con impacto en lo público.

Hace falta saber qué sistemas se están usando, cómo se han diseñado, si han sido evaluados o tienen riesgos.

El primer paso para saber si los algoritmos que utilizan administraciones públicas y empresas son justos es conocer cuáles son esos algoritmos y cómo funcionan.

La coalición #IACiudadana pide al Gobierno un registro central de algoritmos transparente para evitar discriminaciones de la #inteligenciaartificial: https://iaciudadana.org/2025/03/17/la-coalicion-ia-ciudadana-pide-al-gobierno-un-registro-central-de-algoritmos-transparente-para-evitar-discriminaciones-de-la-inteligencia-artificial/

La coalición IA Ciudadana pide al Gobierno un registro central de algoritmos transparente para evitar discriminaciones de la inteligencia artificial 

¿Quién vigila a los algoritmos? 👀

¿Puede un país garantizar los derechos de su ciudadanía sin saber qué decisiones toman sus algoritmos? Desde la coalición #IACiudadana proponemos crear un registro nacional, obligatorio y accesible, para saber qué algoritmos se usan, para qué y con qué efectos. ⬇️

https://civio.es/novedades/2025/03/14/registro-de-algoritmos-ia-transparencia-espana/

Un registro de algoritmos, el primer paso para una IA transparente en España

¿Puede un país garantizar los derechos de su ciudadanía si no sabe qué decisiones toman sus algoritmos? Frente a los límites del Reglamento europeo, la coalición IA Ciudadana propone crear un registro nacional, obligatorio y accesible, que permita saber qué algoritmos se usan, para qué y con qué efectos.

Civio

Desde Algorights consideramos que el texto final de la #AiAct, si bien conlleva ciertas mejoras y garantías, es insuficiente para proteger los derechos humanos en el ámbito de #IA. Y por tanto seguiremos demandando regulación y políticas públicas más audaces.

Por ejemplo, esto que pedimos al Ministerio de Transformación Digital junto con la coalición #IACiudadana.