Más allá de la corrección de sesgos: regulando la IA y sus desigualdades
Traducción libre del resumen ejecutivo del reporte “Beyond Debiasing: Regulating AI and its inequalities” por Agathe Balayn y Seda Gürses de la Universidad Tecnológica de Delft (TU Delft) en los Países Bajos, publicado el 21 de septiembre de 2021 por la asociación European Digital Rights (EDRi). El contenido original se encuentra disponible bajo una licencia Creative Commons Atribución/Reconocimiento 4.0 Internacional (CC BY 4.0). Informática Libre MX asume la plena responsabilidad de la traducción al español mexicano.
Los sistemas basados en la inteligencia artificial (IA) tienen un amplio impacto social y económico y se ha demostrado que exacerban la discriminación y las desigualdades estructurales. En términos generales, las entidades reguladoras han respondido a esta problemática enfocándose solamente en la solución tecnocéntrica de corregir los sesgos [debiasing] en los algoritmos y los conjuntos de datos. Al hacer esto, las entidades reguladoras se arriesgan a crear un problema mayor tanto para la gestión de la IA como para la democracia, pues este enfoque limitado reduce los complejos problemas socio-técnicos al campo del diseño y por lo tanto deja su solución en manos de las empresas de tecnología. Al pasar por alto los costosos entornos productivos que requiere el aprendizaje automático [machine learning], las entidades reguladoras permiten un modelo expansionista de la infraestructura de cómputo (nubes, teléfonos celulares y redes de sensores) controlado por el Big Tech [enlace agregado]. Las soluciones efectivas requieren de reglamentos audaces que ataquen la raíz del desequilibrio de poder inherente al despliegue generalizado de los sistemas basados en la IA.
En resumen, los documentos de políticas de la Unión Europea (UE) sobre la IA muestran que a la fecha los legisladores no se han involucrado genuinamente con la discriminación estructural producida por los sistemas basados en la IA, ni con la ciencia de la corrección de sesgos. El enfoque tecnocéntrico de los legisladores convierte a los proveedores de servicios en árbitros de la discriminación y la desigualdad, un planteamiento paradójico. En general, la formulación actual de las políticas sobre IA en la UE subestima las desigualdades que pueden materializarse con la IA y la manera en que su aplicación reafirma las infraestructuras de cómputo en manos del Big Tech.
A la luz de estas deficiencias en la formulación de las políticas sobre IA, así como de otros puntos de vista presentados más arriba, planteamos aquí seis recomendaciones para los legisladores, investigadores, defensores y activistas, y proponemos algunos marcos generales para hacer frente a las empresas de tecnología de aquí en adelante.