Cosas buenas del Reglamento de Inteligencia Artificial #AIA, a continuación. Iré cortando y pegando lo que vea más interesante. A mí me sirve como documento de trabajo y ustedes se ahorran leerse un tocho de 172 páginas.

#AI #AIA #Reglamento #InteligenciaArtificial #UE

(17 bis) Los sistemas de IA utilizados por las autoridades encargadas de la aplicación de la ley o en su nombre para predecir la probabilidad de que una persona física cometa infracciones penales o reincida en su comisión, sobre la base de la elaboración de perfiles y evaluaciones de riesgos individuales, presentan un riesgo particular de discriminación contra determinadas personas o grupos de personas, ya que violan la dignidad humana...
... así como el principio jurídico clave de presunción de inocencia. Por lo tanto, dichos sistemas de IA deben prohibirse.

Enmienda al considerando 37

'En particular, los niños constituyen un grupo de personas especialmente vulnerable y requieren salvaguardias adicionales. Por tanto, los sistemas de IA destinados a conformar el desarrollo de los niños a través de la educación personalizada o el desarrollo cognitivo o emocional deben clasificarse como sistemas de IA de alto riesgo.'

Enmienda al considerando 38

(38) Las actuaciones de las autoridades encargadas de la aplicación de la ley que implican determinados usos de sistemas de IA se caracterizan por un importante desequilibrio de poder y pueden dar lugar a la vigilancia, la detención o la privación de libertad de una persona física, así como a otros efectos negativos sobre los derechos fundamentales que garantiza la Carta...

... En particular, si el sistema de IA no está entrenado con datos de buena calidad, no cumple los requisitos oportunos en términos de precisión o solidez, o no se diseña y prueba debidamente antes de introducirlo en el mercado o ponerlo en servicio, puede señalar a personas de manera discriminatoria, incorrecta o injusta.
.... entre dichos sistemas de IA de alto riesgo deben incluirse, en particular, los sistemas de IA que las autoridades encargadas de la aplicación de la ley utilicen, los polígrafos y herramientas similares, o los sistemas utilizados para detectar el estado emocional de una persona física; para detectar ultrafalsificaciones; para evaluar la fiabilidad de las pruebas en un proceso penal; para elaborar perfiles durante la detección, la investigación o el enjuiciamiento de infracciones penales...

(40) ...En particular, a fin de evitar el riesgo de posibles sesgos, errores y opacidades, procede considerar de alto riesgo aquellos sistemas de IA cuyo objetivo es ayudar a las autoridades judiciales a investigar e interpretar los hechos y el Derecho y a aplicar la ley a unos hechos concretos.

#Enmienda #JuezDredd

(40) ...los sistemas de IA utilizados en las campañas políticas al objeto de influir en el voto de las personas físicas en las elecciones locales, nacionales o al PE o para el recuento y el tratamiento de los votos en dichas elecciones deben clasificarse como sistemas de IA de alto riesgo

#Enmienda #AntiTrump

(40 bis) Determinados sistemas de IA deben estar sujetos a requisitos de transparencia y ser clasificados al mismo tiempo como sistemas de IA de alto riesgo, habida cuenta de su potencial para engañar y causar daños tanto individuales como sociales... En particular, los sistemas de IA que generan ultrafalsificaciones que representan a personas existentes tienen el potencial de manipular a las personas físicas que están expuestas a dichas ultrafalsificaciones...

#Enmienda #Anti #DeepFake

... y de perjudicar a las personas que representan o tergiversan, mientras que los sistemas de IA que, sobre la base de una aportación humana limitada, generan textos complejos, como artículos de prensa, artículos de opinión, novelas, guiones y artículos científicos («autores de IA»), tienen el potencial de manipular, engañar o exponer a las personas físicas a sesgos integrados o inexactitudes.

Art. 5. PROHIBICIÓN de sistemas de IA para llevar a cabo evaluaciones de riesgo individuales de personas físicas con el objetivo de determinar el riesgo de que cometan infracciones penales o reincidan en su comisión, o para predecir la comisión o reiteración de un delito real o potencial mediante la elaboración del perfil de personas físicas o la evaluación de rasgos y características de la personalidad o conductas delictivas pasadas de personas físicas o grupos de personas físicas.

#PreCrimen

Se advierte a los lectores que los hashtags #Precrimen #JuezDredd #DeepFake y #AntiTrump son licencias literarias del cronista, no incluidas en el Reglamento, y solo tienen la finalidad de amenizar la lectura de este maldito tocho, escrito con el típico estilo chupatintas de los burócratas del Parlamento Europeo.

Seguimos.

Art. 29

1 bis. Cuando proceda, los usuarios de sistemas de IA de alto riesgo cumplirán los requisitos de supervisión humana establecidos en el presente Reglamento.

1 ter. Los usuarios de sistemas de IA de alto riesgo velarán por que las personas físicas encargadas de garantizar la supervisión humana de los sistemas de IA de alto riesgo sean competentes, estén debidamente cualificadas y formadas, y dispongan de los recursos necesarios...

Artículo 29 – 6 ter. Los usuarios de sistemas de IA que generen, sobre la base de aportaciones humanas limitadas, contenidos de texto complejos, como artículos de prensa, artículos de opinión, novelas, guiones y artículos científicos, harán saber de manera clara e inteligible que el contenido de texto ha sido generado o manipulado artificialmente, incluso a las personas físicas que estén expuestas al contenido cada vez que estén expuestas al mismo.
Artículo 68 undecies 1. Las personas físicas o los grupos de personas físicas afectadas por un sistema de IA que tenga cabida dentro del ámbito de aplicación del presente Reglamento tendrán derecho a presentar una reclamación contra los proveedores o usuarios de dicho sistema de IA ante la autoridad nacional de supervisión del Estado miembro en el que tengan su lugar de residencia o su lugar de trabajo habitual o en el que se haya producido la presunta infracción...

Y hasta aquí he llegado. Recomiendo leer sobre todo el anexo 3, larguísimo, que enumera los sistemas AI de alto riesgo. Aquí el borrador con las enmiendas:

https://www.europarl.europa.eu/doceo/document/CJ40-PR-731563_ES.html

#MinorityReport #HAL9000 #SKYNET #AI #AyAyAy

PROYECTO DE INFORME sobre la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión | CJ40_PR(2022)731563 | Parlamento europeo

PROYECTO DE INFORME sobre la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (COM(2021)0206 - C9-0146/2021 - 2021/0106(COD)) Comisión de Mercado Interior y Protección del Consumidor Comisión de Libertades Civiles, Justicia y Asuntos de Interior Ponentes: Brando Benifei, Ioan-Dragoş Tudorache

@bufetalmeida tens cap article? m'agradaria difondre'l. gràcies per la teva labor pedagògica 🤓
@bufetalmeida la pregunta es; qué ley puede controlar un sistema que poco a poco se separa del estado?