Reconnaissance faciale en temps rĂ©el, interprĂ©tation des Ă©motions, catĂ©gorisation des pensĂ©es religieuses, sexuelles et politiques⊠La France a activement militĂ© pour que ces pratiques soient permises par «âlâAI Actâ», le rĂšglement europĂ©en sur lâintelligence artificielle, rĂ©vĂšlent Disclose et Investigate Europe, documents confidentiels Ă lâappui.Imaginez que vous participiez Ă une manifestation pour le climat, que vous portiez un badge ou que vous brandissiez une pancarte. Une camĂ©ra «âintelligenteâ» dĂ©tecte ces signes, enregistre votre visage et transmet les images Ă la police pour les comparer au fichier des personnes recherchĂ©es pour crimes environnementaux. Vous nây figurez pas, mais les donnĂ©es restent stockĂ©es. Imaginez un naufragĂ© qui vient de dĂ©barquer sur lâĂźle de Lampedusa. ArrĂȘtĂ©, il est interrogĂ© Ă lâaide dâune camĂ©ra capable de dĂ©tecter des Ă©motions. Le systĂšme enregistre des signes de nervositĂ©, de peur, dâindĂ©cision : il en conclut que lâexilĂ© ment sur son Ăąge ou ses origines. Sa demande dâasile est rejetĂ©e.
Ces scĂšnes qui semblent sorties dâun film de science-fiction pourraient devenir rĂ©alitĂ© dans les prochaines semaines. Le 2 fĂ©vrier, les articles les plus controversĂ©s â dits « risques inacceptablesâ» â du rĂšglement europĂ©en sur lâintelligence artificielle (IA) entreront en vigueur avec, dans leur sillage, une myriade de portes ouvertes pour contrĂŽler lâespace public. Le texte Ă©tait pourtant censĂ© encadrer lâusage de lâintelligence artificielle contre les menaces pour les droits fondamentaux et les libertĂ©s publiques en Europe. Mais aprĂšs deux ans de nĂ©gociations secrĂštes entre les Ătats europĂ©ens, ce cadre nâa pas survĂ©cu aux coups de boutoir de la France, qui a obtenu des exemptions majeures en imposant le thĂšme de «âla sĂ©curitĂ© nationaleâ».
Câest ce que dĂ©montre lâanalyse dâune centaine de documents confidentiels europĂ©ens sur lâAI Act, obtenus par Disclose et Investigate Europ. Des comptes-rendus de nĂ©gociations qui dĂ©voilent comment Paris est parvenu Ă ouvrir une brĂšche pour autoriser la surveillance de masse dans lâespace public.
La «âligne rougeâ» de la sĂ©curitĂ© nationaleLe lobbying de la France commence fin 2022. Ă lâĂ©poque, les dĂ©bats sur ce projet portĂ© par la Commission europĂ©enne depuis avril 2021 sont tendus. Au cĆur des discussions entre les 27 pays de lâUE : la classification des risques liĂ©s Ă lâutilisation de lâIA. TrĂšs vite, Paris sâoppose Ă ce que la future loi europĂ©enne interdise certaines technologies particuliĂšrement intrusives. En lâoccurrence, celles qui prĂ©sentent des risques dits « inacceptables » pour les libertĂ©s publiques.
Le 18 novembre 2022, au cours dâune rĂ©union organisĂ©e Ă huis clos avec ses homologues europĂ©ens, le reprĂ©sentant français prĂ©vient : «
âLâexclusion des questions de sĂ©curitĂ© et de dĂ©fense [du cadre du rĂšglement]⊠doit ĂȘtre maintenue Ă tout prixâ». Par cette requĂȘte, la France veut garder la possibilitĂ© de recourir Ă la reconnaissance faciale en temps rĂ©el dans lâespace public, en cas de risque pour la sĂ©curitĂ© du pays. Cela vaut aussi pour le maintien de lâordre. Ce que confirme une source en premiĂšre ligne des nĂ©gociations : «
âLa France considĂšre que lâordre public fait partie de la sĂ©curitĂ© nationale, câest pourquoi elle a rĂ©clamĂ© que tous les aspects du maintien de lâordre soient exclus du rĂšglement. Elle est le seul pays Ă avoir demandĂ© cette exclusion totaleâ». Des manifestant·es accusé·es de troubler lâordre public pourraient ainsi devenir les cibles lĂ©gales de la reconnaissance faciale. SollicitĂ©s Ă plusieurs reprises, le gouvernement français et ses reprĂ©sentant·es Ă Bruxelles nâont pas rĂ©pondu aux questions de Disclose et Investigate Europe.
Dâabord isolĂ©, Paris ne mĂ©nage pas ses efforts pour persuader ses homologues europĂ©ens du bien-fondĂ© de sa demande. En septembre 2022, lâambassadeur adjoint français sâentretient avec lâun des rapporteurs du texte au Parlement europĂ©en. Objectif : le convaincre de la nĂ©cessitĂ© dâautoriser la reconnaissance faciale pour le maintien de lâordre. «â
Le diplomate français Ă©tait nerveux, il y avait de la tension dans la piĂšce, tĂ©moigne notre source. Le ton est monté⊠Le reprĂ©sentant français campait sur ses positions, au prĂ©texte que la France organisait les Jeux olympiques quelques mois plus tardâ.» En France, avant les JO, lâutilisation de la vidĂ©osurveillance algorithmique par la police nâĂ©tait autorisĂ©e que dans de trĂšs rares cas. LâĂ©vĂ©nement sportif a donnĂ© lâoccasion au gouvernement de faire adopter une loi validant son expĂ©rimentation jusquâen mars 2025. Sans toutefois parvenir Ă convaincre les parlementaires dây inclure la reconnaissance faciale.
Matignon Ă la manĆuvre Lâactivisme de Paris en faveur de technologies ultra-intrusives est Ă©tayĂ© par un courrier envoyĂ©, fin novembre 2023, au secrĂ©tariat du Conseil de lâUE. Ce document que Disclose et Investigate Europe se sont procurĂ© est signĂ© du SecrĂ©tariat gĂ©nĂ©ral aux affaires europĂ©ennes (SGAE), un service placĂ© sous lâautoritĂ© de Matignon et chargĂ© de la coordination interministĂ©rielle pour les politiques europĂ©ennes. Le service rappelle dâabord la «â
ligne rougeâ» de la France «â
sur lâexclusion de la sĂ©curitĂ© nationaleâ». Il insiste ensuite pour pouvoir utiliser lâIAdans lâespace public «â
en cas dâurgence justifiĂ©eâ».
Les efforts de la France ont Ă©tĂ© rĂ©compensĂ©s. Comme lâindique lâarticle 2.3 de lâAI Act. Celui-ci dispose en effet que «
âle prĂ©sent rĂšglement (âŠ) ne porte pas atteinte aux compĂ©tences des Ătats membres en matiĂšre de sĂ©curitĂ© nationale.â» Selon Aljosa Ajanovic, membre de lâEDRI, une organisation de dĂ©fense des droits des citoyen·nes europĂ©en·nes, ce principe «â
permet dâintroduire des systĂšmes de surveillance biomĂ©trique de masse qui risquent dâaffecter lourdement nos libertĂ©s de mouvement, de rĂ©union, dâexpression ainsi que notre vie privĂ©eâ».
Quant Ă lâarticle 46, alinĂ©a 2 du rĂšglement europĂ©en, il prĂ©cise que «
âdans une situation dâurgence dĂ»ment justifiĂ©e pour des raisons exceptionnelles de sĂ©curitĂ© publique (âŠ) les autoritĂ©s rĂ©pressives » peuvent utiliser «
âun service dâIA Ă haut risque spĂ©cifiqueâ», sans autorisation.
Appartenance religieuse et politiqueSi un Ătat estime que sa sĂ©curitĂ© est en jeu, il pourra aller jusquâĂ rechercher une personne sur la base de la «â
race, opinions politiques, affiliation Ă une organisation syndicale, convictions religieuses ou philosophiques, vie sexuelle ou leur orientation sexuelleâ», grĂące Ă la science algorithmique. Une attaque en rĂšgle contre les libertĂ©s publiques et les droits civiques qui semble Ă©galement dĂ©fendue par les autoritĂ©s françaises, comme lâindique un passage du courrier du SecrĂ©tariat gĂ©nĂ©ral aux affaires europĂ©ennes. Celui-ci souligne que la France estime «â
trĂšs important de prĂ©server la possibilitĂ© de rechercher une personne sur la base de critĂšres objectifs exprimant une croyance religieuse ou une opinion politiqueâ». Une surveillance qui serait rendue possible grĂące, notamment, est-il prĂ©cisĂ©, Ă la dĂ©tection du «â
port dâun insigne ou dâun accessoire, lorsque cette personne est impliquĂ©e dans lâextrĂ©misme violent ou prĂ©sente un risque terroristeâ». Un badge dâun mouvement Ă©cologiste classĂ© «
extrĂ©miste et violentâ» pourrait donc motiver lâallumage de camĂ©ras dopĂ©es Ă lâIA.
«â
Il est glaçant de voir lâUE laisser ses polices recourir Ă ces systĂšmes pour tenter de dĂ©tecter lâorientation sexuelle, sâindigne FĂ©lix TrĂ©guer, auteur de Technopolice, la surveillance policiĂšre Ă lâĂšre de lâIA et porte-parole de la Quadrature du Net, une association française de dĂ©fense des libertĂ©s numĂ©riques. «
Câest aussi ça lâintelligence artificielle, poursuit-il, le retour des thĂ©ories naturalisantes, des pseudosciences et des catĂ©gories arbitraires, dĂ©sormais inscrites dans de puissants systĂšmes automatisĂ©s pour mettre en Ćuvre la violence dâĂtatâ».
«âLa plupart du temps, les gens ne sauront pas quâils ont Ă©tĂ© surveillĂ©sâ»
Sarah Chander, cofondatrice de lâONG EquinoxAu cours des discussions sur lâAI Act, la France a mis en avant deux autres « lignes rouges ». Paris a en effet demandĂ© Ă ce que les prisons et les zones de contrĂŽles aux frontiĂšres soient «
exclues de la dĂ©finition de lâespace public », comme le dĂ©voile le compte-rendu dâune rĂ©union de novembre 2023. LĂ encore, aux cĂŽtĂ©s dâautres pays comme la GrĂšce, elle a obtenu gain de cause.
Dans quelques semaines, les Ătats membres pourront donc dĂ©ployer des systĂšmes de reconnaissance Ă©motionnelle Ă leurs portes. Des logiciels, qui, une fois reliĂ©s Ă une camĂ©ra, pourront ĂȘtre utilisĂ©s lors dâinterrogatoires de personnes exilĂ©es. Lâobjectif Ă©tant, par exemple, de chercher Ă Ă©valuer avec plus ou moins de fiabilitĂ©, leur degrĂ© de nervositĂ© ou dâanxiĂ©tĂ© pour savoir si elles mentent sur leur pays dâorigine, leur Ăąge ou la raison de leur dĂ©part. «
Ce qui est insidieux dans lâutilisation de lâIA par la police et le contrĂŽle des migrations, câest que la plupart du temps, les gens ne sauront pas quâils ont Ă©tĂ© surveillĂ©s par ces systĂšmes », dĂ©plore Sarah Chander, cofondatrice dâEquinox, une ONG qui lutte contre les discriminations raciales en Europe.
DerriĂšre lâactivisme de la France, on trouve enfin la volontĂ© de laisser les coudĂ©es franches aux industriels europĂ©ens de lâintelligence artificielle. Câest du moins ce que sous-entend le reprĂ©sentant de Paris dans une rĂ©union organisĂ©e le 15 novembre 2023. Celui-ci «
met urgemment en garde contre les impacts négatifs [que pourrait avoir le rÚglement]
sur la capacitĂ© dâinnovation de lâUE ». Il insiste, Ă©voquant le risque que «
les entreprises dĂ©localisent leurs activitĂ©s dans des rĂ©gions oĂč les droits fondamentaux ne jouent pas de rĂŽle ». Un argument repris par Emmanuel Macron un mois plus tard. Selon le chef de lâĂtat, en rĂ©gulant «
beaucoup plus vite et beaucoup plus fort que nos grands compĂ©titeurs, on rĂ©gulera des choses quâon ne produira plus ou quâon nâinventera pas ». Ă Bruxelles, beaucoup interprĂštent ces prises de position comme un soutien Ă peine voilĂ© Ă un fleuron de la « start-up nation » :
Mistral AI. La sociĂ©tĂ© française compte parmi ses actionnaires CĂ©dric O, un proche du prĂ©sident de la RĂ©publique et ancien secrĂ©taire dâĂtat au numĂ©rique. Câest lui aussi qui est chargĂ© des relations publiques de lâentreprise, dont lâun des fondateurs confiait il y a tout juste un an : «
Dans sa forme finale, lâAI Act est tout Ă fait gĂ©rable pour nous ».
source : #^https://disclose.ngo/fr/article/intelligence-artificielle-la-france-ouvre-la-voie-a-la-surveillance-de-masse-en-europe#
ia #
intelligenceartificielle #
technopolice #
videosurveillance #
videosurveillancealgorithmique #
reconnaissancefaciale #
surveillancealgorithmique #
surveillancegeneralisee #
flicagenumerique