Tech 24 - La reconnaissance faciale s'invite dans la rue

Loin d'ĂȘtre un gadget de science-fiction, la reconnaissance faciale se niche dĂ©jĂ  dans la poche de nos policiers, et bientĂŽt dans nos lunettes connectĂ©es. En France, le mĂ©dia Disclose expose un systĂšme de surveillance illĂ©gale utilisant le fichier judiciaire national pour identifier les passants. Alors que les États s’y engouffrent, des outils comme PimEyes ou FaceCheck offrent ce pouvoir Ă  n’importe qui. Autrement dit : notre visage devient une donnĂ©e publique, ce qui menace notre vie privĂ©e.

FRANCE 24

RE: https://mastodon.social/@Ivovanwilligen/116110881126241280

Effrayant (article en anglais).

Voici vers quoi la sociĂ©tĂ© de contrĂŽle va. Toutes vos donnĂ©es les plus sensibles vers des compagnies amĂ©ricaines. Difficile de penser Ă  autre chose qu’une surveillance gĂ©nĂ©ralisĂ©e qui se met en place, dans la torpeur gĂ©nĂ©rale et sans aucune voix politique chez nous pour mĂȘme en parler.

#Persona #SurveillanceGeneralisee #AgeVerification #DonneesPersonnelles #DataPrivacy

Des nouvelles de la #SurveillanceGeneralisee
Toujours sous couvert de "bonnes intentions" !
#ia
"Des pertes estimĂ©es Ă  des milliards d'euros" : comment l'intelligence artificielle va empĂȘcher les vols Ă  l'Ă©talage
https://www.rtl.fr/actu/economie-consommation/des-pertes-estimes-a-des-milliards-d-euros-comment-l-intelligence-artificielle-va-empecher-les-vols-a-l-etalage-7900596441
"Des pertes estimĂ©es Ă  des milliards d'euros" : comment l'intelligence artificielle va empĂȘcher les vols Ă  l'Ă©talage

Les supermarchés, confrontés à des pertes colossales dues aux vols à l'étalage, se tournent vers l'IA pour renforcer la sécurité dans leurs rayons. Cette pratique soulÚve toutefois des questions sur la légalité de son utilisation.

RTL

#SurveillanceGénéralisée #Briefcam #VSA

Enfin un jugement qui devrait mettre un coup d'arrĂȘt Ă  l'utilisation de la VSA !

Communiqué de la @LDH_Fr suite à la victoire juridique contre la #VidéoSurveillanceAlgorithmique, aux cÎtés de @LaQuadrature, du Syndicat des avocats de France et du @smagistrature

👉 https://grenoble.tribunal-administratif.fr/decisions-de-justice/dernieres-decisions/la-mise-en-aeuvre-par-la-commune-de-moirans-du-logiciel-briefcam-censuree-par-le-tribunal

La LDH ne peut que se rĂ©jouir de cette dĂ©cision du tribunal administratif de Grenoble, « victoire historique » pour les associations qui combattent l’utilisation de la vidĂ©osurveillance et plus particuliĂšrement la vidĂ©osurveillance algorithmique (VSA).

La mise en Ɠuvre par la commune de Moirans du logiciel « Briefcam » censurĂ©e par le tribunal - Tribunal administratif de Grenoble

Le tribunal administratif a annulĂ© la dĂ©cision de la maire de Moirans d’utiliser le logiciel « Briefcam » d’analyse algorithmique des images de vidĂ©osurveillance, aprĂšs un recours portĂ© par l’association La Quadrature du Net et un habitant. AprĂšs avoir considĂ©rĂ© que ce logiciel permettait de procĂ©der Ă  des traitements relevant du droit des donnĂ©es Ă  caractĂšre personnel, le tribunal releve que la mise en Ɠuvre du logiciel sur le territoire de la commune de Moirans n’avait Ă©tĂ© accompagnĂ©e de la dĂ©termination d’aucune finalitĂ© dĂ©terminĂ©e et explicite et d’aucune garantie de nature Ă  sauvegarder le droit au respect de la vie privĂ©e des administrĂ©s.

Tribunal administratif de Grenoble
Reconnaissance faciale en temps rĂ©el, interprĂ©tation des Ă©motions, catĂ©gorisation des pensĂ©es religieuses, sexuelles et politiques
 La France a activement militĂ© pour que ces pratiques soient permises par « l’AI Act », le rĂšglement europĂ©en sur l’intelligence artificielle, rĂ©vĂšlent Disclose et Investigate Europe, documents confidentiels Ă  l’appui.

Imaginez que vous participiez Ă  une manifestation pour le climat, que vous portiez un badge ou que vous brandissiez une pancarte. Une camĂ©ra « intelligente » dĂ©tecte ces signes, enregistre votre visage et transmet les images Ă  la police pour les comparer au fichier des personnes recherchĂ©es pour crimes environnementaux. Vous n’y figurez pas, mais les donnĂ©es restent stockĂ©es. Imaginez un naufragĂ© qui vient de dĂ©barquer sur l’üle de Lampedusa. ArrĂȘtĂ©, il est interrogĂ© Ă  l’aide d’une camĂ©ra capable de dĂ©tecter des Ă©motions. Le systĂšme enregistre des signes de nervositĂ©, de peur, d’indĂ©cision : il en conclut que l’exilĂ© ment sur son Ăąge ou ses origines. Sa demande d’asile est rejetĂ©e.

Ces scĂšnes qui semblent sorties d’un film de science-fiction pourraient devenir rĂ©alitĂ© dans les prochaines semaines. Le 2 fĂ©vrier, les articles les plus controversĂ©s — dits « risques inacceptables » — du rĂšglement europĂ©en sur l’intelligence artificielle (IA) entreront en vigueur avec, dans leur sillage, une myriade de portes ouvertes pour contrĂŽler l’espace public. Le texte Ă©tait pourtant censĂ© encadrer l’usage de l’intelligence artificielle contre les menaces pour les droits fondamentaux et les libertĂ©s publiques en Europe. Mais aprĂšs deux ans de nĂ©gociations secrĂštes entre les États europĂ©ens, ce cadre n’a pas survĂ©cu aux coups de boutoir de la France, qui a obtenu des exemptions majeures en imposant le thĂšme de « la sĂ©curitĂ© nationale ».

C’est ce que dĂ©montre l’analyse d’une centaine de documents confidentiels europĂ©ens sur l’AI Act, obtenus par Disclose et Investigate Europ. Des comptes-rendus de nĂ©gociations qui dĂ©voilent comment Paris est parvenu Ă  ouvrir une brĂšche pour autoriser la surveillance de masse dans l’espace public.

La « ligne rouge » de la sĂ©curitĂ© nationale

Le lobbying de la France commence fin 2022. À l’époque, les dĂ©bats sur ce projet portĂ© par la Commission europĂ©enne depuis avril 2021 sont tendus. Au cƓur des discussions entre les 27 pays de l’UE : la classification des risques liĂ©s Ă  l’utilisation de l’IA. TrĂšs vite, Paris s’oppose Ă  ce que la future loi europĂ©enne interdise certaines technologies particuliĂšrement intrusives. En l’occurrence, celles qui prĂ©sentent des risques dits « inacceptables » pour les libertĂ©s publiques.

Le 18 novembre 2022, au cours d’une rĂ©union organisĂ©e Ă  huis clos avec ses homologues europĂ©ens, le reprĂ©sentant français prĂ©vient : « L’exclusion des questions de sĂ©curitĂ© et de dĂ©fense [du cadre du rĂšglement]
 doit ĂȘtre maintenue Ă  tout prix ». Par cette requĂȘte, la France veut garder la possibilitĂ© de recourir Ă  la reconnaissance faciale en temps rĂ©el dans l’espace public, en cas de risque pour la sĂ©curitĂ© du pays. Cela vaut aussi pour le maintien de l’ordre. Ce que confirme une source en premiĂšre ligne des nĂ©gociations : « La France considĂšre que l’ordre public fait partie de la sĂ©curitĂ© nationale, c’est pourquoi elle a rĂ©clamĂ© que tous les aspects du maintien de l’ordre soient exclus du rĂšglement. Elle est le seul pays Ă  avoir demandĂ© cette exclusion totale ». Des manifestant·es accusé·es de troubler l’ordre public pourraient ainsi devenir les cibles lĂ©gales de la reconnaissance faciale. SollicitĂ©s Ă  plusieurs reprises, le gouvernement français et ses reprĂ©sentant·es Ă  Bruxelles n’ont pas rĂ©pondu aux questions de Disclose et Investigate Europe.

D’abord isolĂ©, Paris ne mĂ©nage pas ses efforts pour persuader ses homologues europĂ©ens du bien-fondĂ© de sa demande. En septembre 2022, l’ambassadeur adjoint français s’entretient avec l’un des rapporteurs du texte au Parlement europĂ©en. Objectif : le convaincre de la nĂ©cessitĂ© d’autoriser la reconnaissance faciale pour le maintien de l’ordre. « Le diplomate français Ă©tait nerveux, il y avait de la tension dans la piĂšce, tĂ©moigne notre source. Le ton est monté  Le reprĂ©sentant français campait sur ses positions, au prĂ©texte que la France organisait les Jeux olympiques quelques mois plus tard .» En France, avant les JO, l’utilisation de la vidĂ©osurveillance algorithmique par la police n’était autorisĂ©e que dans de trĂšs rares cas. L’évĂ©nement sportif a donnĂ© l’occasion au gouvernement de faire adopter une loi validant son expĂ©rimentation jusqu’en mars 2025. Sans toutefois parvenir Ă  convaincre les parlementaires d’y inclure la reconnaissance faciale.

Matignon à la manƓuvre

L’activisme de Paris en faveur de technologies ultra-intrusives est Ă©tayĂ© par un courrier envoyĂ©, fin novembre 2023, au secrĂ©tariat du Conseil de l’UE. Ce document que Disclose et Investigate Europe se sont procurĂ© est signĂ© du SecrĂ©tariat gĂ©nĂ©ral aux affaires europĂ©ennes (SGAE), un service placĂ© sous l’autoritĂ© de Matignon et chargĂ© de la coordination interministĂ©rielle pour les politiques europĂ©ennes. Le service rappelle d’abord la « ligne rouge » de la France « sur l’exclusion de la sĂ©curitĂ© nationale ». Il insiste ensuite pour pouvoir utiliser l’IAdans l’espace public « en cas d’urgence justifiĂ©e ».

Les efforts de la France ont Ă©tĂ© rĂ©compensĂ©s. Comme l’indique l’article 2.3 de l’AI Act. Celui-ci dispose en effet que « le prĂ©sent rĂšglement (
) ne porte pas atteinte aux compĂ©tences des États membres en matiĂšre de sĂ©curitĂ© nationale. » Selon Aljosa Ajanovic, membre de l’EDRI, une organisation de dĂ©fense des droits des citoyen·nes europĂ©en·nes, ce principe « permet d’introduire des systĂšmes de surveillance biomĂ©trique de masse qui risquent d’affecter lourdement nos libertĂ©s de mouvement, de rĂ©union, d’expression ainsi que notre vie privĂ©e ».

Quant Ă  l’article 46, alinĂ©a 2 du rĂšglement europĂ©en, il prĂ©cise que « dans une situation d’urgence dĂ»ment justifiĂ©e pour des raisons exceptionnelles de sĂ©curitĂ© publique (
) les autoritĂ©s rĂ©pressives » peuvent utiliser « un service d’IA Ă  haut risque spĂ©cifique », sans autorisation.

Appartenance religieuse et politique

Si un État estime que sa sĂ©curitĂ© est en jeu, il pourra aller jusqu’à rechercher une personne sur la base de la « race, opinions politiques, affiliation Ă  une organisation syndicale, convictions religieuses ou philosophiques, vie sexuelle ou leur orientation sexuelle », grĂące Ă  la science algorithmique. Une attaque en rĂšgle contre les libertĂ©s publiques et les droits civiques qui semble Ă©galement dĂ©fendue par les autoritĂ©s françaises, comme l’indique un passage du courrier du SecrĂ©tariat gĂ©nĂ©ral aux affaires europĂ©ennes. Celui-ci souligne que la France estime « trĂšs important de prĂ©server la possibilitĂ© de rechercher une personne sur la base de critĂšres objectifs exprimant une croyance religieuse ou une opinion politique ». Une surveillance qui serait rendue possible grĂące, notamment, est-il prĂ©cisĂ©, Ă  la dĂ©tection du « port d’un insigne ou d’un accessoire, lorsque cette personne est impliquĂ©e dans l’extrĂ©misme violent ou prĂ©sente un risque terroriste ». Un badge d’un mouvement Ă©cologiste classĂ© « extrĂ©miste et violent » pourrait donc motiver l’allumage de camĂ©ras dopĂ©es Ă  l’IA.

« Il est glaçant de voir l’UE laisser ses polices recourir Ă  ces systĂšmes pour tenter de dĂ©tecter l’orientation sexuelle, s’indigne FĂ©lix TrĂ©guer, auteur de Technopolice, la surveillance policiĂšre Ă  l’ùre de l’IA et porte-parole de la Quadrature du Net, une association française de dĂ©fense des libertĂ©s numĂ©riques. « C’est aussi ça l’intelligence artificielle, poursuit-il, le retour des thĂ©ories naturalisantes, des pseudosciences et des catĂ©gories arbitraires, dĂ©sormais inscrites dans de puissants systĂšmes automatisĂ©s pour mettre en Ɠuvre la violence d’État ».

« La plupart du temps, les gens ne sauront pas qu’ils ont Ă©tĂ© surveillĂ©s »


Sarah Chander, cofondatrice de l’ONG Equinox
Au cours des discussions sur l’AI Act, la France a mis en avant deux autres « lignes rouges ». Paris a en effet demandĂ© Ă  ce que les prisons et les zones de contrĂŽles aux frontiĂšres soient « exclues de la dĂ©finition de l’espace public », comme le dĂ©voile le compte-rendu d’une rĂ©union de novembre 2023. LĂ  encore, aux cĂŽtĂ©s d’autres pays comme la GrĂšce, elle a obtenu gain de cause.

Dans quelques semaines, les États membres pourront donc dĂ©ployer des systĂšmes de reconnaissance Ă©motionnelle Ă  leurs portes. Des logiciels, qui, une fois reliĂ©s Ă  une camĂ©ra, pourront ĂȘtre utilisĂ©s lors d’interrogatoires de personnes exilĂ©es. L’objectif Ă©tant, par exemple, de chercher Ă  Ă©valuer avec plus ou moins de fiabilitĂ©, leur degrĂ© de nervositĂ© ou d’anxiĂ©tĂ© pour savoir si elles mentent sur leur pays d’origine, leur Ăąge ou la raison de leur dĂ©part. « Ce qui est insidieux dans l’utilisation de l’IA par la police et le contrĂŽle des migrations, c’est que la plupart du temps, les gens ne sauront pas qu’ils ont Ă©tĂ© surveillĂ©s par ces systĂšmes », dĂ©plore Sarah Chander, cofondatrice d’Equinox, une ONG qui lutte contre les discriminations raciales en Europe.

DerriĂšre l’activisme de la France, on trouve enfin la volontĂ© de laisser les coudĂ©es franches aux industriels europĂ©ens de l’intelligence artificielle. C’est du moins ce que sous-entend le reprĂ©sentant de Paris dans une rĂ©union organisĂ©e le 15 novembre 2023. Celui-ci « met urgemment en garde contre les impacts nĂ©gatifs [que pourrait avoir le rĂšglement] sur la capacitĂ© d’innovation de l’UE ». Il insiste, Ă©voquant le risque que « les entreprises dĂ©localisent leurs activitĂ©s dans des rĂ©gions oĂč les droits fondamentaux ne jouent pas de rĂŽle ». Un argument repris par Emmanuel Macron un mois plus tard. Selon le chef de l’État, en rĂ©gulant « beaucoup plus vite et beaucoup plus fort que nos grands compĂ©titeurs, on rĂ©gulera des choses qu’on ne produira plus ou qu’on n’inventera pas ». À Bruxelles, beaucoup interprĂštent ces prises de position comme un soutien Ă  peine voilĂ© Ă  un fleuron de la « start-up nation » : Mistral AI. La sociĂ©tĂ© française compte parmi ses actionnaires CĂ©dric O, un proche du prĂ©sident de la RĂ©publique et ancien secrĂ©taire d’État au numĂ©rique. C’est lui aussi qui est chargĂ© des relations publiques de l’entreprise, dont l’un des fondateurs confiait il y a tout juste un an : « Dans sa forme finale, l’AI Act est tout Ă  fait gĂ©rable pour nous ».

source : #^https://disclose.ngo/fr/article/intelligence-artificielle-la-france-ouvre-la-voie-a-la-surveillance-de-masse-en-europe

#ia #intelligenceartificielle #technopolice #videosurveillance #videosurveillancealgorithmique #reconnaissancefaciale #surveillancealgorithmique #surveillancegeneralisee #flicagenumerique
Disclose.ngo

Disclose est un mĂ©dia et une ONG de journalisme d’investigation.

Disclose.ngo
NoĂ©mie Levain, juriste Ă  la @LaQuadrature , souhaite surtout qu’"un dĂ©bat de sociĂ©tĂ©" soit menĂ© "avec ce texte de loi JO" : "nous voulons, Ă  la Quadrature du Net, que les dĂ©putĂ©s ou la sociĂ©tĂ© civile comprennent les problĂ©matiques politiques et juridiques que cela implique, et surtout le projet de surveillance qu’il y a derriĂšre. (...) Il est possible de refuser une technologie quand on voit Ă  quel point elle permet de dĂ©cupler les pouvoirs".
#BigBrother​
#SurveillanceGĂ©nĂ©ralisĂ©e​
#ContrĂŽleSocialAutoritaire
https://www.radiofrance.fr/franceculture/podcasts/la-question-du-jour/loi-jo-2024-la-videosurveillance-algorithmique-menace-t-elle-nos-libertes-8374598
Loi JO 2024 : la vidĂ©osurveillance algorithmique menace-t-elle nos libertĂ©s ?

Un article du projet de loi relatif aux Jeux Olympique suscite l’inquiĂ©tude, autorisant l’expĂ©rimentation de camĂ©ras de surveillance dites “augmentĂ©es”, dotĂ©es d’algorithmes, et qui entreraient en vigueur dĂšs cette annĂ©e
 Quels risques reprĂ©sentent l’autorisation de ce type de vidĂ©osurveillance ?

France Culture
Interview d’Edward Snowden sur le Coronavirus et la poursuite de la surveillance gĂ©nĂ©ralisĂ©e

YouTube