SURVEILLANCE GÉNÉRALISÉE : BIG MACRON IS WATCHING YOU

YouTube

Un débat qui mérite de ne pas être sacrifié. La question de la mise en œuvre est essentielle. On ne doit pas sacrifier toutes les libertés individuelles avec l’adoption précipitée d’un texte flou et qui permettra tous les excès de pouvoir (surveillance généralisée) et fera peser un risque très important sur tous les citoyens (piratage).

https://www.france24.com/fr/info-en-continu/20260331-r%C3%A9seaux-sociaux-l-interdiction-aux-moins-de-15-ans-fait-d%C3%A9bat-au-s%C3%A9nat

#SurveillanceGeneralisee #ReseauxSociaux #SocialMedia #SocialNetworks #Privacy #DataPrivacy #DonneesPersonnelles

Réseaux sociaux: l'interdiction aux moins de 15 ans fait débat au Sénat

Contretemps en vue pour une promesse présidentielle ? L'interdiction des réseaux sociaux aux moins de 15 ans, chère à Emmanuel Macron, est débattue mardi au Sénat, où certaines divergences pourraient retarder quelque peu l'entrée en vigueur de la réforme, espérée pour septembre.

FRANCE 24
Tech 24 - La reconnaissance faciale s'invite dans la rue

Loin d'être un gadget de science-fiction, la reconnaissance faciale se niche déjà dans la poche de nos policiers, et bientôt dans nos lunettes connectées. En France, le média Disclose expose un système de surveillance illégale utilisant le fichier judiciaire national pour identifier les passants. Alors que les États s’y engouffrent, des outils comme PimEyes ou FaceCheck offrent ce pouvoir à n’importe qui. Autrement dit : notre visage devient une donnée publique, ce qui menace notre vie privée.

FRANCE 24

RE: https://mastodon.social/@Ivovanwilligen/116110881126241280

Effrayant (article en anglais).

Voici vers quoi la société de contrôle va. Toutes vos données les plus sensibles vers des compagnies américaines. Difficile de penser à autre chose qu’une surveillance généralisée qui se met en place, dans la torpeur générale et sans aucune voix politique chez nous pour même en parler.

#Persona #SurveillanceGeneralisee #AgeVerification #DonneesPersonnelles #DataPrivacy

Des nouvelles de la #SurveillanceGeneralisee
Toujours sous couvert de "bonnes intentions" !
#ia
"Des pertes estimées à des milliards d'euros" : comment l'intelligence artificielle va empêcher les vols à l'étalage
https://www.rtl.fr/actu/economie-consommation/des-pertes-estimes-a-des-milliards-d-euros-comment-l-intelligence-artificielle-va-empecher-les-vols-a-l-etalage-7900596441
"Des pertes estimées à des milliards d'euros" : comment l'intelligence artificielle va empêcher les vols à l'étalage

Les supermarchés, confrontés à des pertes colossales dues aux vols à l'étalage, se tournent vers l'IA pour renforcer la sécurité dans leurs rayons. Cette pratique soulève toutefois des questions sur la légalité de son utilisation.

RTL

#SurveillanceGénéralisée #Briefcam #VSA

Enfin un jugement qui devrait mettre un coup d'arrêt à l'utilisation de la VSA !

Communiqué de la @LDH_Fr suite à la victoire juridique contre la #VidéoSurveillanceAlgorithmique, aux côtés de @LaQuadrature, du Syndicat des avocats de France et du @smagistrature

👉 https://grenoble.tribunal-administratif.fr/decisions-de-justice/dernieres-decisions/la-mise-en-aeuvre-par-la-commune-de-moirans-du-logiciel-briefcam-censuree-par-le-tribunal

La LDH ne peut que se réjouir de cette décision du tribunal administratif de Grenoble, « victoire historique » pour les associations qui combattent l’utilisation de la vidéosurveillance et plus particulièrement la vidéosurveillance algorithmique (VSA).

La mise en œuvre par la commune de Moirans du logiciel « Briefcam » censurée par le tribunal - Tribunal administratif de Grenoble

Le tribunal administratif a annulé la décision de la maire de Moirans d’utiliser le logiciel « Briefcam » d’analyse algorithmique des images de vidéosurveillance, après un recours porté par l’association La Quadrature du Net et un habitant. Après avoir considéré que ce logiciel permettait de procéder à des traitements relevant du droit des données à caractère personnel, le tribunal releve que la mise en œuvre du logiciel sur le territoire de la commune de Moirans n’avait été accompagnée de la détermination d’aucune finalité déterminée et explicite et d’aucune garantie de nature à sauvegarder le droit au respect de la vie privée des administrés.

Tribunal administratif de Grenoble
Reconnaissance faciale en temps réel, interprétation des émotions, catégorisation des pensées religieuses, sexuelles et politiques… La France a activement milité pour que ces pratiques soient permises par « l’AI Act », le règlement européen sur l’intelligence artificielle, révèlent Disclose et Investigate Europe, documents confidentiels à l’appui.

Imaginez que vous participiez à une manifestation pour le climat, que vous portiez un badge ou que vous brandissiez une pancarte. Une caméra « intelligente » détecte ces signes, enregistre votre visage et transmet les images à la police pour les comparer au fichier des personnes recherchées pour crimes environnementaux. Vous n’y figurez pas, mais les données restent stockées. Imaginez un naufragé qui vient de débarquer sur l’île de Lampedusa. Arrêté, il est interrogé à l’aide d’une caméra capable de détecter des émotions. Le système enregistre des signes de nervosité, de peur, d’indécision : il en conclut que l’exilé ment sur son âge ou ses origines. Sa demande d’asile est rejetée.

Ces scènes qui semblent sorties d’un film de science-fiction pourraient devenir réalité dans les prochaines semaines. Le 2 février, les articles les plus controversés — dits « risques inacceptables » — du règlement européen sur l’intelligence artificielle (IA) entreront en vigueur avec, dans leur sillage, une myriade de portes ouvertes pour contrôler l’espace public. Le texte était pourtant censé encadrer l’usage de l’intelligence artificielle contre les menaces pour les droits fondamentaux et les libertés publiques en Europe. Mais après deux ans de négociations secrètes entre les États européens, ce cadre n’a pas survécu aux coups de boutoir de la France, qui a obtenu des exemptions majeures en imposant le thème de « la sécurité nationale ».

C’est ce que démontre l’analyse d’une centaine de documents confidentiels européens sur l’AI Act, obtenus par Disclose et Investigate Europ. Des comptes-rendus de négociations qui dévoilent comment Paris est parvenu à ouvrir une brèche pour autoriser la surveillance de masse dans l’espace public.

La « ligne rouge » de la sécurité nationale

Le lobbying de la France commence fin 2022. À l’époque, les débats sur ce projet porté par la Commission européenne depuis avril 2021 sont tendus. Au cœur des discussions entre les 27 pays de l’UE : la classification des risques liés à l’utilisation de l’IA. Très vite, Paris s’oppose à ce que la future loi européenne interdise certaines technologies particulièrement intrusives. En l’occurrence, celles qui présentent des risques dits « inacceptables » pour les libertés publiques.

Le 18 novembre 2022, au cours d’une réunion organisée à huis clos avec ses homologues européens, le représentant français prévient : « L’exclusion des questions de sécurité et de défense [du cadre du règlement]… doit être maintenue à tout prix ». Par cette requête, la France veut garder la possibilité de recourir à la reconnaissance faciale en temps réel dans l’espace public, en cas de risque pour la sécurité du pays. Cela vaut aussi pour le maintien de l’ordre. Ce que confirme une source en première ligne des négociations : « La France considère que l’ordre public fait partie de la sécurité nationale, c’est pourquoi elle a réclamé que tous les aspects du maintien de l’ordre soient exclus du règlement. Elle est le seul pays à avoir demandé cette exclusion totale ». Des manifestant·es accusé·es de troubler l’ordre public pourraient ainsi devenir les cibles légales de la reconnaissance faciale. Sollicités à plusieurs reprises, le gouvernement français et ses représentant·es à Bruxelles n’ont pas répondu aux questions de Disclose et Investigate Europe.

D’abord isolé, Paris ne ménage pas ses efforts pour persuader ses homologues européens du bien-fondé de sa demande. En septembre 2022, l’ambassadeur adjoint français s’entretient avec l’un des rapporteurs du texte au Parlement européen. Objectif : le convaincre de la nécessité d’autoriser la reconnaissance faciale pour le maintien de l’ordre. « Le diplomate français était nerveux, il y avait de la tension dans la pièce, témoigne notre source. Le ton est monté… Le représentant français campait sur ses positions, au prétexte que la France organisait les Jeux olympiques quelques mois plus tard .» En France, avant les JO, l’utilisation de la vidéosurveillance algorithmique par la police n’était autorisée que dans de très rares cas. L’événement sportif a donné l’occasion au gouvernement de faire adopter une loi validant son expérimentation jusqu’en mars 2025. Sans toutefois parvenir à convaincre les parlementaires d’y inclure la reconnaissance faciale.

Matignon à la manœuvre

L’activisme de Paris en faveur de technologies ultra-intrusives est étayé par un courrier envoyé, fin novembre 2023, au secrétariat du Conseil de l’UE. Ce document que Disclose et Investigate Europe se sont procuré est signé du Secrétariat général aux affaires européennes (SGAE), un service placé sous l’autorité de Matignon et chargé de la coordination interministérielle pour les politiques européennes. Le service rappelle d’abord la « ligne rouge » de la France « sur l’exclusion de la sécurité nationale ». Il insiste ensuite pour pouvoir utiliser l’IAdans l’espace public « en cas d’urgence justifiée ».

Les efforts de la France ont été récompensés. Comme l’indique l’article 2.3 de l’AI Act. Celui-ci dispose en effet que « le présent règlement (…) ne porte pas atteinte aux compétences des États membres en matière de sécurité nationale. » Selon Aljosa Ajanovic, membre de l’EDRI, une organisation de défense des droits des citoyen·nes européen·nes, ce principe « permet d’introduire des systèmes de surveillance biométrique de masse qui risquent d’affecter lourdement nos libertés de mouvement, de réunion, d’expression ainsi que notre vie privée ».

Quant à l’article 46, alinéa 2 du règlement européen, il précise que « dans une situation d’urgence dûment justifiée pour des raisons exceptionnelles de sécurité publique (…) les autorités répressives » peuvent utiliser « un service d’IA à haut risque spécifique », sans autorisation.

Appartenance religieuse et politique

Si un État estime que sa sécurité est en jeu, il pourra aller jusqu’à rechercher une personne sur la base de la « race, opinions politiques, affiliation à une organisation syndicale, convictions religieuses ou philosophiques, vie sexuelle ou leur orientation sexuelle », grâce à la science algorithmique. Une attaque en règle contre les libertés publiques et les droits civiques qui semble également défendue par les autorités françaises, comme l’indique un passage du courrier du Secrétariat général aux affaires européennes. Celui-ci souligne que la France estime « très important de préserver la possibilité de rechercher une personne sur la base de critères objectifs exprimant une croyance religieuse ou une opinion politique ». Une surveillance qui serait rendue possible grâce, notamment, est-il précisé, à la détection du « port d’un insigne ou d’un accessoire, lorsque cette personne est impliquée dans l’extrémisme violent ou présente un risque terroriste ». Un badge d’un mouvement écologiste classé « extrémiste et violent » pourrait donc motiver l’allumage de caméras dopées à l’IA.

« Il est glaçant de voir l’UE laisser ses polices recourir à ces systèmes pour tenter de détecter l’orientation sexuelle, s’indigne Félix Tréguer, auteur de Technopolice, la surveillance policière à l’ère de l’IA et porte-parole de la Quadrature du Net, une association française de défense des libertés numériques. « C’est aussi ça l’intelligence artificielle, poursuit-il, le retour des théories naturalisantes, des pseudosciences et des catégories arbitraires, désormais inscrites dans de puissants systèmes automatisés pour mettre en œuvre la violence d’État ».

« La plupart du temps, les gens ne sauront pas qu’ils ont été surveillés »


Sarah Chander, cofondatrice de l’ONG Equinox
Au cours des discussions sur l’AI Act, la France a mis en avant deux autres « lignes rouges ». Paris a en effet demandé à ce que les prisons et les zones de contrôles aux frontières soient « exclues de la définition de l’espace public », comme le dévoile le compte-rendu d’une réunion de novembre 2023. Là encore, aux côtés d’autres pays comme la Grèce, elle a obtenu gain de cause.

Dans quelques semaines, les États membres pourront donc déployer des systèmes de reconnaissance émotionnelle à leurs portes. Des logiciels, qui, une fois reliés à une caméra, pourront être utilisés lors d’interrogatoires de personnes exilées. L’objectif étant, par exemple, de chercher à évaluer avec plus ou moins de fiabilité, leur degré de nervosité ou d’anxiété pour savoir si elles mentent sur leur pays d’origine, leur âge ou la raison de leur départ. « Ce qui est insidieux dans l’utilisation de l’IA par la police et le contrôle des migrations, c’est que la plupart du temps, les gens ne sauront pas qu’ils ont été surveillés par ces systèmes », déplore Sarah Chander, cofondatrice d’Equinox, une ONG qui lutte contre les discriminations raciales en Europe.

Derrière l’activisme de la France, on trouve enfin la volonté de laisser les coudées franches aux industriels européens de l’intelligence artificielle. C’est du moins ce que sous-entend le représentant de Paris dans une réunion organisée le 15 novembre 2023. Celui-ci « met urgemment en garde contre les impacts négatifs [que pourrait avoir le règlement] sur la capacité d’innovation de l’UE ». Il insiste, évoquant le risque que « les entreprises délocalisent leurs activités dans des régions où les droits fondamentaux ne jouent pas de rôle ». Un argument repris par Emmanuel Macron un mois plus tard. Selon le chef de l’État, en régulant « beaucoup plus vite et beaucoup plus fort que nos grands compétiteurs, on régulera des choses qu’on ne produira plus ou qu’on n’inventera pas ». À Bruxelles, beaucoup interprètent ces prises de position comme un soutien à peine voilé à un fleuron de la « start-up nation » : Mistral AI. La société française compte parmi ses actionnaires Cédric O, un proche du président de la République et ancien secrétaire d’État au numérique. C’est lui aussi qui est chargé des relations publiques de l’entreprise, dont l’un des fondateurs confiait il y a tout juste un an : « Dans sa forme finale, l’AI Act est tout à fait gérable pour nous ».

source : #^https://disclose.ngo/fr/article/intelligence-artificielle-la-france-ouvre-la-voie-a-la-surveillance-de-masse-en-europe

#ia #intelligenceartificielle #technopolice #videosurveillance #videosurveillancealgorithmique #reconnaissancefaciale #surveillancealgorithmique #surveillancegeneralisee #flicagenumerique
Disclose.ngo

Disclose est un média et une ONG de journalisme d’investigation.

Disclose.ngo
Noémie Levain, juriste à la @LaQuadrature , souhaite surtout qu’"un débat de société" soit mené "avec ce texte de loi JO" : "nous voulons, à la Quadrature du Net, que les députés ou la société civile comprennent les problématiques politiques et juridiques que cela implique, et surtout le projet de surveillance qu’il y a derrière. (...) Il est possible de refuser une technologie quand on voit à quel point elle permet de décupler les pouvoirs".
#BigBrother
#SurveillanceGénéralisée
#ContrôleSocialAutoritaire
https://www.radiofrance.fr/franceculture/podcasts/la-question-du-jour/loi-jo-2024-la-videosurveillance-algorithmique-menace-t-elle-nos-libertes-8374598
Loi JO 2024 : la vidéosurveillance algorithmique menace-t-elle nos libertés ?

Un article du projet de loi relatif aux Jeux Olympique suscite l’inquiétude, autorisant l’expérimentation de caméras de surveillance dites “augmentées”, dotées d’algorithmes, et qui entreraient en vigueur dès cette année… Quels risques représentent l’autorisation de ce type de vidéosurveillance ?

France Culture