Burger King déploie une IA qui note en continu la 'gentillesse' des employés via leurs casques.

L'IA 'Patty' analyse chaque conversation au drive pour calculer des scores comportementaux. 500 restaurants pilotes, généralisation prévue fin 2026. Ce qui commence par 'optimiser le service' finit par quantifier l'humanité au travail.

#SurveillanceAlgorithmique #DroitsDuTravail #IA

https://da.van.ac/burger-king-transforme-chaque-employe-en-objet-de-surveillance-algorithmique/

Burger King transforme chaque employé en objet de surveillance algorithmique

L'IA 'Patty' de Burger King note en continu la 'gentillesse' des employés via leurs casques. 500 restaurants pilotes, déploiement complet prévu fin 2026.

Damien Van Achter - First Learn The Rules. Then Break Them

Juste une bonne raison de ne pas connecter sa télé, son aspirateur, ses toilettes, ses serrures, son réfrigérateur, son lave-vaisselle, et tout objet aux internets et particulièrement aux serveurs d'une entreprise qui ne souhaite rien de bon pour vous !

https://www.clubic.com/actualite-600625-il-voulait-controler-son-aspirateur-dji-a-la-manette-il-finit-pas-espionner-7-000-maisons.html

#TechnoPolice #SurveillanceAlgorithmique #Domotique

Il voulait contrôler son aspirateur DJI à la manette, il finit pas espionner 7 000 maisons

En voulant piloter son robot aspirateur DJI avec une manette de PS5, un développeur a découvert une faille majeure. Résultat : des milliers d’appareils accessibles à distance, avec caméra et plan des logements à la clé.

clubic.com

Aujourd'hui près de chez moi y'a une manif pour soutenir les employés d'Amazon en grève.

Aussi aujourd'hui près de chez moi, la préfecture a autorisé la captation d'image des manifestant'es par drone.

Avis aux manifestant'es à #brétigny : le COVID n'est pas mort, pour vous protéger et protéger les personnes autour de vous, mettez des masques.

#surveillanceAlgorithmique



Le livre Caméras sous surveillance – Luttes contre l’œil électronique est paru cette semaine aux éditions Terres de feu. Écrit par Martin Drago, membre de @La Quadrature du Net , l’ouvrage s’intéresse aux personnes et collectifs qui ont refusé les caméras de vidéosurveillance, en mettant en lumière cette résistance qui persiste : multiple, artistique, locale et internationale, inspirante pour les combats à mener.

source : #^https://www.laquadrature.net/2025/10/08/parution-du-livre-cameras-sous-surveillance/

livre en pdf : #^https://www.calameo.com/read/0074509217eb2b1ba331b

#technopolice #surveillance #surveillancealgorithmique #laquadraturedunet #livre #lecture #lectureenpartage

La conclusion de l'article de Mediapart par le juriste est glaçante (non pas que je découvre la perspective de la surveillance algorithmique, mais je ne m'y fais pas...)

"Il faut s'attendre à ce que bientôt on nous explique que les drones sont trop nombreux, qu'il faut donc automatiser leur pilotage ou qu'il y a trop d'images à analyser et qu'il faut donc avoir recours à la surveillance algorithmique."

https://www.mediapart.fr/journal/france/200925/surveillance-des-manifestations-les-drones-passent-en-force?utm_source=global&utm_medium=social&utm_campaign=SharingApp&xtor=CS3-5

#drones #manifestation #surveillancedemasse #surveillancealgorithmique

Surveillance des manifestations : les drones passent en force

Pas moins de 98 arrêtés autorisant l’usage de drones ont été publiés pour surveiller les rassemblements du 18 septembre. Beaucoup ont été publiés au dernier moment, voire alors que les manifestations avaient déjà débuté, rendant les recours très difficiles, voire impossibles.

Mediapart
Surtout que tout est actuellement bon pour techno-fliquer à outrance :
- la sécurité routière avec les radars automatisés qui sont maintenant cap de retracer/suivre le parcours d'une bagnole avec sa plaque minéralogique
- le "terrorisme" avec la généralisation des cams de surveillance... avec des upgrades à chaque nouvelle "vague" d'attentats
- les JO avec les essais de #surveillancealgorithmique
- maintenant, au prétexte de surveiller les marchés parallèles de drogues
À chaque étape sa #strategieduchoc : des événements médiatisés à outrance pour préparer l'opinion et la formater à l'acceptation de céder davantage de liberté en faisant miroiter une très hypothétique sécurité.

Et faudrait pas oublier, que la surveillance est un des créneaux coercitif majeur des #ia dont on nous clame par ailleurs qu'il faut absolument et sans aucune réflexion accélérer le déploiement... domaine dans lequel les Chinois ont une très large avance avec leur #creditsocial
TheChangebook

"Malgré des performances décevantes, la vidéosurveillance algorithmique testée aux JO de Paris fascine collectivités territoriales et pouvoirs publics. Derrière cet engouement, un lobby s’efforce de construire l’acceptation sociale de ces logiciels sécuritaires pour qu’ils puissent être imposés dans notre quotidien."
Thomas Jusquiame : https://www.off-investigation.fr/videosurveillance-un-lobby-au-coeur-de-la-republique/

#sécurité #reconnaissanceFaciale #vidéosurveillance #surveillance #surveillanceAlgorithmique #viePrivée #IA #AN2V #CSF #police #antiTerrorisme #Briefcam #OffInvestigation

Vidéosurveillance : un lobby au cœur de la République

.stk-ac3e68f{margin-top:-30px !important}.stk-ac3e68f-column{justify-content:flex-start !important} .stk-8bef0ea-container{margin-left:0px !important;box-shadow:none !important;padding-top:0px !important;padding-right:0px !important;padding-bottom:0px !important;padding-left:0px !important}.stk-8bef0ea-container:hover{box-shadow:none !important}.stk-8bef0ea:hover .stk-8bef0ea-container{padding-top:0px !important;padding-right:0px !important;padding-bottom:0px !important;padding-left:0px !important}

Investigation

La surveillance et les libertés, grandes oubliées du sommet sur l’IA

Mediapart fait le point avec la professeure de droit public Lucie Cluzel-Métayer et la chargée de plaidoyer d’Amnesty International Katia Roux sur les technologies de #SurveillanceAlgorithmique existantes et sur le droit les encadrant.

Par @JeromeHourdeauxhttps://www.mediapart.fr/journal/france/140225/la-surveillance-et-les-libertes-grandes-oubliees-du-sommet-sur-l-ia?at_medium=rs-cm&at_campaign=mastodon&at_account=mediapart

La surveillance et les libertés, grandes oubliées du sommet sur l’IA

Mediapart fait le point avec la professeure de droit public Lucie Cluzel-Métayer et la chargée de plaidoyer d’Amnesty International Katia Roux sur les technologies de surveillance algorithmique existantes et sur le droit les encadrant.

Mediapart
Reconnaissance faciale en temps réel, interprétation des émotions, catégorisation des pensées religieuses, sexuelles et politiques… La France a activement milité pour que ces pratiques soient permises par « l’AI Act », le règlement européen sur l’intelligence artificielle, révèlent Disclose et Investigate Europe, documents confidentiels à l’appui.

Imaginez que vous participiez à une manifestation pour le climat, que vous portiez un badge ou que vous brandissiez une pancarte. Une caméra « intelligente » détecte ces signes, enregistre votre visage et transmet les images à la police pour les comparer au fichier des personnes recherchées pour crimes environnementaux. Vous n’y figurez pas, mais les données restent stockées. Imaginez un naufragé qui vient de débarquer sur l’île de Lampedusa. Arrêté, il est interrogé à l’aide d’une caméra capable de détecter des émotions. Le système enregistre des signes de nervosité, de peur, d’indécision : il en conclut que l’exilé ment sur son âge ou ses origines. Sa demande d’asile est rejetée.

Ces scènes qui semblent sorties d’un film de science-fiction pourraient devenir réalité dans les prochaines semaines. Le 2 février, les articles les plus controversés — dits « risques inacceptables » — du règlement européen sur l’intelligence artificielle (IA) entreront en vigueur avec, dans leur sillage, une myriade de portes ouvertes pour contrôler l’espace public. Le texte était pourtant censé encadrer l’usage de l’intelligence artificielle contre les menaces pour les droits fondamentaux et les libertés publiques en Europe. Mais après deux ans de négociations secrètes entre les États européens, ce cadre n’a pas survécu aux coups de boutoir de la France, qui a obtenu des exemptions majeures en imposant le thème de « la sécurité nationale ».

C’est ce que démontre l’analyse d’une centaine de documents confidentiels européens sur l’AI Act, obtenus par Disclose et Investigate Europ. Des comptes-rendus de négociations qui dévoilent comment Paris est parvenu à ouvrir une brèche pour autoriser la surveillance de masse dans l’espace public.

La « ligne rouge » de la sécurité nationale

Le lobbying de la France commence fin 2022. À l’époque, les débats sur ce projet porté par la Commission européenne depuis avril 2021 sont tendus. Au cœur des discussions entre les 27 pays de l’UE : la classification des risques liés à l’utilisation de l’IA. Très vite, Paris s’oppose à ce que la future loi européenne interdise certaines technologies particulièrement intrusives. En l’occurrence, celles qui présentent des risques dits « inacceptables » pour les libertés publiques.

Le 18 novembre 2022, au cours d’une réunion organisée à huis clos avec ses homologues européens, le représentant français prévient : « L’exclusion des questions de sécurité et de défense [du cadre du règlement]… doit être maintenue à tout prix ». Par cette requête, la France veut garder la possibilité de recourir à la reconnaissance faciale en temps réel dans l’espace public, en cas de risque pour la sécurité du pays. Cela vaut aussi pour le maintien de l’ordre. Ce que confirme une source en première ligne des négociations : « La France considère que l’ordre public fait partie de la sécurité nationale, c’est pourquoi elle a réclamé que tous les aspects du maintien de l’ordre soient exclus du règlement. Elle est le seul pays à avoir demandé cette exclusion totale ». Des manifestant·es accusé·es de troubler l’ordre public pourraient ainsi devenir les cibles légales de la reconnaissance faciale. Sollicités à plusieurs reprises, le gouvernement français et ses représentant·es à Bruxelles n’ont pas répondu aux questions de Disclose et Investigate Europe.

D’abord isolé, Paris ne ménage pas ses efforts pour persuader ses homologues européens du bien-fondé de sa demande. En septembre 2022, l’ambassadeur adjoint français s’entretient avec l’un des rapporteurs du texte au Parlement européen. Objectif : le convaincre de la nécessité d’autoriser la reconnaissance faciale pour le maintien de l’ordre. « Le diplomate français était nerveux, il y avait de la tension dans la pièce, témoigne notre source. Le ton est monté… Le représentant français campait sur ses positions, au prétexte que la France organisait les Jeux olympiques quelques mois plus tard .» En France, avant les JO, l’utilisation de la vidéosurveillance algorithmique par la police n’était autorisée que dans de très rares cas. L’événement sportif a donné l’occasion au gouvernement de faire adopter une loi validant son expérimentation jusqu’en mars 2025. Sans toutefois parvenir à convaincre les parlementaires d’y inclure la reconnaissance faciale.

Matignon à la manœuvre

L’activisme de Paris en faveur de technologies ultra-intrusives est étayé par un courrier envoyé, fin novembre 2023, au secrétariat du Conseil de l’UE. Ce document que Disclose et Investigate Europe se sont procuré est signé du Secrétariat général aux affaires européennes (SGAE), un service placé sous l’autorité de Matignon et chargé de la coordination interministérielle pour les politiques européennes. Le service rappelle d’abord la « ligne rouge » de la France « sur l’exclusion de la sécurité nationale ». Il insiste ensuite pour pouvoir utiliser l’IAdans l’espace public « en cas d’urgence justifiée ».

Les efforts de la France ont été récompensés. Comme l’indique l’article 2.3 de l’AI Act. Celui-ci dispose en effet que « le présent règlement (…) ne porte pas atteinte aux compétences des États membres en matière de sécurité nationale. » Selon Aljosa Ajanovic, membre de l’EDRI, une organisation de défense des droits des citoyen·nes européen·nes, ce principe « permet d’introduire des systèmes de surveillance biométrique de masse qui risquent d’affecter lourdement nos libertés de mouvement, de réunion, d’expression ainsi que notre vie privée ».

Quant à l’article 46, alinéa 2 du règlement européen, il précise que « dans une situation d’urgence dûment justifiée pour des raisons exceptionnelles de sécurité publique (…) les autorités répressives » peuvent utiliser « un service d’IA à haut risque spécifique », sans autorisation.

Appartenance religieuse et politique

Si un État estime que sa sécurité est en jeu, il pourra aller jusqu’à rechercher une personne sur la base de la « race, opinions politiques, affiliation à une organisation syndicale, convictions religieuses ou philosophiques, vie sexuelle ou leur orientation sexuelle », grâce à la science algorithmique. Une attaque en règle contre les libertés publiques et les droits civiques qui semble également défendue par les autorités françaises, comme l’indique un passage du courrier du Secrétariat général aux affaires européennes. Celui-ci souligne que la France estime « très important de préserver la possibilité de rechercher une personne sur la base de critères objectifs exprimant une croyance religieuse ou une opinion politique ». Une surveillance qui serait rendue possible grâce, notamment, est-il précisé, à la détection du « port d’un insigne ou d’un accessoire, lorsque cette personne est impliquée dans l’extrémisme violent ou présente un risque terroriste ». Un badge d’un mouvement écologiste classé « extrémiste et violent » pourrait donc motiver l’allumage de caméras dopées à l’IA.

« Il est glaçant de voir l’UE laisser ses polices recourir à ces systèmes pour tenter de détecter l’orientation sexuelle, s’indigne Félix Tréguer, auteur de Technopolice, la surveillance policière à l’ère de l’IA et porte-parole de la Quadrature du Net, une association française de défense des libertés numériques. « C’est aussi ça l’intelligence artificielle, poursuit-il, le retour des théories naturalisantes, des pseudosciences et des catégories arbitraires, désormais inscrites dans de puissants systèmes automatisés pour mettre en œuvre la violence d’État ».

« La plupart du temps, les gens ne sauront pas qu’ils ont été surveillés »


Sarah Chander, cofondatrice de l’ONG Equinox
Au cours des discussions sur l’AI Act, la France a mis en avant deux autres « lignes rouges ». Paris a en effet demandé à ce que les prisons et les zones de contrôles aux frontières soient « exclues de la définition de l’espace public », comme le dévoile le compte-rendu d’une réunion de novembre 2023. Là encore, aux côtés d’autres pays comme la Grèce, elle a obtenu gain de cause.

Dans quelques semaines, les États membres pourront donc déployer des systèmes de reconnaissance émotionnelle à leurs portes. Des logiciels, qui, une fois reliés à une caméra, pourront être utilisés lors d’interrogatoires de personnes exilées. L’objectif étant, par exemple, de chercher à évaluer avec plus ou moins de fiabilité, leur degré de nervosité ou d’anxiété pour savoir si elles mentent sur leur pays d’origine, leur âge ou la raison de leur départ. « Ce qui est insidieux dans l’utilisation de l’IA par la police et le contrôle des migrations, c’est que la plupart du temps, les gens ne sauront pas qu’ils ont été surveillés par ces systèmes », déplore Sarah Chander, cofondatrice d’Equinox, une ONG qui lutte contre les discriminations raciales en Europe.

Derrière l’activisme de la France, on trouve enfin la volonté de laisser les coudées franches aux industriels européens de l’intelligence artificielle. C’est du moins ce que sous-entend le représentant de Paris dans une réunion organisée le 15 novembre 2023. Celui-ci « met urgemment en garde contre les impacts négatifs [que pourrait avoir le règlement] sur la capacité d’innovation de l’UE ». Il insiste, évoquant le risque que « les entreprises délocalisent leurs activités dans des régions où les droits fondamentaux ne jouent pas de rôle ». Un argument repris par Emmanuel Macron un mois plus tard. Selon le chef de l’État, en régulant « beaucoup plus vite et beaucoup plus fort que nos grands compétiteurs, on régulera des choses qu’on ne produira plus ou qu’on n’inventera pas ». À Bruxelles, beaucoup interprètent ces prises de position comme un soutien à peine voilé à un fleuron de la « start-up nation » : Mistral AI. La société française compte parmi ses actionnaires Cédric O, un proche du président de la République et ancien secrétaire d’État au numérique. C’est lui aussi qui est chargé des relations publiques de l’entreprise, dont l’un des fondateurs confiait il y a tout juste un an : « Dans sa forme finale, l’AI Act est tout à fait gérable pour nous ».

source : #^https://disclose.ngo/fr/article/intelligence-artificielle-la-france-ouvre-la-voie-a-la-surveillance-de-masse-en-europe

#ia #intelligenceartificielle #technopolice #videosurveillance #videosurveillancealgorithmique #reconnaissancefaciale #surveillancealgorithmique #surveillancegeneralisee #flicagenumerique
Disclose.ngo

Disclose est un média et une ONG de journalisme d’investigation.

Disclose.ngo
 [email protected] a écrit la publication qui suit Wed, 25 Sep 2024 17:46:06 +0200 Quelle surprise : le préfet de police de Paris veut prolonger le recours à la vidéosurveillance algorithmique, expérimentée pendant les JO, estimant qu'elle a "démontré son utilité". L'effet cliquet, encore et toujours.

https://www.lemonde.fr/societe/article/2024/09/25/le-prefet-de-police-de-paris-se-dit-favorable-a-une-prolongation-du-recours-a-la-videosurveillance-algorithmique_6333125_3224.html


##surveillance ##surveillancealgorithmique
Olivier Tesquet :unverified: (@[email protected])

1.13K Posts, 200 Following, 5.98K Followers · Cellule enquêtes @ Télérama. Quelques bouquins monomaniaques (À la trace, État d'urgence technologique, Dans la tête de Julian Assange). Oiseau migrateur. ✉️ [email protected]

Mamot - Le Mastodon de La Quadrature du Net