Des ingénieurs créent les algorithmes, avec efficacité. En 2019, l'armée israélienne a mis en place une unité spéciale pour proposer des cibles à l'aide de l'IA générative. Son objectif : produire plus.
Les dommages sur les civil·es ne sont ni recherchés, ni écartés :

1. Un ingénieur : "Lorsqu'une fillette de 3 ans est tuée dans une maison à Gaza, c'est parce que quelqu'un dans l'armée a décidé qu'il n'était pas grave qu'elle soit tuée."

2. Une IA produit "100 cibles par jour". Comme une usine qui livrerait des meurtres :
Selon l'enquête, une autre raison du grand nombre de cibles et des dommages considérables causés aux civil·es à Gaza est l'utilisation généralisée d'un système appelé "Habsora" ("L'Évangile"), qui repose en grande partie sur l'intelligence artificielle et peut "générer" des cibles presque automatiquement à un rythme qui dépasse de loin ce qui était possible auparavant. Ce système d'intelligence artificielle, comme l'a décrit un ancien officier de renseignement, facilite essentiellement une "usine d'assassinats de masse".

3. La troisième catégorie est celle des "cibles de pouvoir", qui comprend les gratte-ciel et les tours d'habitation au cœur des villes, ainsi que les bâtiments publics tels que les universités, les banques et les administrations.

Une enquête de +972 (en) : https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/

#éthique #efficacité #productivité #sociologie #travail #néoLibéralisme #individualisme #conformisme #sécurité #sureté #sociologie #anthropologie #conformité #collaboration #technoCritique #IAGénérative #Habsora #numérisation #informatique 🧶​

‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza

Permissive airstrikes on non-military targets and the use of an AI system have enabled the Israeli army to carry out its deadliest war on Gaza.

+972 Magazine
L'ancien chef d'état-major de Tsahal, Aviv Kochavi, a déclaré : "Une fois cette machine activée [lors de la guerre de 11 jours menée par Israël contre le Hamas en mai 2021], elle a généré 100 cibles par jour. Pour mettre cela en perspective, dans le passé, nous produisions 50 cibles à Gaza par an. Aujourd'hui, cette machine produit 100 cibles par jour, et 50 % d'entre elles sont attaquées".
(en) https://www.ynetnews.com/magazine/article/ry0uzlhu3
IDF possesses Matrix-like capabilities, ex-Israeli army chief says

The scars of the Second Intifada, how the Supreme Court helped the army in the war against terrorism and what will war look like in the future Former IDF chief of staff Aviv Kochavi speaks to Ynet about everything

ynetnews

L'#IA #Habsora estime à l'avance le nombre d'innocent·es tué·es avec chaque cible de bombardement "générée" :

Cinq sources différentes ont confirmé que le nombre de civil·es susceptibles d'être tué·es lors d'attaques contre des résidences privées est connu à l'avance par les services de renseignement israéliens et apparaît clairement dans le fichier des cibles sous la catégorie de "dommages collatéraux".

Selon ces sources, il existe des degrés de dommages collatéraux, en fonction desquels l'armée détermine s'il est possible d'attaquer une cible à l'intérieur d'une résidence privée. Lorsque la directive générale devient "Dommage collatéral 5", cela signifie que nous sommes autorisés à frapper toutes les cibles qui tueront cinq civil·es ou moins - nous pouvons agir sur tous les dossiers de cibles qui montrent 5 [civil·es] ou moins", a déclaré l'une des sources.

"Dans le passé, nous ne marquions pas régulièrement les maisons des membres subalternes du Hamas pour les bombarder", a déclaré un responsable de la sécurité qui a participé à l'attaque de cibles lors d'opérations précédentes. À mon époque, si la maison sur laquelle je travaillais portait la mention "Dommage collatéral 5", elle n'était pas toujours approuvée [pour l'attaque]. Selon lui, une telle approbation n'était donnée que si l'on savait qu'un haut commandant du Hamas vivait dans la maison.

"D'après ce que j'ai compris, ils peuvent aujourd'hui marquer toutes les maisons [de tout agent militaire du Hamas, quel que soit son rang]", a poursuivi la source. "Cela fait beaucoup de maisons. Des membres du Hamas qui n'ont aucune importance vivent dans des maisons dans toute la bande de Gaza. Ils marquent donc la maison, la bombardent et tuent tout le monde".

"Une politique concertée visant à bombarder les maisons familiales" (en) : https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/

#tech #ingénierie #IAGenerative #industrialisation #vengeance #Gaza #guerre #guerreIsraëlGaza #bombardements #Tsahal #nettoyageEthnique #crimesDeGuerre #technologie #israel #productivité

‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza

Permissive airstrikes on non-military targets and the use of an AI system have enabled the Israeli army to carry out its deadliest war on Gaza.

+972 Magazine

Une usine de production d'assassinats :

"Nous préparons les cibles automatiquement et travaillons selon une liste de contrôle", a déclaré à +972/Local Call une source ayant travaillé à la Section des cibles. "C'est vraiment comme une usine. Nous travaillons rapidement et nous n'avons pas le temps d'examiner la cible. L'idée est que nous sommes jugé·es en fonction du nombre de cibles que nous parvenons à produire".

Une autre source a déclaré à la publication que l'IA Habsora avait permis à l'armée de diriger une "usine d'assassinats de masse" dans laquelle "l'accent est mis sur la quantité et non sur la qualité". Un œil humain, a-t'elle ajouté, "examinerait les cibles avant chaque attaque, mais elle se passe d'y consacrer beaucoup de temps".

Rapport : (en) https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/

(à suivre)

#IA #militaire #IAMilitaire #armée #Tsahal #productivité #techno #technologie #éthique #biais #IAGenerative #Gaza #guerre #israelGaza #israelHamas #bombardement #bombes #armes #Habsora #nettoyageEthnique #crimesDeGuerre #homicides #assassinats #homo #assassins #préméditation

‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza

Permissive airstrikes on non-military targets and the use of an AI system have enabled the Israeli army to carry out its deadliest war on Gaza.

+972 Magazine

[Qui sont les terroristes ?]

Une personne ayant participé aux précédentes offensives israéliennes à Gaza a déclaré :
"S'ils disaient au monde entier que le bureau [du Jihad islamique] au 10e étage n'est pas une cible importante, mais que son existence justifie la destruction de toute l'immeuble de grande hauteur pour mettre la pression sur les familles civiles qui y vivent, afin d'augmenter la pression sur des organisations terroristes, cela serait perçu comme du terrorisme. Donc, ils ne le disent pas".

Rapport d'enquête (en anglais) : https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/

#frappes #bombardements #armes #terrorisme #antiTerrorisme #israëlGaza #israëlHamas #Hamas #Habsora #nettoyageEthnique #crimesDeGuerre #israël #armée #Tsahal #productivité #éthique #biais #dommagesCollatéraux #victimes #civils #terroristes

‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza

Permissive airstrikes on non-military targets and the use of an AI system have enabled the Israeli army to carry out its deadliest war on Gaza.

+972 Magazine

La première guerre nourrie par IA a eu lieu en mai 2021.

Voici quelques éloges de la technologie en institution :

En mai 2021 "pour la première fois, les services de renseignement ont joué un rôle autant transformateur au niveau tactique.

C'est le résultat d'un changement stratégique opéré par la Division du renseignement de l'armée ces dernières années. En révisant son rôle dans les opérations militaires, l'institution a mis en place une machine de guerre du renseignement complète, "à guichet unique", rassemblant tous les acteurs concernés par la planification et la direction du renseignement, la collecte, le traitement et l'exploitation, l'analyse et la production, ainsi que le processus de diffusion (PCPAD)".

Avi Kalo (en) : https://www.frost.com/frost-perspectives/ai-enhanced-military-intelligence-warfare-precedent-lessons-from-idfs-operation-guardian-of-the-walls/

(à suivre) 🧶#pelote

#histoire #données #analytique #planification #renseignement #militaire #IA #Défense #israelGaza #guerresDIsrael #israelHamas #techno #israel #armée #productivité #institutions #EstelleRaconte

AI-Enhanced Military Intelligence Warfare Precedent: Lessons from IDF’s Operation “Guardian of the Walls”

AI-Enhanced Military Intelligence Warfare Precedent: Lessons from IDF’s Operation “Guardian of the Walls”.

Frost & Sullivan

"Le déploiement d'applications d'IA et d'analyses de Big Data dans tous les domaines au cours de la campagne a donné à l'armée un véritable avantage militaire sur le champ de bataille par rapport à son adversaire historique, le Hamas.

"Tout d'abord, l'IA a amélioré et accéléré l'échelle, la capacité et la létalité des processus de ciblage lors des engagements en temps réel, les pilotes de l'aviation attaquant les cibles au sol sur la base des résultats de l'IA. Plus précisément, cette méthode a permis d'améliorer l'efficacité de la puissance de feu, y compris les frappes de précision et, surtout, de minimiser les dommages collatéraux, ce qui est essentiel pour contrer les tactiques non militaires et non structurées du Hamas, qui opère à partir de zones civiles.

"Deuxièmement, pour la toute première fois, l'IA et la base de données de recherche entraînée ont été utilisées pour mieux comprendre les menaces imminentes de roquettes (la principale arme d'attaque adoptée par le Hamas et le Jihad islamique dans la bande de Gaza). Des plateformes innovantes basées sur l'IA ont armé les systèmes de reconnaissance des cibles avec des prévisions basées sur les probabilités du comportement de l'ennemi, et ont fourni un soutien à l'identification sur le terrain. Le "Machine Learning" a également été utilisé pour apprendre, suivre et découvrir des cibles à partir des données obtenues. En résumé, l'armée a utilisé avec succès la reconnaissance et l'acquisition automatiques de cibles (ATR) axées sur l'IA, tout en obtenant des résultats positifs en éliminant plus de 70 escouades de lanceurs de roquettes alors qu'elles étaient déployées et prêtes à tirer en direction du territoire israélien.

"Enfin, la campagne a reflété l'évolution vers une guerre réseau-centrée, accompagnée du concept "Chaque soldat est un capteur" (ES2). Cela a entraîné une augmentation exponentielle du volume d'informations sur le terrain, sur le champ de bataille, afin de compléter les capacités d'analyse des renseignements provenant de la foule (CROSINT). La Division du rensignement a exploité divers capteurs au sol, en mer et dans les airs pour renforcer sa capacité de surveillance de l'ennemi. Elle a ainsi renforcé son contrôle sur les combats au sol tout au long de la campagne, remportant des victoires allant de l'endommagement du système stratégique de tunnels souterrains du Hamas à l'assassinat de hauts responsables des ailes militarisées du Hamas et du Jihad islamique."

(en) : https://www.frost.com/frost-perspectives/ai-enhanced-military-intelligence-warfare-precedent-lessons-from-idfs-operation-guardian-of-the-walls/

#données #analytique #planification #renseignement #militaire #Défense #armée #IA #techno #technoSolutionnisme #externalités #productivité #éthique #biais #risques #collatéral #victimes #civils #frappes #bombardement #armes #terrorisme #antiTerrorisme #israel #israelGaza #guerresDIsrael #israelHamas #crimesDeGuerre

AI-Enhanced Military Intelligence Warfare Precedent: Lessons from IDF’s Operation “Guardian of the Walls”

AI-Enhanced Military Intelligence Warfare Precedent: Lessons from IDF’s Operation “Guardian of the Walls”.

Frost & Sullivan
Une usine d'assassinats de masse : les bombardements calculés d'Israël sur Gaza - UJFP

 

UJFP

Derrière chaque appareil qui décolle pour une attaque, il y a des milliers de militaires, hommes et femmes, qui rendent l'information accessible au pilote. "Iels produisent les cibles et les rendent accessibles. La définition d'un objectif est un processus qui fait intervenir de nombreux facteurs qui doivent être approuvés. La portée, les dommages collatéraux et le niveau de précision sont autant d'éléments qui doivent être approuvés. Pour cela, il faut interconnecter les renseignements, les tirs (d'armes), le C4I [système de communication militaire intégré, qui comprend l'interaction entre les troupes, le renseignement et l'équipement de communication] et bien d'autres choses encore", explique Nati Cohen, actuellement réserviste à la Section Exercices de la Division C4I de l'armée.

Publié en 2021 dans un magazine de sécurité israélien (en anglais) : https://israeldefense.co.il/en/node/50155

#données #analytique #planification #renseignement #militaire #Défense #armée #IA #techno #technoSolutionnisme #productivité #éthique #risques #collatéral #victimes #civils #déshumanisation #frappes #bombardement #armes #terrorisme #antiTerrorisme #israel #israelGaza #guerresDIsrael #israelHamas #crimesDeGuerre

"L'unité de recherche opérationnelle de la Division de renseignement militaire - l'unité logicielle "Lotem” de la Direction J6/C4i de l'armée israélienne - ne semble pas être le genre d'endroit où l'intelligence artificielle de pointe est mise en œuvre.
[...]
"L'unité est engagée dans le même type de travail d'IA que les plus grandes entreprises technologiques du monde, comme Google, Facebook et la société chinoise Baidu, dans une course à l'application de l'apprentissage automatique à des fonctions telles que les voitures autonomes, l'analyse des présentations téléphoniques des vendeurs et la cybersécurité - ou pour mener la prochaine guerre d'Israël de manière plus intelligente."

“J'ai toujours aimé les algorithmes. Je m'y intéressais déjà au lycée et je travaillais dans ce domaine. Lorsque j'ai été appelé sous les drapeaux, je voulais combiner technologie et combat”, se souvient le major Sefi Cohen, 34 ans.

La seule femme de l'unité a quitté l'unité récemment [en 2017], de sorte que pour le moment, l'équipe est composée uniquement d'hommes. Cohen dit : “Tous ceux qui sont ici sont les meilleurs”.

"Tiny IDF Unit Is Brains Behind Israeli Army Artificial Intelligence" - Haaretz, 2017 : https://www.haaretz.com/israel-news/2017-08-15/ty-article/tiny-idf-unit-is-brains-behind-israeli-army-artificial-intelligence/0000017f-e35b-d7b2-a77f-e35fc8f40000

#succès #masculinité #virilité #force #patriarcat #élite #nonMixité #histoire #données #analytique #planification #renseignement #militaire #Défense #armée #Tsahal #IA #techno #technoSolutionnisme #technoCritique #externalités #productivité #éthique #biais #risques #collatéral #victimes #civils #déshumanisation #frappes #bombardement #armes #terrorisme #antiTerrorisme #israel #israelGaza #guerresDIsrael #israelHamas #crimesDeGuerre

La lieutenant-colonel Nurit Cohen Inger a servi 22 ans. Elle a été responsable des Données (#BigData) à la Direction des services informatiques, (qui fait partie de l'unité de technologies de l'information et de communication Lotem de l'armée israélienne). Deux mois avant sa promotion au poste de "Chief Data Officer", elle a fait part de son enthousiasme pour la guerre par IA à JNS.org :

"Le niveau extrême dans ce domaine du Big Data est d'avoir un système qui fait des recommandations sur ce qu'il faut faire, sur la base des données", a déclaré Inger. "Nous y sommes."

En théorie, cela peut aider Tsahal à déterminer où diriger les frappes contre d'éventuel·les ennemi·es, afin d'obtenir un maximum de dégâts.

Mme Inger a refusé d'entrer dans les détails, mais elle a déclaré que l'IA "peut influencer chaque étape et chaque petite décision d'un conflit, ainsi que le conflit lui-même".

"Pour que ce système fonctionne, il faut qu'il fonctionne à un niveau très élevé", a-t-elle ajouté. "L'IA est une machine qui possède les caractéristiques d'intelligence d'une personne - dans ce cas, en donnant des recommandations."

Les commandant·es humain·es continueront à prendre les décisions finales, mais ils ou elles recevront "des recommandations très précises et pertinentes. C'est ce qui se passe, et ce qui se passera de plus en plus."

https://www.jns.org/artificial-intelligence-shaping-the-idf-in-ways-never-imagined-2/ @armee

#histoire #données #analytique #planification #renseignement #militaire #Défense #armée #Tsahal #IA #techno #technoSolutionnisme #technoCritique #externalités #productivité #éthique #biais #risques #collatéral #victimes #civils #déshumanisation #frappes #bombardement #armes #israel #israelGaza #guerresDIsrael #israelHamas #crimesDeGuerre


Voici la suite de l'enquête de Yuval Abraham :

"L'armée israélienne a désigné des dizaines de milliers d'habitant·es de Gaza pour assassinat, en utilisant un système de ciblage par IA avec peu de supervision et une politique permissive en pertes humaines."
(en) https://www.972mag.com/lavender-ai-israeli-army-gaza/

#Lavande #histoire #données #analytique #planification #renseignement #militaire #Défense #armée #Tsahal #IA #techno #technoSolutionnisme #technoCritique #externalités #productivité #éthique #biais #risques #collatéral #victimes #civils #déshumanisation #frappes #bombardement #armes #israel #israelGaza #guerresDIsrael #israelHamas #crimesDeGuerre #972Mag

@armee @histoire @supremacisme

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza

The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal.

+972 Magazine

D’un point de vue de renseignement, il était plus facile de localiser les individus dans leurs maisons privées.

"Nous ne voulions pas tuer des agents uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou qu’ils participaient à une activité militaire", a déclaré A., un officier de renseignement, à +972 et Local Call. "Au contraire, #Tsahal les a bombardé dans leurs maisons sans hésitation, en première option. Il est beaucoup plus facile de bombarder la maison d’une famille. Le système est conçu pour les rechercher dans ce genre de situation".

Le reportage de Yuval Abraham (en) https://www.972mag.com/lavender-ai-israeli-army-gaza/

🧶#pelote (à suivre) @terrorisme @armee @technique @supremacisme

#déshumanisation #industrie #technoCritique #éthique #efficacité #innovation #ciblage #industrialisation #obtenues #données #analyse #planification #renseignement #militaire #Défense #armée #IA #Lavande #Lavender #techno #technoSolutionnisme #externalités #productivité #biais #risques #collatéral #victimes #civils #frappes #bombardement #armes #terrorisme #antiTerrorisme #israel #israelGaza #guerresDIsrael #israelHamas #crimesDeGuerre #génocide #accélération #accélérer

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza

The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal.

+972 Magazine

L’actuel commandant de l’unité d’élite du renseignement israélien #Unité8200 a écrit un livre publié en anglais en 2021. Il y décrit le personnel humain comme un "goulot d’étranglement" qui limite la capacité de l’armée lors d’une opération militaire ; le commandant se lamente : "Nous [les humains] ne pouvons pas traiter autant d’informations. Peu importe le nombre de personnes que vous avez chargées de produire des cibles pendant la guerre - vous ne pouvez toujours pas produire suffisamment de cibles par jour".

On a donc inventé la machine Lavande pour marquer les personnes à l’aide de l’IA. Puis l’armée a décidé de désigner comme cibles humaines tous les agents de l’aile militaire du Hamas, quel que soit leur rang ou leur importance militaire.
L’officier supérieur B. : "Ils voulaient nous permettre d’attaquer automatiquement [les agents subalternes]. C’est le Saint Graal. Une fois que vous passez à l’automatique, la génération de cibles devient folle".

Le reportage de Yuval Abraham (en) https://www.972mag.com/lavender-ai-israeli-army-gaza/

#déshumanisation #industrie #technoCritique #éthique #efficacité #innovation #ciblage #industrialisation #obtenues #données #analyse #planification #renseignement #militaire #Défense #armée #IA #Tsahal #Lavande #Lavender #techno #technoSolutionnisme #externalités #productivité #biais #risques #collatéral #victimes #civils #frappes #bombardement #armes #terrorisme #antiTerrorisme #israel #israelGaza #guerresDIsrael #israelHamas #israelPalestine #Hamas #crimesDeGuerre #génocide #accélération #accélérer

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza

The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal.

+972 Magazine

Les sources ont déclaré que l’autorisation d’utiliser telles quelles les listes de personnes à abattre de #Lavande, qui n’était auparavant utilisée que comme outil auxiliaire, a été accordée environ deux semaines après le début de la guerre, après que le personnel des services de renseignement a vérifié "manuellement" l’exactitude d’un échantillon aléatoire de plusieurs centaines de cibles sélectionnées par le système d’intelligence artificielle. Lorsque cet échantillon a montré que les résultats de Lavande avaient atteint une précision de 90 % dans l’identification de l’affiliation d’un individu au Hamas, les officiers ont autorisé l’utilisation généralisée du système. À partir de ce moment, si Lavande décidait qu’un individu était un militant du Hamas, on demandait aux sources de traiter ça comme un ordre.

« Je les trouvais tout de même plus éthiques que les cibles que nous bombardions uniquement à des fins de "dissuasion" - des gratte-ciel évacués et renversés uniquement pour causer des destructions. »

Les explications de Yuval Abraham (en anglais) : https://www.972mag.com/lavender-ai-israeli-army-gaza/

#métriques #probabilités #modélisation #calibration #apprentissage #automatique #apprentissageAutomatique #ML #informatique #données #obtenues #audit #livrables #modèles #productivité #déshumanisation #industrie #technoCritique #éthique #efficacité #innovation #ciblage #industrialisation #obtenues #données #analyse #planification #renseignement #militaire #Défense #armée #IA #Tsahal #Lavender #techno #technoSolutionnisme #externalités #productivité #biais #risques #collatéral #victimes #civils #frappes #bombardement #armes #terrorisme #antiTerrorisme #israel #israelGaza #guerresDIsrael #israelHamas #israelPalestine #Hamas #crimesDeGuerre #génocide #accélération #accélérer

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza

The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal.

+972 Magazine

"En raison de la portée et de l’ampleur du projet, le protocole était le suivant : même si l’on n’est pas sûr que la machine ait raison, on sait que, statistiquement, c’est bon. Alors on y va", a déclaré une source qui a utilisé #Lavande.

"Elle a fait ses preuves", a déclaré B., l’officier de haut niveau. "Il y a quelque chose dans l’approche statistique qui vous donne une certaine norme et un certain standard. Il y a eu un nombre illogique de [bombardements] dans cette opération. De mémoire, c’est sans précédent. Et je fais bien plus confiance à un mécanisme statistique qu’à un soldat qui a perdu un ami il y a deux jours. Tout le monde, y compris moi, a perdu des personnes le 7 octobre. La machine l’a fait froidement. Et c’est ce qui a facilité les choses."

Une autre source des services de renseignement a déclaré : "En temps de guerre, on n’a pas le temps d’incriminer chaque cible. On est donc prêt à prendre la marge d’erreur de l’utilisation de l’intelligence artificielle, à risquer des dommages collatéraux et la mort de civil·es, et à risquer d’attaquer par erreur, et à s’en accommoder."

Yuval Abraham (en) https://www.972mag.com/lavender-ai-israeli-army-gaza/

#conformité #recrutement #enrôler #devoir #protocole #risques #gestionDesRisques #israélisme #patriotisme #suprémacismeJuif #Aliyah #métriques #probabilités #ML #informatique #audit #livrables #modèles #déshumanisation #industrie #technoCritique #éthique #efficacité #innovation #ciblage #industrialisation #obtenues #données #analyse #planification #renseignement #militaire #Défense #armée #IA #Tsahal #Unité8200 #Lavender #techno #technoSolutionnisme #externalités #productivité #biais #risques #collatéral #victimes #civils #frappes #bombardement #terrorisme #antiTerrorisme #israel #israelGaza #guerresDIsrael #israelHamas #israelPalestine #Hamas #crimesDeGuerre #génocide #génocideEnContinu #vengeance #punition #nettoyageEthnique #EstelleRaconte

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza

The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal.

+972 Magazine

B., l’officier de haut niveau, a déclaré que dans la guerre actuelle, "je consacrais 20 secondes à chaque cible à ce stade, et j’en faisais des dizaines par jour. Je n’avais aucune valeur ajoutée en tant qu’être humain, si ce n’est d’être un tampon d’approbation. Cela faisait gagner beaucoup de temps."

Selon B., une erreur fréquente se produisait "si la cible [du Hamas] donnait [son téléphone] à son fils, à son frère aîné ou à un homme au hasard. Cette personne était bombardée dans sa maison avec sa famille. Cela s’est souvent produit. C’est la plupart des erreurs causées par Lavande", a déclaré B.

Yuval Abraham (en) https://www.972mag.com/lavender-ai-israeli-army-gaza/

#protocole #risques #gestionDesRisques #conformité #production #recettage #devoir #patriotisme #suprémacismeJuif #métriques #probabilités #informatique #audit #livrables #modèles #déshumanisation #industrie #technoCritique #éthique #efficacité #innovation #ciblage #industrialisation #obtenues #données #analyse #planification #renseignement #militaire #Défense #armée #IA #Tsahal #Unité8200 #Lavande #Lavender #techno #technoSolutionnisme #externalités #productivité #biais #risques #collatéral #victimes #civils #frappes #bombardement #guerreIsraëlGaza #bombardements #terrorisme #terrorismeDÉtat #antiTerrorisme #israel #israelGaza #guerresDIsrael #israelHamas #israelPalestine #Hamas #crimesDeGuerre #génocide #génocideEnContinu #vengeance #punition #nettoyageEthnique #famille #maison #colonialité #racismeSystémique #racisme #racismeDEtat

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza

The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal.

+972 Magazine

Tsahal préférait utiliser des bombes "bêtes" pour frapper les maisons des personnes marquées. "On ne veut pas gaspiller des bombes coûteuses pour des gens sans importance - cela coûte très cher au pays et il y a une pénurie [de ces bombes]", a déclaré C., l’un des officiers de renseignement.

Si une cible subalterne vivait dans un immeuble de quelques étages, l’armée était autorisée à la tuer, ainsi que tous les habitant·es de l’immeuble, à l’aide d’une bombe bête.
"Nous menions généralement les attaques avec des bombes muettes, ce qui signifiait littéralement détruire toute la maison sur ses occupant·es. Mais même si un attentat est évité, on s’en moque, on passe immédiatement à la cible suivante. Grâce au système, les cibles ne cessent de se succéder. Il y en a encore 36 000 qui attendent."

Yuval Abraham (en) https://www.972mag.com/lavender-ai-israeli-army-gaza/

#calcul #protocole #risques #gestionDesRisques #conformité #production #recettage #devoir #patriotisme #suprémacismeJuif #métriques #probabilités #informatique #audit #livrables #modèles #déshumanisation #industrie #technoCritique #éthique #efficacité #innovation #ciblage #industrialisation #obtenues #données #analyse #planification #renseignement #militaire #Défense #armée #IA #Tsahal #Unité8200 #Lavande #Lavender #techno #technoSolutionnisme #externalités #productivité #biais #risques #collatéral #victimes #civils #frappes #bombardement #guerreIsraëlGaza #bombardements #terrorisme #terrorismeDÉtat #antiTerrorisme #israel #israelGaza #guerresDIsrael #israelHamas #israelPalestine #Hamas #crimesDeGuerre #génocide #génocideEnContinu #vengeance #punition #nettoyageEthnique #famille #maison #colonialité #racismeSystémique #racisme #racismeDEtat #parentalité

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza

The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal.

+972 Magazine
Un haut responsable des services secrets israéliens sur la sellette

Le brigadier général Yossi Sariel, c'est donc son nom, est le chef dans la tourmente de l'unité 8200, la plus célèbre des unités israéliennes de renseignements.

France Inter

#Microsoft a développé une version sur mesure de sa plateforme cloud pour héberger des fichiers audio contenant des millions d'appels téléphoniques passés par des Palestinien·nes. Le client est l'Unité "8200" israélienne, une agence de renseignements "#cyber", créée pour multiplier les frappes contre des personnes.

Une enquête de Yuval Abraham pour +972 : https://agencemediapalestine.fr/blog/2025/08/06/microsoft-stocke-un-tresor-de-renseignements-israeliens-utilise-pour-attaquer-les-palestiniens/

L'#Unité8200 avait déjà permis de multiplier les cibles par un millier pour la guerre contre le Hamas en 2021 : https://infosec.exchange/@estelle/111505610539532352

Microsoft stocke une mine de renseignements israéliens utilisé pour attaquer les Palestiniens - Agence Media Palestine

Par Yuval Abraham, le 6 Août 2025 Le géant de la technologie a développé une version personnalisée de sa plateforme cloud pour l’unité 8200 d’Israël, qui héberge des fichiers audio de millions d’appels de Palestiniens à Gaza et en Cisjordanie, révèle une enquête conjointe L’unité d’élite de cyber-guerre de l’armée israélienne utilise les serveurs cloud […]

Agence Media Palestine

"Les dirigeants de la Silicon Valley ne se contentent plus de créer des outils destinés au champ de bataille ; ils sont désormais officiellement intégrés à sa structure de commandement."

"L’IA au service de la guerre : comment les géants de la technologie facilitent les crimes et l’occupation d’Israël", par Marwa Fatafta pour Al-Shabaka : https://agencemediapalestine.fr/blog/2025/10/28/lia-au-service-de-la-guerre-comment-les-geants-de-la-technologie-facilitent-les-crimes-et-loccupation-disrael/

#déshumanisation #écrabouiller #technoCritique #guerreIA #renseignement #militaire #Défense #armée #Tsahal #IA #technoSolutionnisme #productivité #frappes #bombardement #armes #militaire #israel #israelGaza #complicité #guerresDIsrael #israelHamas #crimesDeGuerre #Unité8200

L'IA au service de la guerre : comment les géants de la technologie facilitent les crimes et l'occupation d'Israël - Agence Media Palestine

L’agence Média Palestine propose une traduction de cette analyse réalisée pour Al-Shabaka de Marwa Fatafta, écrivaine, chercheuse et analyste politique palestinienne basée à Berlin. Par Marwa Fatafta, le 26 octobre 2025 Les géants états-uniens de la technologie se présentent comme des innovateurs éthiques qui façonnent un monde meilleur grâce à l’intelligence artificielle (IA) et au […]

Agence Media Palestine