Des ingénieurs créent les algorithmes, avec efficacité. En 2019, l'armée israélienne a mis en place une unité spéciale pour proposer des cibles à l'aide de l'IA générative. Son objectif : produire plus.
Les dommages sur les civil·es ne sont ni recherchés, ni écartés :
1. Un ingénieur : "Lorsqu'une fillette de 3 ans est tuée dans une maison à Gaza, c'est parce que quelqu'un dans l'armée a décidé qu'il n'était pas grave qu'elle soit tuée."
2. Une IA produit "100 cibles par jour". Comme une usine qui livrerait des meurtres :
Selon l'enquête, une autre raison du grand nombre de cibles et des dommages considérables causés aux civil·es à Gaza est l'utilisation généralisée d'un système appelé "Habsora" ("L'Évangile"), qui repose en grande partie sur l'intelligence artificielle et peut "générer" des cibles presque automatiquement à un rythme qui dépasse de loin ce qui était possible auparavant. Ce système d'intelligence artificielle, comme l'a décrit un ancien officier de renseignement, facilite essentiellement une "usine d'assassinats de masse".
3. La troisième catégorie est celle des "cibles de pouvoir", qui comprend les gratte-ciel et les tours d'habitation au cœur des villes, ainsi que les bâtiments publics tels que les universités, les banques et les administrations.
Une enquête de +972 (en) : https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/
#éthique #efficacité #productivité #sociologie #travail #néoLibéralisme #individualisme #conformisme #sécurité #sureté #sociologie #anthropologie #conformité #collaboration #technoCritique #IAGénérative #Habsora #numérisation #informatique 🧶




