De la bêtise artificielle
« Aujourd’hui, avec l’IA générative, ce phénomène de prolétarisation des savoir-penser se poursuit et c’est cette nouvelle étape que j’essaie de décrire dans le livre : il me semble que l’on assiste aujourd’hui à la délégation de nos capacités expressives aux systèmes algorithmiques, qui génèrent des textes (des sons ou des images) à notre place. Des calculs probabilistes sur des quantités massives de données se substituent ainsi à l’exercice des facultés noétiques de mémoire, de synthèse et d’imagination qui sont à l’oeuvre dans les activités d’expression et qui sont éminemment singulières. »
« À l’inverse, les calculs probabilistes effectués sur des quantités massives de données par les grands modèles de langage (LLM) renforcent les moyennes et les biais majoritaires, en éliminant les singularités idiomatiques (les écarts, les exceptions, les improbabilités). Cela risque de conduire à un langage très stéréotypés et uniformisé, qui sera aussi formaté en fonction de la manière dont les systèmes ont été entraînés, le plus souvent par des entreprises privées issues de la Silicon Valley, qui ont des agendas politiques et économiques bien déterminés. »
Extrait d’un entretien avec Anne Alombert, publié sur Lundimatin, à l’occasion de la publication de son ouvrage De la bêtise artificielle aux éditions Allia (2025).
⭕ https://lundi.am/De-la-betise-artificielle
⭕ https://www.editions-allia.com/fr/...
#IntelligenceArtificielle #algorithmes #TechnoCritique #LiberationNumerique #AnneAlombert @EditionsAllia @lundimatin