| 🏠️ | https://laurent.pointecouteau.com |
| ✍️ | @[email protected] |
| 📷 | @[email protected] |
| 🏠️ | https://laurent.pointecouteau.com |
| ✍️ | @[email protected] |
| 📷 | @[email protected] |
Sauf que moi au milieu de tout ça, au delà du ton, je suis une personne comme les autres, bénévole, je ne suis pas particulièrement financée, outillée ni formée pour analyser ni m'exprimer sur l'impact humain, politique, économique ou financier d'un choc pétrolier, et encore moins d'une guerre.
J'ai aussi des envies et des besoins dont je veux tenir compte.
En particulier, même si je n'y arrive pas toujours autant que je le souhaite, même si c'est parfois trop discret : je fais de mon mieux pour créer un lien entre les choses dont je parle et les gens qui sont impactés.
Par exemple, je peux formuler avec un degré de confiance suffisant que l'IA générative, par le jeu du colonialisme repose comme environ tout le capitalisme sur l'exploitation massive et brutale des peuples non-blancs. Dans le cadre de ChatGPT spécifiquement, cette exploitation était particulièrement localisée au Kenya, mais Sama, l'entreprise qui sous-traite ce genre de tâches emploie des gens dans de nombreux autres pays comme l'Uganda, l'Inde ou le Pakistan. La logique est exactement la même que pour le Mechanical Turk d'Amazon : faire passer l'exploitation raciste et brutale des personnes non-blanches — payées le moins possible, idéalement avec des cartes-cadeaux — pour de l'intelligence blanche et "propre".
L'IA générative n'est pas uniquement problématique parce qu'elle repose sur le pillage généralisé de l'ensemble du patrimoine culturel humain. Elle est au départ une technologie raciste, qui nécessite de faire passer les non-blancs pour des machines. Au passage, elle retourne leur propre travail contre eux : le langage des personnes qui entrainent ces IA devient celui des chatbots puis, quand elles s'expriment, on pense qu'elles sont des chatbots. La deshumanisation est — au moins — double.
Dans ce contexte et pour moi, faire de l'analyse financière sur la bulle IA implique forcément de tenir compte (entre autres) des dynamiques racistes qu'elle recouvre. Quand un trader dit un truc du style "Oh la la avec la hausse du pétrole mon portefeuille d'action c'était vraiment un bain de sang cette semaine" alors que 1000 personnes sont mortes, c'est un racisme. Quand Microsoft prétend utiliser un pouillème de sa thune pour fournir un accès internet à des communautés isolées d'Afrique, c'est un racisme. Quand Anthropic rechigne à voir son IA utilisée pour surveiller la population des États-Unis, mais pas particulièrement pour des opérations militaires tant qu'un humain est dans la boucle, c'est un racisme. Quand OpenAI fait pareil juste après, c'est un racisme.
Je n'ai créé aucune des briques de cette analyse. Mais pour les trouver, les comprendre, les mettre en relation, et formuler les trois paragraphes précédent d'une manière qui me convienne, il m'a fallu des années de lecture et de veille, afin de monter en compétences et me sentir plus assurée que ce soit sur les questions technologiques, financières ou racistes.
Je ne dis pas ça parce que j'ai besoin d'une validation ou d'être rassurée. Tout va bien de ce point de vue là.
Justement : j'ai relativement confiance dans le fait que, même si je me plante (ce qui arrive régulièrement), j'ai fait de mon mieux pour être juste et nommer ce genre de liens et dynamiques, pour parler de politique, chaque fois que je le pouvais.
Vous êtes à #marseille vendredi prochain ? Y'aura @[email protected] et @[email protected] en live, et c'est moi qui organise ! https://www.instagram.com/p/DVyv-FwiIwf/