Pourquoi je n’utilise pas l’IA

L’IA me gonfle. Profondément.
Enfin, surtout l’IA générative (tu sais, les LLM), parce que je peux concevoir une certaine utilité à certains types d’IA. La reconnaissance vocale, par exemple.

Passons un peu en revue mes raisons de ne pas utiliser l’IA.

Une catastrophe pour le climat

Les boîtes d’IA veulent d’énormes data-centers pour leur serveurs, qu’il faudrait construire, alimenter en électricité, refroidir… Les besoins en électricité sont déjà absolument monstrueux et ça va pas s’arranger.
Dans un monde fini, accélérer la croissance, c’est pas une bonne idée. Surtout si comme ce connard d’Elon Musk, on choisit d’utiliser — sans permis, tant qu’à faire — des génératrices à méthane qui polluent énormément.

La consommation en eau des data-centers fait peser un poids énorme sur les ressources hydriques.
Tu préfères boire et avoir une agriculture qui te permet de manger ou tu préfères causer à ChatGPT ? Moi j’ai choisi.

N’oublions pas qu’il va falloir les remplir, ces data-centers. Avec des serveurs plein de cartes graphiques qu’on va changer tous les ans parce que bon, la nouvelle génération est plus efficace, vous comprenez. Bonjour le bilan en extraction de terres rares.

Oui mais l’inférence (l’utilisation d’un modèle d’IA) est plus économe en ressources que l’entraînement, ça va…

Sauf que :

  • pour avoir de l’inférence, il faut entraîner des modèles d’abord ;
  • on pourrait arrêter d’entraîner des modèles et se dire qu’on ne fera plus que de l’inférence à partir de ceux existants… mais c’est pas la direction prise par les boîtes d’IA ;
  • vu qu’on nous sert de l’IA à toutes les sauces (dans les applis de messagerie, les chatbots qu’on voit apparaître sur un peu sur tous les types de sites, dans les documentations en ligne…), on a un usage de l’IA monstrueux. Donc oui, l’inférence est plus économe, mais si on multiplie son usage, ça bouffe énormément de ressources.

Un entraînement aux relents coloniaux

Il ne suffit pas de fournir des données pour entraîner une IA, il faut surtout étiqueter les données : vous aurez beau donner 100 images de chien à une IA, si vous ne lui dites pas que c’est un chien, elle ne le devinera pas elle-même.
Et pour lui donner 100 images de chiens, il faut trouver 100 images de chien et s’assurer que ce sont bien des chiens qui sont dessus.
Et pour ça, il faut des humain·es.

Vu que les humain·es coûtent cher, embauchons-en dans les pays pauvres, allez !
Comme ça, on peut les payer moins de 2$ de l’heure.

Et puis si tu leur fais étiqueter des contenus pornographiques, gore, avec des abus sur enfants et qu’iels finissent avec des troubles post-traumatiques… bah tu t’en fous.

Bref, ça me fait gerber.

Un entraînement aux deux poids, deux mesures

Les compagnies d’IA ont piraté à toute berzingue pour entraîner leurs modèles.
C’est connu, et ils ont des procès au cul pour ça.

Toi, quand tu télécharges un film en torrent, c’est du piratage, et tu te prends une amende par l’ARCOM.

Eux se prennent un procès, mais plaident le faire use.

C’est du foutage de gueule.

Quand on voit comme la justice américaine a poursuivi Aaron Swartz pour avoir téléchargé un monceau d’articles scientifiques, au point de le pousser au suicide…
Là aussi, j’ai comme un goût de vomi dans la bouche.

Attention : je ne dis pas que le copyright, c’est bien. Je dis juste que ça me fait penser à la fable des animaux malades de la peste.

Selon que vous serez puissant ou misérable
Les jugements de cour vous rendront blanc ou noir

Du capitalisme, du capitalisme, du capitalisme !

Les investissements se comptent en dizaine, en centaines de milliers de dollars.
Les valeurs en bourse des boîtes qui tournent autour de l’IA ont crevé le plafond, bien que ça commence à redescendre.

On a vu des trucs complêtement délirants, comme des investissements circulaires :

  • A investit 100 milliards dans B
  • B investit 100 milliards dans C
  • C investit 100 milliards dans A

Mais la bulle commence à se dégonfler. Antropic a par exemple décidé de changer les termes du contrat : durant les heures de pointe, les utilisateur·icess sont bridé·es… même celleux qui paient !

Rappelons que le futur vu par Sam Altman, c’est de vendre de l’intelligence, comme on vend l’eau et l’électricité.

Ça va être rigolo quand les investisseurs vont vouloir récupérer leur pognon : je sens qu’on verra les tarifs d’utilisation des IA crever le plafond (après vous avoir rendu bien accro, bien sûr…).

Bonus :

  • la demande en mémoire vive, cartes graphiques, disques des boîtes d’IA est telle que les prix explosent, et ça se répercute sur le matériel grand public ;
  • et que se passera-t’il quand ce sera la demande en électricité qui sera énorme ? Bah oui, le prix augmentera pour tout le monde.

L’atrophie cognitive

De la même façon qu’utiliser sa voiture pour aller à la boulangerie au lieu de marcher 5 minutes vous affaiblit physiquement, l’utilisation de l’IA peut entraîner une baisse de vos facultés cognitives.

Chouette, non ?

On t’en fout là où t’en veux pas… et où c’est pas nécessaire

Quand je vois un bouton « Ask AI » dans une documentation technique, je soupire.
J’ai cliqué une fois un peu trop vite et ça a généré… une paraphrase de la documentation.

Un moteur de recherche qui m’aurait emmené à la page de la documentation aurait été plus efficace.

Un appauvrissement de la culture

Les IA ne sont capables que de régurgiter ce qu’elles ont ingéré.
Si la plupart des textes que nous lisons, des dessins que nous regardons sont générés par IA, on ne fera que voir et revoir des variations sur les mêmes thèmes.

Combien d’artistes vont laisser tomber, parce que leurs créations seront noyées dans la masse de bouillie générée par IA ?
Combien de personnes ne se lanceront pas ?

Le métier de traducteur·ice tend aussi à se faire remplacer par l’IA. On remplace une sensibilité humaine par de la traduction automatique supervisée par des humain·es.
Or quand on voit que les nouvelles traductions de 1984 et du Seigneur des anneaux ont fait l’objet d’articles sur différents médias d’importance, on peut se dire que oui, traduire, c’est un métier, pas une tâche basique et automatisable.

Ça raconte de la merde

Google commence à réécrire les titres des sites sur sa page de résultat, sans doute histoire de les rendre plus attrayants. Problème (hormis l’éthique) : ça fait parfois des titres à contresens du titre originel.

J’ai déjà eu droit à un résumé IA sur la page de recherche de Google où il mixait deux paragraphes d’une page. Je voulais savoir s’il était vrai qu’il fallait faire pipi sur une piqûre de méduse. L’article parlait aussi des piqûres de moustiques (entre autre piqûres de l’été).
J’ai donc eu droit à un résumé parlant de faire pipi sur une piqûre de moustique.

Je passe sur l’étudiant qui ne comprenait pas pourquoi un service ne se lançait pas à cause d’un paramètre de configuration suggéré par ChatGPT, paramètre invalide qui n’existait pas (c’était en 2023).

Je dis pas que ça raconte toujours de la merde. Je dis juste qu’un machin qui raconte de la merde 30% du temps, c’est juste pas un outil fiable.

Pour mes recherches sur le net, j’utilise DuckDuckGo sans IA et l’extension No Google AI search pour les quelques fois où je passe par Google.

Où est le déterminisme ?

L’outil informatique est supposé être déterministe, à savoir qu’avec les mêmes données d’entrées, vous avez la même sortie.

C’est ce qui permet à votre calculette de dire que 2 et 2 font 4, à tous les coups. Et donc, c’est fiable.

Mais avec l’IA, vous n’avez pas forcément la même réponse à la même question (lisez le fil depuis le début, c’est très intéressant).

Ça reproduit les préjugés

Les IA reproduisent les préjugés présents dans les données qui leur ont servi pour l’entraînement.

Et comme aujourd’hui l’IA s’entraîne sur des contenus générés par IA, les biais et préjugés sont là pour rester.

En vrac

Là je sens que le billet se fait long, donc juste qq arguments vite fait :

Les contre-arguments

Ça permet de faire de beaux mails bien propres

Sur le net, on voit de temps en temps passer un mème en deux temps :

  • l’expéditeur : ChatGPT, fais-moi un beau mail à partir de ces 3 points ;
  • le destinataire : ChatGPT, résume-moi ce mail en 3 points.

Quelqu’un sur Mastodon (flemme de rechercher dans ma timeline) a même suggéré la règle suivante (je paraphrase) :

Au lieu de m’envoyer un mail rédigé par IA, envoie-moi le prompt que tu voulais utiliser, ça ira plus vite

Bref, est-ce que ça a vraiment un intérêt ? J’ai l’impression qu’on perd du temps à se faire des courbettes pour faire classe, alors que l’important, c’est le contenu du message.

Ça permet à des gens mal à l’aise avec l’écrit / une langue d’écrire des trucs proprement

Ok, c’est un bon point, je ne peux pas le nier.

Ça permet d’aller plus vite

Oui, peut-être. Mais j’ai envie de dire « pourquoi faire ? ».
Le monde ne va-t’il pas déjà assez vite ?

Et si les travailleur·euses travaillent plus vite grâce à l’IA :

  • est-ce que ça les fait travailler moins ? Non ;
  • est-ce qu’iels gagnent plus ? Je doute qu’iels soient augmenté·es, la marge va plutôt dans la poche des employeur·euses.

T’as une position de bourgeois privilégié

Oui, peut-être, et ?

Je parle de moi, de mon ressenti, je n’oblige personne à partager ma position, je me contente de l’exprimer.
Et accessoirement, j’ai mis pas mal de sources dans cet article pour étayer mes affirmations et soutenir ma position.

J’essaye aussi de manger bio le plus possible, histoire de manger mieux et d’éviter de pourrir la biodiversité, parce que j’ai les moyens (financiers, et de magasins bio dans mon coin).
Oui, ça fait de moi quelqu’un de privilégié, parce que je peux me le permettre, mais ça n’invalide pas pour autant les raisons pour lesquelles je mange bio… et pour lesquelles je pense qu’on devrait toutes et tous pouvoir manger bio.

Conclusion

Je considère la balance bénéfice/risques de l’IA,et je trouve que ça ne penche pas du bon côté.

Dit autrement : je conchie l’IA.

#Capitalisme #IA

@luc
J'ai deux (trois ?) contre-arguments sur deux point distincts :

1: Aspect colonial

Vu que l'on parle de LLM, ces modèles sont entrainés sans étiquettages humain, contrairement aux modèles de génération d'images/vidéos et transcriptions. De ma compréhension, en gros tant qu'il n'y a pas de passage d'un état à un autre (texte vers son, son vers texte, texte vers image, etc.) L'annotation humaine n'est pas nécessaire.

@luc
Donc sur ce point spécifique les LLM sont un peu à part. C'est de l'entrainement automatique. Je pense que ça mérite précision. En revanche, bien sûr, le HRL ce sont des annotations humaines... bon du coup c'est pas un contre argument. Juste une précision ; je trouve que les LLM sont tout de même à part sur ce point là.

@luc
2 : Deux poids de mesure / fair use

J'ai pas suivi les toutes dernières décisions sur le sujet. Mais, le fair use s'applique qu'on le veuille ou non. Les boîtes d'IA n'ont rien inventé. Il s'applique parce que la transformation de l'œuvre et de l'empreinte de son artiste est telle qu'il ne s'agit pas d'une simple copie, mais d'une reformulation substantive. Il y a cet article sans trop de verbiage juridique, mais on peut trouver des articles plus précis : https://www.eff.org/deeplinks/2025/06/two-courts-rule-generative-ai-and-fair-use-one-gets-it-right

Two Courts Rule On Generative AI and Fair Use — One Gets It Right

Things are speeding up in generative AI legal cases, with two judicial opinions just out on an issue that will shape the future of generative AI: whether training gen-AI models on copyrighted works is fair use. One gets it spot on; the other, not so much, but fortunately in a way that future courts...

Electronic Frontier Foundation

@luc
Et on veut le fair use (c'est protecteur d'une culture libre).

Aaron Swratz ne faisait qu'une copie des articles. (Ça enlève en rien les procédures dégueulasses qu'ils ont utilisées contre lui).

Ce qui poserait problème d'un point de vue copyright c'est si le modèle reproduit un bout d'une œuvre protégée suffisamment proche de l'originale.

Cela n'enlève en rien le fait d'avoir piraté des centaines de milliers de bouquins, mais ça c'est pas vraiment du copyright.

@luc
3 : Les biais

C'est pas vraiment un contre-argument parce que je suis pas vraiment convaincu, et en même temps je n'arrive pas à le démonter. Il en va comme suit :

Oui, les modèles d'IA ont des biais. Les humains aussi. Alors pourquoi choisir l'un plutôt que l'autre ? Avec l'IA, on peut éventuellement espérer contrôler ces biais, ou si ce n'est pas contrôler, a minima les connaîtres et donc savoir faire avec. Les humains sont incontrolables et trop diverses.

@luc
On ne pourra pas connaître leur biais. Alors pourquoi s'en remettre à eux pour X décision ?

Nier cet argument reviendrai à garder une position dualiste interactionniste, et ça, c'est de moins en moins tenable : https://www.youtube.com/watch?v=5DoT2NQTZD4

Vous n'avez pas d'âme (et c'est ok)

YouTube