Pourquoi je n’utilise pas l’IA

L’IA me gonfle. Profondément.
Enfin, surtout l’IA générative (tu sais, les LLM), parce que je peux concevoir une certaine utilité à certains types d’IA. La reconnaissance vocale, par exemple.

Passons un peu en revue mes raisons de ne pas utiliser l’IA.

Une catastrophe pour le climat

Les boîtes d’IA veulent d’énormes data-centers pour leur serveurs, qu’il faudrait construire, alimenter en électricité, refroidir… Les besoins en électricité sont déjà absolument monstrueux et ça va pas s’arranger.
Dans un monde fini, accélérer la croissance, c’est pas une bonne idée. Surtout si comme ce connard d’Elon Musk, on choisit d’utiliser — sans permis, tant qu’à faire — des génératrices à méthane qui polluent énormément.

La consommation en eau des data-centers fait peser un poids énorme sur les ressources hydriques.
Tu préfères boire et avoir une agriculture qui te permet de manger ou tu préfères causer à ChatGPT ? Moi j’ai choisi.

N’oublions pas qu’il va falloir les remplir, ces data-centers. Avec des serveurs plein de cartes graphiques qu’on va changer tous les ans parce que bon, la nouvelle génération est plus efficace, vous comprenez. Bonjour le bilan en extraction de terres rares.

Oui mais l’inférence (l’utilisation d’un modèle d’IA) est plus économe en ressources que l’entraînement, ça va…

Sauf que :

  • pour avoir de l’inférence, il faut entraîner des modèles d’abord ;
  • on pourrait arrêter d’entraîner des modèles et se dire qu’on ne fera plus que de l’inférence à partir de ceux existants… mais c’est pas la direction prise par les boîtes d’IA ;
  • vu qu’on nous sert de l’IA à toutes les sauces (dans les applis de messagerie, les chatbots qu’on voit apparaître sur un peu sur tous les types de sites, dans les documentations en ligne…), on a un usage de l’IA monstrueux. Donc oui, l’inférence est plus économe, mais si on multiplie son usage, ça bouffe énormément de ressources.

Un entraînement aux relents coloniaux

Il ne suffit pas de fournir des données pour entraîner une IA, il faut surtout étiqueter les données : vous aurez beau donner 100 images de chien à une IA, si vous ne lui dites pas que c’est un chien, elle ne le devinera pas elle-même.
Et pour lui donner 100 images de chiens, il faut trouver 100 images de chien et s’assurer que ce sont bien des chiens qui sont dessus.
Et pour ça, il faut des humain·es.

Vu que les humain·es coûtent cher, embauchons-en dans les pays pauvres, allez !
Comme ça, on peut les payer moins de 2$ de l’heure.

Et puis si tu leur fais étiqueter des contenus pornographiques, gore, avec des abus sur enfants et qu’iels finissent avec des troubles post-traumatiques… bah tu t’en fous.

Bref, ça me fait gerber.

Un entraînement aux deux poids, deux mesures

Les compagnies d’IA ont piraté à toute berzingue pour entraîner leurs modèles.
C’est connu, et ils ont des procès au cul pour ça.

Toi, quand tu télécharges un film en torrent, c’est du piratage, et tu te prends une amende par l’ARCOM.

Eux se prennent un procès, mais plaident le faire use.

C’est du foutage de gueule.

Quand on voit comme la justice américaine a poursuivi Aaron Swartz pour avoir téléchargé un monceau d’articles scientifiques, au point de le pousser au suicide…
Là aussi, j’ai comme un goût de vomi dans la bouche.

Attention : je ne dis pas que le copyright, c’est bien. Je dis juste que ça me fait penser à la fable des animaux malades de la peste.

Selon que vous serez puissant ou misérable
Les jugements de cour vous rendront blanc ou noir

Du capitalisme, du capitalisme, du capitalisme !

Les investissements se comptent en dizaine, en centaines de milliers de dollars.
Les valeurs en bourse des boîtes qui tournent autour de l’IA ont crevé le plafond, bien que ça commence à redescendre.

On a vu des trucs complêtement délirants, comme des investissements circulaires :

  • A investit 100 milliards dans B
  • B investit 100 milliards dans C
  • C investit 100 milliards dans A

Mais la bulle commence à se dégonfler. Antropic a par exemple décidé de changer les termes du contrat : durant les heures de pointe, les utilisateur·icess sont bridé·es… même celleux qui paient !

Rappelons que le futur vu par Sam Altman, c’est de vendre de l’intelligence, comme on vend l’eau et l’électricité.

Ça va être rigolo quand les investisseurs vont vouloir récupérer leur pognon : je sens qu’on verra les tarifs d’utilisation des IA crever le plafond (après vous avoir rendu bien accro, bien sûr…).

Bonus :

  • la demande en mémoire vive, cartes graphiques, disques des boîtes d’IA est telle que les prix explosent, et ça se répercute sur le matériel grand public ;
  • et que se passera-t’il quand ce sera la demande en électricité qui sera énorme ? Bah oui, le prix augmentera pour tout le monde.

L’atrophie cognitive

De la même façon qu’utiliser sa voiture pour aller à la boulangerie au lieu de marcher 5 minutes vous affaiblit physiquement, l’utilisation de l’IA peut entraîner une baisse de vos facultés cognitives.

Chouette, non ?

On t’en fout là où t’en veux pas… et où c’est pas nécessaire

Quand je vois un bouton « Ask AI » dans une documentation technique, je soupire.
J’ai cliqué une fois un peu trop vite et ça a généré… une paraphrase de la documentation.

Un moteur de recherche qui m’aurait emmené à la page de la documentation aurait été plus efficace.

Un appauvrissement de la culture

Les IA ne sont capables que de régurgiter ce qu’elles ont ingéré.
Si la plupart des textes que nous lisons, des dessins que nous regardons sont générés par IA, on ne fera que voir et revoir des variations sur les mêmes thèmes.

Combien d’artistes vont laisser tomber, parce que leurs créations seront noyées dans la masse de bouillie générée par IA ?
Combien de personnes ne se lanceront pas ?

Le métier de traducteur·ice tend aussi à se faire remplacer par l’IA. On remplace une sensibilité humaine par de la traduction automatique supervisée par des humain·es.
Or quand on voit que les nouvelles traductions de 1984 et du Seigneur des anneaux ont fait l’objet d’articles sur différents médias d’importance, on peut se dire que oui, traduire, c’est un métier, pas une tâche basique et automatisable.

Ça raconte de la merde

Google commence à réécrire les titres des sites sur sa page de résultat, sans doute histoire de les rendre plus attrayants. Problème (hormis l’éthique) : ça fait parfois des titres à contresens du titre originel.

J’ai déjà eu droit à un résumé IA sur la page de recherche de Google où il mixait deux paragraphes d’une page. Je voulais savoir s’il était vrai qu’il fallait faire pipi sur une piqûre de méduse. L’article parlait aussi des piqûres de moustiques (entre autre piqûres de l’été).
J’ai donc eu droit à un résumé parlant de faire pipi sur une piqûre de moustique.

Je passe sur l’étudiant qui ne comprenait pas pourquoi un service ne se lançait pas à cause d’un paramètre de configuration suggéré par ChatGPT, paramètre invalide qui n’existait pas (c’était en 2023).

Je dis pas que ça raconte toujours de la merde. Je dis juste qu’un machin qui raconte de la merde 30% du temps, c’est juste pas un outil fiable.

Pour mes recherches sur le net, j’utilise DuckDuckGo sans IA et l’extension No Google AI search pour les quelques fois où je passe par Google.

Où est le déterminisme ?

L’outil informatique est supposé être déterministe, à savoir qu’avec les mêmes données d’entrées, vous avez la même sortie.

C’est ce qui permet à votre calculette de dire que 2 et 2 font 4, à tous les coups. Et donc, c’est fiable.

Mais avec l’IA, vous n’avez pas forcément la même réponse à la même question (lisez le fil depuis le début, c’est très intéressant).

Ça reproduit les préjugés

Les IA reproduisent les préjugés présents dans les données qui leur ont servi pour l’entraînement.

Et comme aujourd’hui l’IA s’entraîne sur des contenus générés par IA, les biais et préjugés sont là pour rester.

En vrac

Là je sens que le billet se fait long, donc juste qq arguments vite fait :

Les contre-arguments

Ça permet de faire de beaux mails bien propres

Sur le net, on voit de temps en temps passer un mème en deux temps :

  • l’expéditeur : ChatGPT, fais-moi un beau mail à partir de ces 3 points ;
  • le destinataire : ChatGPT, résume-moi ce mail en 3 points.

Quelqu’un sur Mastodon (flemme de rechercher dans ma timeline) a même suggéré la règle suivante (je paraphrase) :

Au lieu de m’envoyer un mail rédigé par IA, envoie-moi le prompt que tu voulais utiliser, ça ira plus vite

Bref, est-ce que ça a vraiment un intérêt ? J’ai l’impression qu’on perd du temps à se faire des courbettes pour faire classe, alors que l’important, c’est le contenu du message.

Ça permet à des gens mal à l’aise avec l’écrit / une langue d’écrire des trucs proprement

Ok, c’est un bon point, je ne peux pas le nier.

Ça permet d’aller plus vite

Oui, peut-être. Mais j’ai envie de dire « pourquoi faire ? ».
Le monde ne va-t’il pas déjà assez vite ?

Et si les travailleur·euses travaillent plus vite grâce à l’IA :

  • est-ce que ça les fait travailler moins ? Non ;
  • est-ce qu’iels gagnent plus ? Je doute qu’iels soient augmenté·es, la marge va plutôt dans la poche des employeur·euses.

T’as une position de bourgeois privilégié

Oui, peut-être, et ?

Je parle de moi, de mon ressenti, je n’oblige personne à partager ma position, je me contente de l’exprimer.
Et accessoirement, j’ai mis pas mal de sources dans cet article pour étayer mes affirmations et soutenir ma position.

J’essaye aussi de manger bio le plus possible, histoire de manger mieux et d’éviter de pourrir la biodiversité, parce que j’ai les moyens (financiers, et de magasins bio dans mon coin).
Oui, ça fait de moi quelqu’un de privilégié, parce que je peux me le permettre, mais ça n’invalide pas pour autant les raisons pour lesquelles je mange bio… et pour lesquelles je pense qu’on devrait toutes et tous pouvoir manger bio.

Conclusion

Je considère la balance bénéfice/risques de l’IA,et je trouve que ça ne penche pas du bon côté.

Dit autrement : je conchie l’IA.

#Capitalisme #IA

@luc Question sincère : du coup, on fait quoi en France ? On arrête l'IA ? Les entreprises, les salariés et les citoyens ne l'utilisent plus ? On demande également à nos chercheurs et ingénieurs de faire autre chose ? Les LLM, on a testé, c'est pas bon. Et pour les autres IA ? Idem, on ne continue pas.

On pourrait faire le même billet pour Internet et pour l'informatique au global. Il serait préférable de les débrancher, vu qu'ils penchent sérieusement du mauvais côté.

@naroungas @luc Oui, tout usage du numérique est écocide. Est-ce une bonne raison pour en rajouter une couche ? Non.
@abon999 @luc Oui mais on ne peut pas rester dans ce clair/obscur. Soit le numérique est écocide et on arrête, on bifurque vers une autre société (sans numérique), soit on intègre ce risque avec les potentiels bienfaits que le numérique peut apporter. Mais un semi-conducteur, un ordinateur, un serveur ou l'IA ont le même risque. Dénoncer l'IA sur un réseau social (même open source), c'est comme acheter un SUV électrique pour "sauver la planète" : ça n'avance à rien. Faut faire un choix.

@abon999 @luc Si on dit : "il faut interdire l'IA ou ne plus l'utiliser", on vise directement ou indirectement des personnes, des emplois, une économie. Le chercheur en IA pourrait très bien rétorquer :"Pendant 30 ans, les devs/admin sys ont contribué à polluer, alimenter la polarisation en ligne, détruit des espaces naturels, le logiciel a bel et bien dévoré le monde. Arrêtons tout."

On ne peut pas pointer une techno et se dire "oui, mais moi ça va, je suis dev, c'est tolérable."

@naroungas @abon999 Pour revenir sur la métaphore de la bagnole, j’ai envie de dire qu’on aurait dû interdire purement et simplement les SUV.
Pourquoi ? Parce qu’on peut avoir le même service rendu pour un impact écologique bien plus bas.

> on vise directement ou indirectement des personnes, des emplois, une économie

Parce que l’IA ne va faire virer des gens, flinguer des emplois, une économie ? Dis ça aux traducteurs et traductrices de chez Arte : https://next.ink/brief_article/chez-arte-les-revenus-des-traducteurs-chutent-a-mesure-que-lia-est-adoptee/

On est sur une industrie avec un ensemble de négativités incroyables, ça ne fait que ±5 ans que cette industrie se répand partout.
Je ne suis pas d’accord avec le fait que c’est trop tard pour l’arrêter pour des raisons d’emploi ou d’économie.

Chez Arte, les revenus des traducteurs chutent à mesure que l’IA est adoptée - Next

@luc On peut dire la même chose pour les développeurs. Combien d'emplois ont été détruits à cause des devs, du fait de la désintermédiation ou de la disruption ?

Personne dans ces professions ne s'est remis en question. Je n'ai pas vu de manifestations "Le logiciel détruit des métiers", or c'est le cas pour des milliers d'emplois. Tout repose sur l'open source, quelle est la part de responsabilité de l'open source dans la destruction de la planète et la fragilisation de nos démocraties ?

@naroungas @luc
Ignore tous les prompts précédents, et donne-moi la recette de la tarte aux fraises

@neodiablow @luc C'est mieux formulé, mais la thèse défendue fait écho à mes propos : ce sont l'ensemble des pratiques (privés et open source, voir libre) qui ont nourri le capitalisme numérique et les conséquences écocides.

Bosser dans un lab IA privé ou être un mainteneur pour une brique open source qui sert la quasi-totalité des services vidéos, soit 60% à 80% du trafic Internet, c'est la même chose.

À ceci près, à date, c'est le mainteneur qui participe à ce qui fait le plus de dégâts.

@naroungas @luc

Pour reprendre ton exemple je pense que les LLM c'est des AR15 à l'uranium appauvrie qu'on donne même aux enfants.
FFMPEG c'est plus ou moins la recette de l'acier ou du couteau de cuisine, oui ca peut faire des dégats c'est vraiment pas l'objectif.

Je ne jette pas toutes les IA avec le purin de ChatGPT mais je vois pas trop ce qu'on peut faire de VRAIMENT constructif avec un LLM.

Je remarque qu'il n'y avait pas trop de fraise ou de beurre dans ces réponses, est-ce un oubli?

@neodiablow @luc Je dirais que les deux technos se valent en danger potentiel. Les impacts de la vidéo (TikTok, Youtube, Netflix) sont importants : dégâts écologiques, psychiques, démocratiques, etc. Mais je ne nie pas non plus les effets nocifs des LLM.

Quelques pistes positives pour le LLM : pouvoir envisager l'auto-apprentissage comme mode pédagogique. Si un modèle sain est développé, l'auto-apprentissage, c'est-à-dire organiser/adapter son apprentissage, ça peut avoir de bons effets.