J'ai publié hier une sorte de revue de presse / grosse note de veille sur plusieurs lectures récentes, au format blog, sur les risques que l'IAG aggrave le phénomène de "cognitaritat" : https://www.arthurperret.fr/blog/2026-03-04-le-cognitariat-qui-vient.html
Le cognitariat qui vient

Site web d’Arthur Perret, enseignant-chercheur en SIC.

arthurperret.fr/
J'ai cédé aux sirènes du titre attrape-clic (mais qui résume en fait parfaitement le problème) pour le billet de blog du jour, dans lequel je synthétise en français le dernier article de Birger Hjørland dans le JASIST : allô l'info-com, on a un gros problème. https://www.arthurperret.fr/blog/2026-03-05-chatgpt-ne-vous-dit-pas-tout.html
ChatGPT ne vous dit pas tout

Site web d’Arthur Perret, enseignant-chercheur en SIC.

arthurperret.fr/

@arthurperret « OpenAI a créé une machine inutile : les seules personnes qui sont capables de se prémunir des risques posés par l’outil sont celles… qui n’en ont pas besoin ! »

Je ne suis pas d’accord avec ce point, en maths par exemple les LLM aident les chercheurs à identifier des pistes de recherche et à générer des preuves techniques(pas toujours correctes bien sûr) qui par itérations répétées convergent vers des résultats consistants, validés par les chercheurs. Terrence Tao et Donald Knuth en sont deux illustres exemples, le second ayant même changer d’avis sur l’utilité des LLM récemment.

@KevinPolisano Super pour eux mais ce n'est pas mon sujet : je parle des gens qui s'informent via ces outils et notamment ChatGPT, qui posent des questions sur des sujets qu'ils ne connaissent pas, pour se renseigner. Je peux réécrire la phrase pour réduire l'ambiguïté mais il ne faut pas non plus me citer hors contexte !
@KevinPolisano C'est aussi ce que j'aborde dans mon billet précédent : une poignée de gens notamment les chercheurs vont avoir l'expertise et les coudées franches pour faire des trucs super avec des LLM, pendant que l'écrasante majorité des utilisateurs vont s'en servir comme source d'information basique, avec de la mésinformation à la clé…
@arthurperret Je n'avais pas lu le billet précédent, dans ce cas nous sommes entièrement d'accord.
@arthurperret Dans cet autre billet (https://www.arthurperret.fr/blog/2025-12-17-ia-faire-avec-ou-vivre-sans.html) vous dites que "l'IAG est fondamentalement inapte à répondre à un besoin d’information" puis vous ajoutez en note de bas de page "Elle ne le fait qu’accidentellement, ce qui crée un certain nombre de risques."
Comme souvent les notes de bas de page sont les remarques qui m'intéressent le plus ^^ comme le diable qui se cache dans les détails, et précisément c'est cet heureux accident d'une bonne source dénichée ou d'une preuve partiellement juste qui est recherchée par les experts qui l'utilisent.
Intelligence artificielle : faire avec ou vivre sans ?

Site web d’Arthur Perret, enseignant-chercheur en SIC.

arthurperret.fr/
@arthurperret Désolé d'avoir été laconique, j'ai écrit ce commentaire entre deux transports, j'aurais du commencer par signaler que j'étais d'accord avec tout le reste de l'article et sur l'usage qu'en fait le commun des mortels. Mon point de désaccord concerne les "personnes capables de se prémunir des risques posés par l'outil" qui "n'en ont pas besoin". Je pense au contraire que c'est pour eux que l'utilité des LLM est maximale puisqu'ils ont la capacité de filtrer l'information. De fait un certain nombre d'experts font la démonstration de l'efficacité et de la créativité de ce tandem homme-machine. C'est même tout le drame de cette technologie, car cette efficacité incite à l'utiliser. J'ai un doctorant qui a multiplié ses contributions grâce à cet outil, mais dans le même temps cela a transformé notre manière de faire de la recherche (je ne parle même pas de l'enseignement), j'en reparlerai prochainement. Dans une logique de course à la publication pour obtenir des postes il est difficile de les dissuader d'utiliser ces outils, alors même que chacun connait leur impact environnemental. Pour ma part je peux me permettre de l'utiliser de façon parcimonieuse, voire pas du tout, mais ce serait mentir de dire que je n'y ai jamais recours.
@KevinPolisano @arthurperret
Malgré leurs succès apparents, mon impression sur ces travaux est qu'il font l'impasse sur un aspect essentiel de l'activité scientifique : le sujet n'est pas tant de décider de la véracité d'assertions que de produire une connaissance sur laquelle le reste de la communauté va pouvoir bâtir ses propres réflexions. En l'occurrence, les preuves mathématiques produites par les LLMs sont essentiellement inutilisables, bourrées de passages abscons ou inutiles, sans aucune capacité allant vers un esprit de synthèse ou de création de concept.
@antoinechambertloir Les LLM seuls produisent rarement des résultats mathématiques conséquents (encore que elles passent les Olympiades internationales de mathématiques). En revanche en tandem avec l'humain elles contribuent à des avancées significatives, et c'est Tao qui le dit : https://atlantico.fr/article/decryptage/mathematiques-et-ia-entre-nouvelles-alliances-et-limites-persistantes-chatgpt-terence-tao-erdos-axiom-math-ken-ono-carina-hong-intelligence-artificielle-innovation-Charaf-Louhmadi
Mathématiques et IA : entre nouvelles alliances et limites persistantes

À la croisée des mathématiques et de l’intelligence artificielle, une nouvelle dynamique de recherche se dessine. Lorsque Terence Tao annonce avoir résolu un problème ouvert de Paul Erdős avec l’appui d’une IA expérimentale, c’est tout l’équilibre entre intuition humaine et puissance algorithmique qui semble évoluer.

Atlantico
@antoinechambertloir @KevinPolisano @arthurperret Quand tu parles de preuves produites par des LLM qui sont inutilisables, tu parles de preuves Lean ou de preuves "papiers" (texte en LaTeX) ?
@MonniauxD @antoinechambertloir @arthurperret Pour compléter ce que dit David, et faire le lien avec le régime de vérité qui est abordé dans d'autres billets, pour les maths l'horizon actuellement est de coupler les IA génératives à des assistants de preuve (type Lean), ce qui permettrait d'avoir un vérificateur de ces essais-erreurs. Le potentiel d'exploration est énorme. Pour l'instant la pratique des matheux comme mon doctorant est de générer des "preuves papiers en LaTeX" puis de faire nous-même le tri entre l'ivraie des "passages abscons, faux ou inutiles" et le bon grain qui nous permet d'avancer dans les preuves techniques (qui emploient des patterns communs à d'autres preuves figurant dans son corpus de données). François Chollet donne souvent l'image des LLM comme d'un outil nous permettant parfois de pointer dans la bonne direction, sans toutefois tomber dans le mille du premier coup, le tandem avec l'expert rectifiant le tir pour s'approcher progressivement de la cible. Les assistants de preuve pourraient automatiser davantage ce processus en identifiant les étapes qui sont fausses. De même techniquement rien n'interdit que l'on puisse conserver une trace fidèle aux sources, mais il est vrai que pour le moment il nous faut vérifier si les références pointent vers un article existant, ce qui n'est pas un problème pour l'expert. Celui-ci se sert de l'outil comme d'un GPS dans un océan d'articles, parfois il fait fausse route, et parfois il nous fait découvrir des pépites qui étaient passées en dehors de nos radars et qu'une recherche par mot clef dans Google Scholar n'aurait pas décelé.
Donc c'est très utile, le problème est le coût écologique catastrophique.
@KevinPolisano @antoinechambertloir @arthurperret Par ailleurs, la problématique de "mais si plus personne d'humain n'invente de trucs, le système se nourrit de ses propres vomis" n'existe pas trop si on filtre via l'assistant de preuve, et si on entraîne sur les preuves intégrées dans la Matlib (donc après revue, "code golfing" etc.).

@MonniauxD @antoinechambertloir @arthurperret Exactement, et même en dehors du monde mathématique, il y a des stratégies de filtrage de contenus de qualité qui permet d'éviter l'empoisonnement et l'effondrement des modèles.

https://www.youtube.com/watch?v=AfgAEIK9F8c&t=1552s

Note de bas de page : ce qui n'empêche pas qu'il y a une IA slop qui soit préoccupante dans la dégradation de notre expérience du web et l'immense gâchis énergétique afférent...

L'IA est en train de s'empoisonner elle-même (et personne n'en parle)

L'IA est-elle en train de s'empoisonner elle-même ?➤ Trade Republic : https://trade.re/underscoreMon interview avec leur directeur Europe : https://youtu.be/...

YouTube