J'ai publié hier une sorte de revue de presse / grosse note de veille sur plusieurs lectures récentes, au format blog, sur les risques que l'IAG aggrave le phénomène de "cognitaritat" : https://www.arthurperret.fr/blog/2026-03-04-le-cognitariat-qui-vient.html
Le cognitariat qui vient

Site web d’Arthur Perret, enseignant-chercheur en SIC.

arthurperret.fr/
J'ai cédé aux sirènes du titre attrape-clic (mais qui résume en fait parfaitement le problème) pour le billet de blog du jour, dans lequel je synthétise en français le dernier article de Birger Hjørland dans le JASIST : allô l'info-com, on a un gros problème. https://www.arthurperret.fr/blog/2026-03-05-chatgpt-ne-vous-dit-pas-tout.html
ChatGPT ne vous dit pas tout

Site web d’Arthur Perret, enseignant-chercheur en SIC.

arthurperret.fr/

@arthurperret « OpenAI a créé une machine inutile : les seules personnes qui sont capables de se prémunir des risques posés par l’outil sont celles… qui n’en ont pas besoin ! »

Je ne suis pas d’accord avec ce point, en maths par exemple les LLM aident les chercheurs à identifier des pistes de recherche et à générer des preuves techniques(pas toujours correctes bien sûr) qui par itérations répétées convergent vers des résultats consistants, validés par les chercheurs. Terrence Tao et Donald Knuth en sont deux illustres exemples, le second ayant même changer d’avis sur l’utilité des LLM récemment.

@KevinPolisano @arthurperret
Malgré leurs succès apparents, mon impression sur ces travaux est qu'il font l'impasse sur un aspect essentiel de l'activité scientifique : le sujet n'est pas tant de décider de la véracité d'assertions que de produire une connaissance sur laquelle le reste de la communauté va pouvoir bâtir ses propres réflexions. En l'occurrence, les preuves mathématiques produites par les LLMs sont essentiellement inutilisables, bourrées de passages abscons ou inutiles, sans aucune capacité allant vers un esprit de synthèse ou de création de concept.
@antoinechambertloir Les LLM seuls produisent rarement des résultats mathématiques conséquents (encore que elles passent les Olympiades internationales de mathématiques). En revanche en tandem avec l'humain elles contribuent à des avancées significatives, et c'est Tao qui le dit : https://atlantico.fr/article/decryptage/mathematiques-et-ia-entre-nouvelles-alliances-et-limites-persistantes-chatgpt-terence-tao-erdos-axiom-math-ken-ono-carina-hong-intelligence-artificielle-innovation-Charaf-Louhmadi
Mathématiques et IA : entre nouvelles alliances et limites persistantes

À la croisée des mathématiques et de l’intelligence artificielle, une nouvelle dynamique de recherche se dessine. Lorsque Terence Tao annonce avoir résolu un problème ouvert de Paul Erdős avec l’appui d’une IA expérimentale, c’est tout l’équilibre entre intuition humaine et puissance algorithmique qui semble évoluer.

Atlantico
@antoinechambertloir @KevinPolisano @arthurperret Quand tu parles de preuves produites par des LLM qui sont inutilisables, tu parles de preuves Lean ou de preuves "papiers" (texte en LaTeX) ?
@MonniauxD @antoinechambertloir @arthurperret Pour compléter ce que dit David, et faire le lien avec le régime de vérité qui est abordé dans d'autres billets, pour les maths l'horizon actuellement est de coupler les IA génératives à des assistants de preuve (type Lean), ce qui permettrait d'avoir un vérificateur de ces essais-erreurs. Le potentiel d'exploration est énorme. Pour l'instant la pratique des matheux comme mon doctorant est de générer des "preuves papiers en LaTeX" puis de faire nous-même le tri entre l'ivraie des "passages abscons, faux ou inutiles" et le bon grain qui nous permet d'avancer dans les preuves techniques (qui emploient des patterns communs à d'autres preuves figurant dans son corpus de données). François Chollet donne souvent l'image des LLM comme d'un outil nous permettant parfois de pointer dans la bonne direction, sans toutefois tomber dans le mille du premier coup, le tandem avec l'expert rectifiant le tir pour s'approcher progressivement de la cible. Les assistants de preuve pourraient automatiser davantage ce processus en identifiant les étapes qui sont fausses. De même techniquement rien n'interdit que l'on puisse conserver une trace fidèle aux sources, mais il est vrai que pour le moment il nous faut vérifier si les références pointent vers un article existant, ce qui n'est pas un problème pour l'expert. Celui-ci se sert de l'outil comme d'un GPS dans un océan d'articles, parfois il fait fausse route, et parfois il nous fait découvrir des pépites qui étaient passées en dehors de nos radars et qu'une recherche par mot clef dans Google Scholar n'aurait pas décelé.
Donc c'est très utile, le problème est le coût écologique catastrophique.
@KevinPolisano @antoinechambertloir @arthurperret Par ailleurs, la problématique de "mais si plus personne d'humain n'invente de trucs, le système se nourrit de ses propres vomis" n'existe pas trop si on filtre via l'assistant de preuve, et si on entraîne sur les preuves intégrées dans la Matlib (donc après revue, "code golfing" etc.).

@MonniauxD @antoinechambertloir @arthurperret Exactement, et même en dehors du monde mathématique, il y a des stratégies de filtrage de contenus de qualité qui permet d'éviter l'empoisonnement et l'effondrement des modèles.

https://www.youtube.com/watch?v=AfgAEIK9F8c&t=1552s

Note de bas de page : ce qui n'empêche pas qu'il y a une IA slop qui soit préoccupante dans la dégradation de notre expérience du web et l'immense gâchis énergétique afférent...

L'IA est en train de s'empoisonner elle-même (et personne n'en parle)

L'IA est-elle en train de s'empoisonner elle-même ?➤ Trade Republic : https://trade.re/underscoreMon interview avec leur directeur Europe : https://youtu.be/...

YouTube