J'ai vécu mes premières soutenances "IA générative" cette année, c'était une expérience très perturbante. J'en parlerai plus en détail à l'occasion (parce que là : dodo), mais c'était totalement dingue.
Je vous raconte ce soir, ou demain, pas le temps jusqu'ici...

Or donc : dans une UE de master 2, nous demandons aux étudiant.e.s de lire un article scientifique (à choisir dans une liste constituée par nous, les enseignant.e.s).

Iels doivent le comprendre, et ensuite nous restituer cela sous forme d'une présentation de 10 minutes où iels nous expliquent la problématique abordée, son contexte, l'état de l'art, la méthode proposée, la nature de l'évaluation des résultats, etc.

Ils ont plusieurs semaines pour faire ça (genre au moins deux mois...)

Evidemment, il y a toujours de supers étudiant.e.s qui ont tout pigé, sont super clair.e.s, répondent à nos question, et on est content.e.s... et des glandu.e.s qui n'ont pas fichu grand chose, qui ont une compréhension vague et superficielle de l'article, et finissent avec une pas très bonne note, bref, la vie d'enseignant.e.
J'étais dans l'un des jurys qui a fait passer ces soutenances hier, et on a eu pour la première fois des présentations "systèmes d'IA génératifs" :

Premier cas : la présentation n'est constitué que de gros blocs de texte (genre 10 lignes par diapo), que l'étudiant.e annone sans même regarder le jury.

Pendant 10 minutes.

Aucune illustration issue de l'article (ni de l'architecture du système proposé, du dispositif robotique expérimental utilisé pour les tests, ni des graphes et figures de résultats : rien), juste du texte.

Et pas n'importe quel texte : juste un résumé très vague, disant à peine plus que le résumé des auteurs en début d'article.

Le collègue et moi on a passé un très mauvais moment, c'était atroce d'assister à ça.

Mon hypothèse : la personne n'a pas lu l'article, à demandé à ChatGPT de le résumer en deux pages et a ensuite copié-collé le résultat sur 10 diapos.

Seule certitude après les questions : cette personne n'avait rien compris du papier.

Deuxième exemple, et pire truc que j'aie jamais vu dans un tel examen : la présentation *IA générative totale* !

Les diapos ont été générées par Gamma, aucun doute là dessus : c'était écrit dans un coin des slides.

Je vous laisse visiter le site web qui correspond : https://gamma.app/fr

En gros, vous fournissez du contenu, un système d'IA à la con vous génère des diapos.

Le rêve humide de tout le middle-management linkedinien.

Sauf que le contenu fourni devait aussi sortir de plusieurs systèmes d'IA générative :
Un texte confus, vague, avec les bon mots-clefs mais un peu dans le désordre. Aucune équation, aucun algorithme, juste des fancy bullet points.
Et des images, des putains d'images, sur chaque putain de diapos. De ces images atroces générées par des systèmes d'IA, avec ce style dégueulasse qu'on reconnait à 100 m.

Un article scientifique en Intelligence Artificielle, pour celleux d'entre-vous qui n'en sont pas familier, ça regorge de contenu graphique : description du système avec des boîtes et des flèches, algorithme en pseudo-code, courbes de résultats...

Bref, dans l'exercice dont je vous parle ce soir, il va de soi que ce contenu va être copié et intégré à la présentation, pour appuyer les explications.

Là non : plein d'images, aucune issue de l'article.

Et puis des diagrammes à la con, du genre un de ces trucs qui de loin ressemble à 4 axes avec éléments positionnés de manière qualitative, du genre le mème classique ci-dessous.

Sauf que là les noms des axes ont un vague rapport avec l'article, et les items disposés sont des mots-clefs de l'article, mais qui n'ont aucun rapport avec les axes. Du pur charabia graphique qui sent son IA générative à plein nez.

Et puis la personne qui parle, en mode linkedin x ChatGPT : les mots sont là, mais pas vraiment dans l'ordre. C'est vraiment comme quand tu demandes à ChatGPT de parler d'un sujet technique que tu connais bien : ça semble, superficiellement, parler du truc, mais rien n'est vraiment vrai, rien n'est clair, des truc à moitiés faux... à croire qu'on nous a envoyé non pas un humain, mais un androïde connecté à internet.

J'oublie de préciser : sur l'unique diapo qui présente les résultats de l'article, il y a des bullet points (pas clairs, et mentionnant des chiffres dont je ne suis même pas sûr qu'ils soient dans l'article) et...

...

une image générée par une IA représentant un graphe scientifique générique. Je vous le reproduis ci-dessous tellement j'ai halluciné.

Il y a 10 figures de vrais résultats scientifique dans l'article, mais l'étudiant.e nous colle une fausse figure scientifique.

Pour... Pour montrer à des scientifiques (nous, dans le jury) à quoi ressemble un graphe scientifique en général ?

A quoi ça rime ?

(à rien)

Démonstration finale qu'on avait bien affaire à un LLM incarné et pas à un humain : doutant sérieusement de la compréhension du papier, et après quelques questions sans réponse, ou avec réponse fausse, je demande : "c'est quoi la fonction schmürz* ?"

Le schmürz en question, c'est un truc hyper classique, utilisé dans l'article et que l'étudiant.e a mentionné plusieurs fois pendant la présentation confuse qui avait précédé les questions.

* : cette fonction a demandé à garder l'anonymat

Là, au lieu de dire juste "je sais pas", l'étudiant.e prend une craie se tourne vers le tableau et écrit "schmürz =" et s'arrête là.

Comme si écrire ces deux mots allait nécessairement permettre de prédire le prochain item le plus probable et donc de finir l'explication...

Ces deux spécimens se sont retrouvés dans une série de 4 soutenance vraiment pas terribles, à la pause qui a suivie, mon collègue et moi nous sommes demandés ce qui se passait, si s'en était fini de l'enseignement supérieur, si par hasard c'était pas une caméra cachée... on n'avait jamais vécu un truc pareil.
Bon, on a eu des trucs plus classiques, du genre "J'ai pas mis les équations, y'avait pas le temps de les expliquer en 10 min", qui se transforme, au fur et à mesure que les questions se font plus incisives en "en fait j'ai pas vraiment compris les maths".
@LegalizeBrain Et du coup, vous les avez confronté ?
Ils ont reconnu avoir utilisé chat GPT
Vous pouvez leur mettre un zéro pointé et ajouter un règle d'interdiction stricte de ces merdes à l'avenir ?

@LegalizeBrain quand je lis ça et avec ce que je vois, je me pose plein de questions. La première est que je vois beaucoup d'étudiants qui ont très peur de faire des erreurs. Il faut qu'il y ait un algorithme de réponse aux questions posées car sinon "je ne sais pas faire". L'impression que j'en ai c'est qu'il y a une vraie peur de ne pas savoir et une incapacité à tourner autour du problème, à chercher à le résoudre par eux-mêmes. Ils préfèrent de loin chercher sur internet que d'essayer et se tromper.

(+ les étudiants flemmards, pour quelques raisons que ce soit, et ceux qui pensent qu'ils vont s'en sortir en pipotant)

Je me demande dans ceux qui ont utilisé les IA génératives la part de la première catégorie et la part de la seconde.

@CCochard @LegalizeBrain
Un exemple : dans la résolution d'un problème de maths, il est souvent nécessaire d'identifier quelle partie du cours, quel théorème va être utile pour répondre à la question posée. Sans ça, on a des réponses qui consistent en un gloubiboulga de trucs du cours concluant par « donc x=0 ». (Cf les blagues sur l'âge du capitaine !)

Dans son travail, @ClaireLomme a montré comment elle adaptait les énoncés et vérifiait que ses élèves comprenaient la situation décrite. (C'est la seule fois que j'ai vu cette question importante prise au sérieux.)

À l'inverse, dans les futurs programmes de cycle 1 ou 2, la méthode suggérée pour vérifier que les élèves comprennent bien les consignes et n'ont pas mécaniquement effectué la seule opération plausible consiste à les « piéger » : l'exemple donné consiste à ajouter le mot « plus » alors qu'il faudra faire une soustraction...

Je conçois bien qu'avec une telle pédagogie, on construit des étudiants anxieux de ne pas comprendre ce qu'ils font.

@LegalizeBrain Croustillant !
Merci pour ce récit détaillé ^^;

@LegalizeBrain : il s’appelait pas Julius ton étudiant ?

https://ploum.net/2024-12-23-julius-fr.html

Mon collègue Julius

Mon collègue Julius par Ploum - Lionel Dricot.

@LegalizeBrain Et le pire c'est que si ça se trouve, dans un autre module d'enseignement, des gens se la jouent inventivité, créativité, présentations dynamiques et les forment à l'usage de tous ces outils de merde ?!?
@LegalizeBrain je sais pas si c'en est fini de l'enseignement supérieur. Peut être mettre en gardeau moment où le boulot est donné que vous n'êtes pas dupes quand c'est réalisé par une IA et que vous vous rendez bien compte que l'étudiant n'a rien pigé ça dissuaderait les étudiants
@LegalizeBrain j'avais un prof qui, avant le premier devoir maison (en informatique) nous avait expliqué qu'il mettait un lien unique pour vérifier si le sujet avait été ouvert par tel ou tel étudiant et qu'une fois il avait grillé un mec qui lui avait dit qu'il s'était planté d'adresse en envoyant sa copie par mail alors qu'il avait même pas ouvert le sujet.
Je sais pas si c'était vrai mais force est de constater que personne n'a essayé de rendre son devoir en retard...
@Lubedyle @LegalizeBrain Je pense que les notes très basses des usagers d'IA seront plus marquantes pour les candidats suivants que ces mises en garde auxquelles ils ne croiraient probablement pas.
@LegalizeBrain
Il me semble en effet que nous sommes, en tous domaines, sur une pente vers l'anéantissement.
Mais je suis peut-être pessimiste 😰
@LegalizeBrain mais du coup ils se sont pris un savon chacun, ou ils attendent le délibéré / jury / whatever ?
@LegalizeBrain je comprends la sensation et le choc
@LegalizeBrain mais comment ils pensent que ça va passer ? Ils croient en la parole divine de chatGPT ? Que l’IA est plus intelligente et pointue que les examinateurs ? Ils ont 12 ans ces étudiants ? Ça me plonge dans des abîmes de perplexitude 🤔

@LegalizeBrain En vrai ça fait un peu flipper.

Lundi je donne un cours d'intro sur « l'IA générative » (en fait, surtout pour montrer et illustrer les limites et faiblesses des modèles génératifs et les considérations éthiques/environnementales/sociales de leur usage).

Mercredi je suis en jury de soutenance de projet toute la journée.

J'ai presque envie de mettre ton fil dans mon cours !

@nsh je dévie du (terrifiant) sujet de départ : tu partagerais tes supports de cours ? je crois qu'il va falloir que je me résolve à aborder le sujet dans certains de mes cours @LegalizeBrain

@cazencott Je ne sais pas encore. Je ne suis pas satisfait des supports pour l'instant et j'attends d'avoir le retour des élèves. C'est expérimental et plutôt sous la forme d'atelier avec des mises en pratique commentées pour tenter de pointer les limites des modèles.

Bref, réponse lundi soir.

@LegalizeBrain Un de nos étudiants est un adepte de ChatGPT. Comme l’a résumé une collègue "il ne sait rien faire sans, c'est effroyable".

Quand je l'ai vu essayer de me cacher qu'il s'en servait, je lui ai dit "Vous savez, moi je m'en fous. Ça vous rend con et paresseux, mais faites comme vous voulez. Vous aurez une sale note de toute façon vu que vous savez pas vous en servir. Mais quand on se rendra compte en entreprise que vous servez à rien, vous allez pas faire long feu et il faudra pas venir pleurer. Je dis ça pour vous."

Il s'est fait virer de son alternance une semaine avant la fin de sa période d'essai. Il lui ont dit d'arrêter de venir pour pas perdre de temps à le surveiller. 🤷‍♂️

Tout ça pour dire que je pense que ce genre de truc va finir par se savoir et je pense que le ChatGPTisme va finir par devenir une marque de loosers que personne ne voudra porter. Et que l’enseignement supérieur y survivra.

@Enthalpiste @LegalizeBrain comme tous les outils, du couteau à l'imprimante 3D en passant par les smartphones, tout dépend à quoi, comment, et pourquoi on s'en sert !

C'est sûr que le réflexe chatgpt sans réfléchir avant, dans analyser après, c'est une usine à devenir con.

Alors qu'utilisé ponctuellement, avec précision et en faisant preuve de recul, c'est un outil d'une puissance phénoménale !

@LegalizeBrain Mais du coup vous leurs avez fait quel retour ? en mode on dit rien, mais on critique en soulignant des points mal expliqués ou pas compris, ou en mode "ah ah on t'a demasqué MatouProut", style scoubidou ?
@LegalizeBrain

"Vous connaissez la fonction porte ?"
"heu... oui ?"
"Hé bien prenez la, s'il vous plait. Au revoir."
@[email protected]
merci pour ce moment ! (avec la mention que la fonction a demandé à garder l'anonymat dans le pouet précédent : on la comprend la pauvre..) mouarffarfarf et aïeeuh ..
@LegalizeBrain je suis en train de visualiser l'étudiant-e qui buggue en attendant que chatGPT fasse l'autocomplete lui-même… au tableau.
@LegalizeBrain Oh god il est prêt pour manager une unversité! 🥳
@LegalizeBrain en tant que jurés, comment avez-vous choisi de réagir face à l'étudiant puis pour la note ?
@LegalizeBrain je veux dire
1/ce n'est pas de lui et 2/ c'est nul. Faut-il adresser les 2 pb séparément ?
@LegalizeBrain enfin un moyen de préparer nos cours plus vite, trop bien 🤩
@oschwand @LegalizeBrain c'est ce que m'a sorti un gars qui enseigne dans une école privée post bac en formation pédagogique de l'ED l'année dernière 😬. Pour lui, c'était vraiment formidable, ses cours étaient prêts beaucoup plus vite, juste besoin de donner la trame et vaguement relire, il (enfin, toute l'équipe pédagogique) notait les rapports de stage avec ia ("tu comprends, suffit de bien écrire le prompt et il met la note qu'on aurait mise, avec des commentaires" ).
@Anne73939133 @LegalizeBrain bah les formations des écoles doctorales ont à peu près la même valeur qu'une mauvaise sortie de chatgpt, donc ça m'étonne pas du gars

@LegalizeBrain je viens de tester, c'est trop bien. Hop, 8 slides de cours sur la fonction schmurz à partir de wikipedia \o/

C'est surtout pour les figures que c'est génial, jamais j'aurais eu l'idée d'illustrer avec ça

@LegalizeBrain l'avantage c'est que c'est encore suffisamment mauvais pour que tu t'en rendes compte
@LegalizeBrain je veux bien que tu détailles un peu oui, ça me rend très curieuse (bonne nuit)
@Purplenessa @LegalizeBrain Pareil, j'ai hâte que tu te lèves. :)
@LegalizeBrain Oo C'est pas le Soutenant qui a fait le taff ? Je comprends plus rien à ce monde mon Kimchi ... 😘😘😘😘😘
@LegalizeBrain moi aussi je lui là, comme ça… 👀