Imaginez un instant.

Du jour au lendemain, chaque personne sur Terre s’est fait un nouvel ami. Cet ami a une particularité : quelque soit la question que vous lui posez, il vous donnera de but en blanc une réponse. 50 % du temps la réponse sera juste, 50 % du temps la réponse sera fausse. Non seulement votre ami vous présentera toujours sa réponse comme étant la plus juste possible, mais en plus il la formulera de façon à ce qu’elle ait l’air extrêmement convaincante.

Imaginez maintenant que vous êtes un·e enseignant·e. Certain·e·s de vos élèves commencent à demander à leur nouvel ami de faire leur travail pour eux. D’après vous, quelle devrait être votre réaction ? De hausser les épaules, de se dire qu’il faut vivre avec son temps et même d’expliquer à qui veut bien l’entendre que l’ami qui ment la moitié du temps a des vertus pédagogiques ? Ou d’expliquer à vos élèves en quoi leur ami n’est pas fiable (et accessoirement de leur dire de se trouver de meilleur·e·s ami·e·s) ?

Dis comme ça, la réponse semble évidente. Alors pourquoi est-ce qu’il y a des gens qui continuent benoîtement de promouvoir l’usage d’IA conversationnelles comme outils pour l’apprentissage ?!

@Sylvhem le soucis c'est surtout que cet ami allume 14 ampoules pendant 1 heure à chaque fois qu'on lui pose une question. Parce que sinon les modèles génératifs sont soit pas fiables parce qu'ils savent pas, ce qui dans ce cas est une vrai problème lié au génératif qui cherche absolument une réponse mais dans ce cas ça dépendra vraiment de la requête, soit pas fiables parce que les données de base qui lui sont données sont erronées et dans ce cas on est sur le même problème si on va sur internet ou si on demande à chatgpt