C'est quand même fou qu'avec des machines fondamentalement déterministes (les ordinateurs) ont ait TOUT FAIT pour améliorer le déterministe de ces systèmes (en travaillant sur la fiabilité : builds reproductibles, TDD, vérification d'intégrité, environnements conteneurisés...)...

... et que l'IA arrive comme un chien dans un jeu de quilles, foutant tout en l'air à ne pas répondre deux fois la même chose à la même question.

Comment, en tant qu'informaticien, on peut seulement SOUHAITER ça ?

@sebsauvage un intérêt possible que je vois dans ces outils est qu'ils pondèrent des possibilités linguistiques (pour les llms). Malheureusement la plupart des usages n'offrent aucune visibilité là dessus ni aucun contrôle sur la génération, qui est en effet aléatoire
@sebsauvage le problème c'est qu'on veut en faire des agents autonomes plutôt que de véritables modèles qui permettent d'explorer des structures linguistiques (je veux dire si on fait abstraction de tous les problèmes éthiques associés à leur construction bien sûr)