C'est quand même fou qu'avec des machines fondamentalement déterministes (les ordinateurs) ont ait TOUT FAIT pour améliorer le déterministe de ces systèmes (en travaillant sur la fiabilité : builds reproductibles, TDD, vérification d'intégrité, environnements conteneurisés...)...

... et que l'IA arrive comme un chien dans un jeu de quilles, foutant tout en l'air à ne pas répondre deux fois la même chose à la même question.

Comment, en tant qu'informaticien, on peut seulement SOUHAITER ça ?

@sebsauvage En réalité les LLM sont déterministes.

À prompt, modèle, paramètres et seed identiques, ils produisent exactement la même sortie.
Ce qui donne l’impression d’aléatoire vient du sampling probabiliste (temperature, top-p), qui est volontaire pour générer des réponses variées.

Autrement dit, ce n’est pas l’IA qui casse le déterminisme : c’est un choix d’usage. On peut parfaitement rendre la chose entièrement reproductible.

@YanK
ÀMHA, si on enlève la part d'aléatoire, ça aura moins de succès, car :
- ça donnera moins l'impression d'être humainish ;
- y aura pas le côté «machine à sous, je re-prompt jusqu'à ce qu'enfin j'ai trouvé la solution et jackpot ! ».
@sebsauvage

@nicoco C'est ce que j'allais dire.

@YanK Déjà, ces options ne sont pas accessibles aux utilisateurs, faut avoir le LLM en local pour pouvoir les bidouiller. Et puis les modèles commerciaux sont bidouillés de semaine en semaine. Le Grok/ChatGPT 5/etc. d'aujourd'hui ne sont pas les modèles d'il y a un mois, six mois, un an...

@sebsauvage