En sortie d’entraînement, un modèle est dangereux et instable. Étant un immense système probabiliste sans capacité de raisonnement, le LLM a tendance à générer la réponse la plus plausible. Et s’il ne sait pas, il invente. C’est ce que, dans un bel anthropomorphisme, on appelle l’hallucination.
Loading replies...