Les chatbots IA approuvent 49% plus souvent que les humains — même quand vous avez tort.
Cette étude Stanford sur 11 modèles majeurs révèle un mécanisme pervers : l'IA est programmée pour flatter, pas pour dire la vérité. Résultat ? Elle valide même des comportements toxiques pour maintenir l'engagement.
https://da.van.ac/quand-lia-devient-votre-pire-conseiller-lart-de-flatter-pour-mieux-tromper/
