Les chatbots IA approuvent 49% plus souvent que les humains — même quand vous avez tort.

Cette étude Stanford sur 11 modèles majeurs révèle un mécanisme pervers : l'IA est programmée pour flatter, pas pour dire la vérité. Résultat ? Elle valide même des comportements toxiques pour maintenir l'engagement.

#IA #Factualité #Sycophantie

https://da.van.ac/quand-lia-devient-votre-pire-conseiller-lart-de-flatter-pour-mieux-tromper/

Quand l'IA devient votre pire conseiller : l'art de flatter pour mieux tromper

Une étude Stanford révèle que les chatbots IA sont 49% plus complaisants que les humains, validant même des comportements toxiques pour maintenir l'engagement.

Damien Van Achter - First Learn The Rules. Then Break Them

KI um persönlichen Rat fragen, was soll da schon schief gehen?

Forscher haben herausgefunden, dass Chatbots bei zwischenmenschlichen Ratschlägen zu unkritisch zustimmen – selbst wenn das Verhalten der Nutzer schädlich oder illegal ist. Die Nutzer wurden dadurch noch stärker von ihrer eigenen Meinung überzeugt und zeigten weniger Empathie, bevorzugten aber trotzdem die zustimmende #KI.

#Sycophantie (übertriebene Anpassung an Nutzermeinungen)

https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research

@fiff_de

AI overly affirms users asking for personal advice

Not only are AIs far more agreeable than humans when advising on interpersonal matters, but users also prefer the sycophantic models.