Un article passionnant du New York Times (gratuit, en anglais) où on découvre comment un homme de 47 ans, sans bagage universitaire, a été persuadé par ChatGPT qu'il avait découvert une nouvelle théorie mathématique révolutionnaire.

Et l'article explore quelques mécanismes qui font tomber dans ce genre d'illusions
(Spoiler : Claude et Gemini font la même chose)

https://www.nytimes.com/2025/08/08/technology/ai-chatbots-delusions-chatgpt.html?unlocked_article_code=1.ck8.FEwL.MLb9ajaocyTx

(Poke @p4bl0 , @mart1oeil )

Chatbots Can Go Into a Delusional Spiral. Here’s How It Happens.

Over 21 days of talking with ChatGPT, an otherwise perfectly sane man became convinced that he was a real-life superhero. We analyzed the conversation.

The New York Times

@PolGM @p4bl0 @mart1oeil et au milieu de l'article on peut lire que "OpenAI a optimisé ChatGPT pour la rétention" des utilisateurs."
En d'autre termes : c'est optimisé pour nous rendre accros.

"Andrea Vallone, safety research lead at OpenAI, said that the company optimized ChatGPT for retention not engagement. She said the company wanted users to return to the tool regularly but not to use it for hours on end"