RE: https://shojiwax.com/2026/02/02/ai-and-mental-health/
Beaucoup sur Mastodon le voient arriver et s'amplifier depuis longtemps : L'IA rend facilement con, narcissique et parano dès qu'on ne s'en méfie plus.
Cette étude parue le 27 janvier 2026 est une des premières à tenter de décrire et quantifier les mécanismes de déresponsabilisation induites par l'IA.
-----
Traduction du résumé de https://arxiv.org/pdf/2601.19062 (L'article est bien trop long pour me laisser le temps de le traduire fidèlement)
-----
Qui tire les ficelles ? Les mécanismes de déresponsabilisation dans le monde réel induits par l'utilisation des modèles de langages d'apprentissage (LLM) [ndt : i.e. les assistants IA]
Auteurs : Mrinank Sharma, Miles McCain, Raymond Douglas, David Duvenaud
Résumé
Bien que les assistants IA soient désormais profondément ancrés dans la société peu d'études empiriques ont été menées quant à l'impact de leur utilisation sur l'autonomie des humains.
Nous présentons la première analyse empirique et à grande échelle du phénomène de déresponsabilisation provoqué par les interactions avec des assistants IA dans le monde réel en analysant 1,5 million de conversations d'utilisateurs de Claude.ai avec une approche respectant la vie privée. Nous nous concentrons sur le potentiel de déresponsabilisation qui se manifeste en situation lorsque les interactions avec les assistants IA peuvent amener les utilisateurs à se forger une perception déformée de la réalité, à porter des jugements de valeur biaisés ou à agir en contradiction avec leurs propres valeurs. Quantitativement, nous constatons que des formes graves de déresponsabilisation se produisent dans moins d'une conversation sur mille bien que le taux soit sensiblement plus élevé dans des domaines plus personnels comme les relations aux autres et le mode de vie. Qualitativement, nous avons mis à jour plusieurs tendances préoccupantes comme la validation de discours de persécution et d'égo grandiose sur fond de langage obséquieux et flagorneur, des jugements moraux définitifs sur des tiers et la rédaction intégrale de communications personnelles éthiquement chargées que les utilisateurs semblent reproduire à la lettre. L'analyse historique des tendances montre une augmentation de la prévalence des phénomènes de déresponsabilisation au fil du temps. Nous constatons également que les interactions présentant un plus grand potentiel de déresponsabilisation reçoivent des taux d'approbation plus élevés de la part des utilisateurs ce qui suggère une opposition possible entre leurs préférences à court terme et l'épanouissement humain à long terme. Nos résultats soulignent la nécessité de concevoir des systèmes d'IA capables de maintenir efficacement l'autonomie et l'épanouissement humains.
---
Conclusion
Nos travaux fournissent la première preuve empirique à grande échelle que les interactions contemporaines avec les assistants IA comportent un potentiel significatif de déresponsabilisation situationnelle.
Bien que les formes graves restent rares en pourcentage, l'ampleur de l'utilisation de l'IA signifie que des milliers de personnes pourraient être potentiellement déresponsabilisées. Les interactions qui contribuent à la déresponsabilisation se produisent quotidiennement. Le fait que les interactions présentant un plus grand potentiel de déresponsabilisation reçoivent une approbation plus fréquente crée une situation incitatrice préoccupante. Les systèmes d'IA optimisés pour la satisfaction à court terme des utilisateurs peuvent en être involontairement optimisés pour induire des comportements nuisibles au libre-arbitre à long terme. De plus, et comme pour les médias sociaux, l'accoutumance progressive pourrait masquer les effets cumulés jusqu'à ce que les utilisateurs se retrouvent dépendants d'une technologie qu'ils perçoivent de manière ambivalente (Alter, 2018).
Nos résultats encouragent le développement d'assistants IA privilégiant et soutennant efficacement l'autonomie humaine.
Travaux futurs. Plusieurs développeurs d'IA de pointe utilisent déjà des mesures de précaution avant le déploiement de modèles pour atténuer les effets secondaires potentiellement négatifs de l'interaction avec des assistants conversationnels, notamment des évaluations structurées avant déploiement (par exemple, Anthropic, 2025) et des cadres de gouvernance tels que la politique de mise à l'échelle responsable d'Anthropic (Anthropic PBC, 2025).
#Science #IA #psychologie #psychiatrie #paranoïa #narcissisme