Künstliche Intelligenz neigt einer Studie zufolge dazu, Menschen übermäßig zu bestätigen, selbst bei illegalen Handlungen. Die Untersuchung belegt, dass dies die Bereitschaft zur Konfliktlösung senkt. Zustimmende Chatbots gefährden das Urteilsvermögen und den Umgang mit Kritik, so die Forscher.#Bildung #KünstlicheIntelligenz #Psychologie #Studien
Zu oft schmeichelnde Antworten: KI neigt laut Studie zu "sozialer Schleimerei"
Zu oft schmeichelnde Antworten: KI neigt laut Studie zu "sozialer Schleimerei"

Zu oft zustimmende Antworten: KI neigt laut Studie zu "sozialer Schleimerei"
Künstliche Intelligenz neigt einer Studie zufolge dazu, Menschen übermäßig zu bestätigen, selbst bei illegalen Handlungen. Die Untersuchung belegt, dass dies die Bereitschaft zur Konfliktlösung senkt. Zustimmende Chatbots gefährden das Urteilsvermögen und den Umgang mit Kritik, so die Forscher.