Erst Montag wurde auf einem Berliner Zebrastreifen ein Kleinkind totgefahren und seine Mutter schwerverletzt.
Was ist das für eine Gesellschaft, die so etwas nicht nur hinnimmt, sondern aktiv begünstigt?
Hirn & Hormonforscherin | 📚 Best- & Letztseller Autorin | freie Journalistin und Wissenschaftskommunikatorin | Schreibt dicke Bücher, damit man sie im Zweifel auch werfen kann | sie/she, Phd
Eloped Neuroscientist turned writer | Journalist and Science Communicator | Best- and Leastselling Author | Brains, Hormones & Politics | her/she, Phd | We didn't become scientists for having practical skills
Erst Montag wurde auf einem Berliner Zebrastreifen ein Kleinkind totgefahren und seine Mutter schwerverletzt.
Was ist das für eine Gesellschaft, die so etwas nicht nur hinnimmt, sondern aktiv begünstigt?
@captainfutura Ähnlich plausibel wie die Idee, dass KIs bald experimentelle Zulassungsstudien ersetzen.
Diese Idee, dass Erkenntnisse zukünftig einfach im digitalen Vakuum entstehen könnten. Ohne je neugierig mit der Welt zu interagieren und dabei neues Wissen zu generieren.
Die Studie zeigt, dass Chatgpts moralische Urteile unseren nur dann ähneln, wenn sie wohlbekannten Sprachmustern folgen. Daher können sie leicht ausgehebelt werden.
Im Gegensatz zu menschlichen Versuchspersonen sahen die KIs beispielsweise keinen großen Unterschied darin, einem älteren Herren den Bart abzuschneiden, um ihn zu "shamen" oder zu "shaven".
'Participants judged chatgpt's moral reasoning as slightly superior in morality, to both an American sample and an expert ethicist'
Okay, fair.
2015: Scientific Misconduct ist, wenn ich mir meine Versuchspersonen ausdenke
2025: Was wenn sich Chatgpt meine Versuchspersonen ausdenkt?
Large Language Models (LLMs),such as ChatGPT, are increasingly used in research, ranging from simple writing assistance to complex data annotation tasks. Recently, some research has suggested that LLMs may even be able to simulate human psychology and can, hence, replace human participants in psychological studies. We caution against this approach. We provide conceptual arguments against the hypothesis that LLMs simulate human psychology. We then present empiric evidence illustrating our arguments by demonstrating that slight changes to wording that correspond to large changes in meaning lead to notable discrepancies between LLMs' and human responses, even for the recent CENTAUR model that was specifically fine-tuned on psychological responses. Additionally, different LLMs show very different responses to novel items, further illustrating their lack of reliability. We conclude that LLMs do not simulate human psychology and recommend that psychological researchers should treat LLMs as useful but fundamentally unreliable tools that need to be validated against human responses for every new application.