Franca Parianen

@Fparianen
3.5K Followers
1.3K Following
1.4K Posts

Hirn & Hormonforscherin | 📚 Best- & Letztseller Autorin | freie Journalistin und Wissenschaftskommunikatorin | Schreibt dicke Bücher, damit man sie im Zweifel auch werfen kann | sie/she, Phd

Eloped Neuroscientist turned writer | Journalist and Science Communicator | Best- and Leastselling Author | Brains, Hormones & Politics | her/she, Phd | We didn't become scientists for having practical skills

Erst Montag wurde auf einem Berliner Zebrastreifen ein Kleinkind totgefahren und seine Mutter schwerverletzt.

Was ist das für eine Gesellschaft, die so etwas nicht nur hinnimmt, sondern aktiv begünstigt?

https://www.tagesspiegel.de/berlin/verkehrsverwaltung-will-tempo-50-vor-kitas-cdu-fraktion-widerspricht-der-cdu-senatorin-14199728.html

@drmabuese Das Problem mit der Bullshit Balance: Einer verkündet laut, dass LLMs quasi menschliche Urteile treffen und jemand anderes muss jetzt viel Zeit und Aufwand betreiben um es zu widerlegen. Wobei LLMs und der Hype darum inzwischen so omnipräsent sind, dass ich mich Frage, wie es der Aufklärungsarbeit überhaupt gelingen soll, dem hinterherzuräumen, geschweige denn zuvorkommen. Dabei wäre genau diese Aufklärung ja die Grundvoraussetzung dafür, dass man sie verantwortungsbewusst einsetzt.
@xepia_ ...und, die Lernerfahrung aus dieser Kategorie im Vordiplom gibt, legt dann die Grundlage für "Na, ob's jetzt konkret die richtige Antwort gibt, weiß ich nicht, aber Hauptsache es klingt sehr überzeugend."
@eichkat3r Hab es auch gern gelesen!

@captainfutura Ähnlich plausibel wie die Idee, dass KIs bald experimentelle Zulassungsstudien ersetzen.

Diese Idee, dass Erkenntnisse zukünftig einfach im digitalen Vakuum entstehen könnten. Ohne je neugierig mit der Welt zu interagieren und dabei neues Wissen zu generieren.

@MurmeltHier Kein Wunder, dass die Dinger in Trumps Dunstkreis so beliebt sind

Die Studie zeigt, dass Chatgpts moralische Urteile unseren nur dann ähneln, wenn sie wohlbekannten Sprachmustern folgen. Daher können sie leicht ausgehebelt werden.

Im Gegensatz zu menschlichen Versuchspersonen sahen die KIs beispielsweise keinen großen Unterschied darin, einem älteren Herren den Bart abzuschneiden, um ihn zu "shamen" oder zu "shaven".

'Participants judged chatgpt's moral reasoning as slightly superior in morality, to both an American sample and an expert ethicist'

Okay, fair.

2015: Scientific Misconduct ist, wenn ich mir meine Versuchspersonen ausdenke

2025: Was wenn sich Chatgpt meine Versuchspersonen ausdenkt?

https://arxiv.org/abs/2508.06950

Large Language Models Do Not Simulate Human Psychology

Large Language Models (LLMs),such as ChatGPT, are increasingly used in research, ranging from simple writing assistance to complex data annotation tasks. Recently, some research has suggested that LLMs may even be able to simulate human psychology and can, hence, replace human participants in psychological studies. We caution against this approach. We provide conceptual arguments against the hypothesis that LLMs simulate human psychology. We then present empiric evidence illustrating our arguments by demonstrating that slight changes to wording that correspond to large changes in meaning lead to notable discrepancies between LLMs' and human responses, even for the recent CENTAUR model that was specifically fine-tuned on psychological responses. Additionally, different LLMs show very different responses to novel items, further illustrating their lack of reliability. We conclude that LLMs do not simulate human psychology and recommend that psychological researchers should treat LLMs as useful but fundamentally unreliable tools that need to be validated against human responses for every new application.

arXiv.org
Aus der Perspektive bekommt es nochmal einen ganz eigenen Beigeschmack, dass die aktuelle Regierung Frauen sprachlich so dringend verschwinden lassen will.