Menschen vertrauen ChatGPT intimste Informationen an. Dessen Hersteller scannt die Chats, lässt sie von Moderator*innen lesen und gibt sie teils sogar an die Polizei weiter. Das hat Open AI als Sicherheitsmaßnahme nach einem Suizid eines Nutzers verkündet. https://netzpolitik.org/2025/datenweitergabe-an-die-polizei-eure-chats-mit-chatgpt-sind-nicht-privat/
Datenweitergabe an die Polizei: Eure Chats mit ChatGPT sind nicht privat

Menschen vertrauen ChatGPT intimste Informationen an. Der Hersteller scannt die Chats, lässt sie von Moderator*innen lesen und gibt sie in bestimmten Fällen sogar an die Polizei weiter. Das hat das KI-Unternehmen Open AI als Sicherheitsmaßnahme nach einem Suizid eines Nutzers verkündet.

netzpolitik.org

@yoshiXYZ
Hm, was ist dran verwerflich, wenn (offenbar menschliche) Moderator*innen Gespräche über Attentate, Bombenbau, Giftmischerei etc. prüfen und bei ausreichendem Verdacht an die Polizei melden?

Warum sollte man solche Daten schützen?

Und sollte man psychisch Kranke (vor allem mit Psychosen oder Schizophrenize) wirklich mit künstlicher Dummheit allein lassen, die ihnen Selbstmordmethoden empfiehlt?

Gerade bei Chatbots und (a)sozialen Medien finde ich Moderation gut und wichtig...

@eveaustria @yoshiXYZ

"Warum sollte man solche Daten schützen?"
Weil sie dafür auch alles andere, womöglich Schützenswerte, lesen.

Und ich dafür die Polizei vor der Türe stehen habe, nur weil ich ein modernes Werkzeug benutze um als Autor zu erfahren, wie man realistisch eine Bombe baut oder wie ein behördlicher Einsatz ablaufen würde, sollte mal ein Attentäter eine solche unter dem Reichstag zünden.

Du siehst selbst: Das false Positiv kann extrem hoch sein.

1/x

@eveaustria @yoshiXYZ Und je nachdem, wo Du sitzt, kann das auch ganz andere Auswirkungen haben: In den USA zum Beispiel würde es in diesem Szenario die Polizei auf den Plan rufen, wenn ich mir ein Meme generiere, das sich über Trump lustig macht.

Da wird durch ein Privatunternehmen ein extrem hohes Mißbrauchspotential geschaffen.

2/2

@derZeitreiser Das wirft psychologische und rechtliche Fragen auf...

Wenn es um mögliche Falschbeschuldigungen geht (trotz menschlicher Moderation und Übergabe zur Überprüfung an die Polizei?!), wer würde Gesetze, Gerichte, etc. ablehnen, weil dasselbe Risiko ins ganze Rechtssystem eingebaut ist?

Einige Verbrechen sind netz-spezifisch, können nur am Internet bestehen. Sollen die Daten von Kinderporno-Erstellern geschützt werden, damit diese unbehelligt noch mehr hilflose Kinder missbrauchen?

@derZeitreiser

Oder geht's nur darum, dass das "Privatunternehmen" die Vorab-Prüfung der Daten übernimmt?

Sollten solche Plattformen also nicht mehr verpflichtet werden, selbst auch Mit-Verantwortung dafür zu übernehmen, dass/wenn sich auf ihren Angeboten Verbrechergruppen bequem weltweit vernetzen können und dort auch z.B. junge Leute rekrutieren und zu Mord, Selbstmord und so weiter überreden können?

Die Daten werden zudem der Polizei übergeben, und keiner Privatarmee von Tech Bros. ...

@eveaustria Sei so gut: Bleib beim Thema. Dein wortreiches Derailing ist mir echt zu plump.

Solltest Du das nicht schaffen oder auch nur ansatzweise die beschriebene Problematik erkennen, mangelt es Dir schlicht an thematischer Kompetenz.

@derZeitreiser
Das einzige, was hier so richtig "plump" ist, ist dein knappes hingeworfenes "wer nicht meiner Meinung ist, kennt sich nicht aus"-Einschnappen mit persönlichen Unterstellungen, ohne ein einziges sachliches Argument...
Mit einem derlei abwertendem angriffigen Tonfall wirst du aber halt niemals jemanden von deinen Ansichten überzeugen können.