99,99 % sicher, dass ein deutsches Arbeitsgericht das exakt genauso urteilen könnte.
https://www.fr.de/verbraucher/frau-von-ki-ersetz-und-entlassen-gericht-urteilt-legitim-94203919.html
99,99 % sicher, dass ein deutsches Arbeitsgericht das exakt genauso urteilen könnte.
https://www.fr.de/verbraucher/frau-von-ki-ersetz-und-entlassen-gericht-urteilt-legitim-94203919.html
@AwetTesfaiesus ich wäre baff erstaunt, wenn nicht
1. sämtliche Versicherer gerade mit KI-Automation experimentieren und
2. nicht noch vor der nächsten BTW mindestens einer von ihnen seinen kompletten Personal-Mittelbau „gehen lässt“.
@AwetTesfaiesus
Weil du dich nie auf die Ergebnisse verlassen kannst, du alles überprüfen und immer nachjustieren musst. Die Arbeit muss ja trotzdem erledigt werden. Wenn der Workload gleich bleibt, aber weniger Menschen den Durchsatz bewältigen müssen, hast du mehr Kontextswitch, damit höhere kognitive Belastung (die langweiligen Arbeiten fallen ja weg, nur die intensiven komplexen verbleiben für die Menschen).
Im schlimmsten Fall müssen die Menschen die Fehler ausbügeln, zusätzlich zur anfallenden Arbeit (ich hatte da mal einen Post geschrieben mit Feedback einer Vonovia Mitarbeiterin, die mit der KI Unterstützung inzwischen Mehrarbeit hat).
@AwetTesfaiesus
Ja, aber ich gebe mein Leben lieber unzuverlässigen Menschen in die Hand, die Gewissen, Ethik und Moralvorstellungen haben und sich Konsequenzen bewusst sein müssen, als es einer biasverseuchten KI - Blackbox entscheiden zu lassen.
Ich möchte nicht in einem technokratischen Faschismus landen, wo es relevante Entscheidungen in meinem Leben gibt, die ausschließlich aus statistischen Grundrauschen entstanden und es bis heute nicht wirklich erforscht ist, wie LLM zu bestimmten Ergebnissen kommen. Aber man weiß schon sehr gut, wie man LLM manipulieren und bewusst in Fehlrichtungen trainieren kann.
Nein danke 😅