99,99 % sicher, dass ein deutsches Arbeitsgericht das exakt genauso urteilen könnte.

https://www.fr.de/verbraucher/frau-von-ki-ersetz-und-entlassen-gericht-urteilt-legitim-94203919.html

Frau von KI ersetzt und entlassen – Gerichtsurteil markiert Wendepunkt

Dürfen Unternehmen ihre Angestellten entlassen, wenn sie sie wegen KI nicht mehr brauchen? Das Arbeitsgericht in Rom sagt Ja. Das Urteil schürt Sorgen.

@AwetTesfaiesus ich wäre baff erstaunt, wenn nicht

1. sämtliche Versicherer gerade mit KI-Automation experimentieren und
2. nicht noch vor der nächsten BTW mindestens einer von ihnen seinen kompletten Personal-Mittelbau „gehen lässt“.

@AwetTesfaiesus
Da ja KI Nutzung trotzdem immer Human-in-the-loop benötigt, haben wir dann für die Belegschaft, die bleibt, weiter Arbeitsverdichtung. Dann wird man feststellen, dass das Grundwissen im Job immer mehr verloren geht. Dann fehlt der Nachwuchs. Dann werden die KI Anbieter erst recht die Preise anziehen. 🤷
@beandev wieso „human in the loop“?

@AwetTesfaiesus
Weil du dich nie auf die Ergebnisse verlassen kannst, du alles überprüfen und immer nachjustieren musst. Die Arbeit muss ja trotzdem erledigt werden. Wenn der Workload gleich bleibt, aber weniger Menschen den Durchsatz bewältigen müssen, hast du mehr Kontextswitch, damit höhere kognitive Belastung (die langweiligen Arbeiten fallen ja weg, nur die intensiven komplexen verbleiben für die Menschen).

Im schlimmsten Fall müssen die Menschen die Fehler ausbügeln, zusätzlich zur anfallenden Arbeit (ich hatte da mal einen Post geschrieben mit Feedback einer Vonovia Mitarbeiterin, die mit der KI Unterstützung inzwischen Mehrarbeit hat).

@beandev ich bin wirklich nicht Deiner Meinung. Nehmen wir eine Versicherung: die Regulierung läuft mit LLM/KI.

1. Kann ich doch den Output dieses LLMs in ein anderes werfen, um zu gucken, ob es abgedreht ist und
2. Wenn das Ergebnis krass daneben liegt, wird sich doch eine der Parteien beschweren; dann reicht es doch, wenn ein Mensch drauf schaut.

edit: als advocata diaboli gesagt.

@AwetTesfaiesus
Zu 1) Wenn das funktionieren würde, gäbe es das schon. Oder anders gesagt, warum ist das Training der einen LLM nicht so weit fortgeschritten, wie das angeblich magische 2. LLM, was das Problem entdecken kann.

Diese Diskussion habe ich schon mit vielen Experten geführt und keiner hatte eine Antwort dazu. Das Ergebnis ist, alle LLM hängen zur Zeit mit den gleichen Problemen fest. Es gibt keine schlauere, die andere überwachen kann.

Zu 2) wenn das der Anspruch ist, wie unser Rechtssystem funktionieren soll, in Zukunft, werde ich mir meine Kanzleien sehr gut aussuchen müssen. Wenn eine Fehler erst dann angegangen werden soll, wenn es dem Klienten auffällt, sind wir in der perfekten Enshittification.

Du magst einer anderen Meinung sein und anderes Risiko bewerten.

1/2

@AwetTesfaiesus
Aber ich kann dir sagen, in dieser Welt von Fehlerkultur, die du gerade propagierst, möchte niemand leben.

Wie soll das bei Arztberufen sein? Oder bei Waffensystemen? Ups, die KI hat ein Fehler gemacht. 80 Kinder tot, weil eine Schule getroffen. Shit happens.

Und niemand ist dann in der Verantwortung, weil es ja nur die KI war. Wird dann repariert... Konsequenzen gibt es dann nicht.

2/2

@beandev @AwetTesfaiesus Ich bekomme eigentlich immer nur mit, dass die KI (LLM), wenn sie in den realen Betrieb geworfen wird, hauptsächlich Murks verzapft, den Menschen mühevoll wieder geraderücken müssen. Natürlich machen auch Menschen Murks, aber eben langsamer. Ich seh das wie Aljoscha: wenn aufgrund der KI-"Unterstützung" Leute gekündigt werden, führt das nur zu Arbeitsverdichtung - und Frust. Wer hat denn Bock, nur noch Fehler zu korrigieren, anstatt selbst was zu tun?
Aljoscha Rittner (beandev) (@[email protected])

Heute ein Feedback einer Vonovia Call Center Supportmitarbeiterin: Die neuen Chatclients, wo die Mieter*innen als erstes verwiesen werden, um Service-Anfragen auszulösen, seien so schlecht, dass sie inzwischen deutliche Mehrarbeit haben, den ganzen Unsinn dann per Telefon und Post wieder geradezuziehen. Das agentische System dahinter scheint auch eher random Request anzunehmen und teilweise auf fachfremde Firmen zu verteilen. So werden auch zusammenhängende Anfragen getrennt und unterschiedlich bestätigt. Es kommen mehrere Subunternehmer teilweise in falscher Reihenfolge (Maler vor dem Klempner). Schöne neue Welt 😂 #AI #ChatClients #KI #Vonovia

Mastodon

@lipow
Ich persönlich hatte vor ein paar Tagen versucht herauszufinden, wie ich einer meiner Kreditkarten kündigen könnte. Das Chatsystem der Bank lieferte abstruse Antworten, wie ich einen Kredit früher ablösen könnte oder verwies mich auf Kündigungsoptionen von Girokonten.

Das ist die schöne neue Welt, die Banken einsetzen. Banken!

Gute Produkte und Kundenzzufriedenheit ist doch keinem Interesse mehr dieser Konzerne. Und wenn ich von @AwetTesfaiesus lese, dass es genügt, wenn der Client einer Rechtskanzlei sich beschwert, wenn es grobe Fehler gibt, dann bin ich absolut entsetzt.

Das macht mich ehrlich gesagt fassungslos.

@beandev @lipow

Man könnte das ja auch so sehen:
Unsere Gesellschaft funktioniert vielleicht schon sehr lange nach dem Prinzip: so lange sich niemand beschwert, war es richtig genug

@AwetTesfaiesus @beandev Ja, in Teilen ist das zutreffend, aber das geht halt auch nur, wenn noch genug richtig ist. Und wenn Beschwerden, wenn sie dann kommen, tatsächlich bearbeitet werden & Besserung eintritt. Sonst kracht halt irgendwann alles zusammen. (Was es vermutlich eh tun wird, der ubiquitäre LLM-Einsatz beschleunigt es nur eben noch mehr.)
@lipow @beandev ich kann es nicht beweisen, aber ich bin mir überwiegend sicher, dass ich mindestens eine Versicherung kenne, die Beschwerden seit Jahrzehnten nicht bearbeitet, sondern nur beantwortet.
@AwetTesfaiesus @beandev Ohne Beweis ist das jetzt natürlich ... hm. Krankenkassen arbeiten ja, wie die Erfahrung zeigt, schon lange nach dem Prinzip: erstmal ablehnen, wer wirklich was braucht, beschwert sich schon - und das dann oft mit Erfolg. Aber diejenigen, die wirklich was brauchen, aber die Kraft zur Beschwerde nicht haben, gehen dabei drauf. Und ja, das passiert schon, das wird halt durch KI auch potenziert werden.