Meine 5 Cent:
Die Nutzung sogenannter Künstlicher Intelligenz wird ein wichtiges Standard-Werkzeug werden bei dem digital kompetenten Teil der Bevölkerung. Und ein Erfolgsfaktor. Nicht im Sinne von "denk du mal für mich", sondern "mach du den Teil der Arbeit für mich, den du effizienter kannst und schaffe mir Zeit für die kreative Erstellung qualitativ hochwertiger Ergebnisse".
Genau so. 👍🤖
Wenn wir im Alltag 20 kleine, spezialisierte #OpenSource - KIen anwenden, dann behalten wir ja auch die Kontrolle.
Geben wir jedoch (wie bisher) unsere #Daten & unser #Denken an wenige oder gar 1 Super - #KonzernKI , dann werden wir kontrolliert.
Auch deswegen trete ich so stark für #FOSS & das #Fediversum ein. Jenseits der #Konzernmedien ist weniger #Neurohacking & mehr #Freiheit. Erkennt inzwischen auch der #Papst ! https://taz.de/Papst-und-Pressefreiheit/!6118951/
@BlumeEvolution
@_RyekDarkener_
KI wird maßlos überbewertet.
( Selbst wenn man #KonzernKI ignoriert.)
Für einige Nischen ist ein teuer erkaufter Nutzen vorhanden.
Ich sehe immer wieder die Ergebnisse von mach-das-für-mich-das-du-besser-kannst mit Leuten, die es besser wissen müssen und auf GenAI-Fehler hereinfallen.
Und sich dann hinterher mit Händen und Füßen dagegen wehren, ihre eigene Verantwortung dabei zu übernehmen.
("Aber #ChatGPT hat mir gesagt <...>" ... ja, dann MUSS das stimmen! Auch, wenn es das eben nicht tut! ).
Ja, es ist nicht zu stoppen, weil immer mehr Firmen ihre Mitarbeiter zum Einsatz zwingen, um mittelmäßige Ergebnisse mit weniger Personal zu bekommen ( und die höheren KI Kosten nicht einrechnen ).
Äquivalenz: 'billiger' Atomstrom.
@alchemist @Justbeep @BlumeEvolution @_RyekDarkener_
Nun ist in emiprischen Wissenschaften eine 80%ige Sicherheit ein ziemlich flaues Ergebnis. Stelle mir gerade vor, ein Arzt würde mir sagen: mit 80% Sicherheit haben Sie ein Rezidiv Ihrer Leukämie. Vor dem Arzt flüchte ich lieber.
Vielleicht reicht das ja für Einser-Juristen, die einfach mal was ausprobieren, um zu sehen, ob sie damit bei Gericht durchkommen. Das ist kein Argument für AI.
@alchemist @freistern @Justbeep @BlumeEvolution
Ich gehe davon aus, dass ein Arzt, der LLM benutzt, auch die Möglichkeit hat, seine eigenen Ergebnisse sowie aktuelles Wissen "nachzuerfassen".
Das wäre btw auch ein interessanter Businesscase für externe Provider. (Solange die nicht gematik heißen).
@alchemist @freistern @Justbeep @BlumeEvolution
Es geht nicht darum, was ich will. Sondern darum, was technisch möglich ist. Auch Schwurbler werden LLMs einsetzen.
Die Verantwortung für die Handlung liegt immer bei der Person und nicht bei einem Softwareprodukt.
Ich finde es erstaunlich, dass dass überhaupt ernsthaft zu diskutieren versucht wird.
@_RyekDarkener_
Schöne Rechnung, aber wie beurteile ich denn, was die Automatik besser kann, und welche Ansprüche müssen wir erfüllen, um die Vorgaben der AI zu kontrollieren?
Es muss eine Anforderung an die AI sein, dass sie uns auf mögliche Fehlerquellen hinweist, also exakte Quellenangaben macht. Allem Anschein nach kann sie das nicht. Es kommt also darauf an, dass ich kontrollieren kann, womit sie gefüttert ist.