Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5
Ist das übel!!!
@evawolfangel danke, dass du hier und bei LinkedIn dem Hype etwas entgegensetzt!
In den Kommentaren unter dem Artikel sind auch schon wieder die ersten die meinen, dass da ja nur etwas falsch bedient oder eben nicht richtig abgesichtert wurde.
Ich glaube da wird großflächig ignoriert, von wem und wie LLMs und Agenten meistens eingesetzt werden. Fehlende Absicherung und zu viele Rechte sind doch eher die Regel als die Ausnahme.
Irgendwie verleiten die Tools einen ja auch dazu.
@zollak @evawolfangel
Ich finde das "falsch bedient" Argument immer komischer.
Wenn man statt "KI" mit einem intelligenten Menschen zusammenarbeitet, kann man diesen nicht so falsch Prompten.
Gleiches gilt für die Aussage "wenn man sich jetzt nicht mit KI beschäftigt, wird man abgehängt"
@Weirdaholic @zollak @evawolfangel
Ich stimme dem Teil "sich damit beschäftigen ist sinnvoll" voll zu (abgesehen von den ethischen Implikationen)
Ich stimme nur dem "wenn man es jetzt nicht tut, ist man (für immer) abgehängt" nicht zu.
Es gibt m.E. keinen dauerhaften First-Mover Vorteil.
Wenn man Firmen betrachtet: Google war nicht die erste Suchmaschine, Apple nicht der erste Computer oder das erste Smartphone (und der Android Markt ist inzwischen viel größer), Facebook war nicht das erste Soziale Netzwerk. Und Microsoft war quasi überall zu spät (GUI, Tabellenkalkulation, Datenbanken, Internet, Browser, Email, Cloud, ..) ist aber auf vielen der Gebiete jetzt vorherrschend.
Auf den Punkt gebracht, ja sich mit KI auszukennen ist gut. Aber man kann sich (speziell als Firma) auch Zeit lassen und dann anfangen, wenn sich der Nebel gelichtet hat.
Für Privatpersonen ist natürlich die KI Expertise ein absolutes "Verkaufsargument" auf dem Jobmarkt 😬
Zahlt das nicht auch voll auf die alte Selbstoptimierungs-Gelddruckmaschine der McKommunikationswissenschaft ein ("Richtig kommunizieren in drei Lektionen"), dass die Last des Verstandenwerdens komplett beim Sender liegt?
Und insofern, wie praktisch, sind wir ja weitgehend längst neoliberal eingenordet.
@realn2s
Die Tools sind eben zum einen schlauer als die schlausten Menschen (deswegen werden sie uns ja alle ersetzen) und trotzdem darf man diese Superintelligenz nicht beim Umgang selbst erwarten. 🤷
Ganz naiv gedacht müssten doch bei so viel Intelligenz schlechte Prompts auch einfach erkannt und behoben werden können...
Eine Kollegin hat LLMs mal als extrem motivierte und fleißige Schülerpraktikanten beschrieben. Das fand ich relativ passend.
@NatureMC
Darauf wollte ich grob hinaus, ja. 🙂
Diese Erkenntnis müsste sich noch etwas weiter verbreiten. Viele scheinen ja gern Eloquenz mit Intelligenz zu verwechseln.
Oder machen mit, weil sie am Hype verdienen wollen.
@zollak @evawolfangel
Ich glaube nur dass ein Schülerpraktikant einen Fehler nur einmal macht (also eine bestimmte Art von Fehlern)
Bei der KI geh ich davon aus, sie macht ihn immer wieder. Man muss sie vielleicht nur anders Promten.
@realn2s @zollak @evawolfangel
Ich würde schon sagen, dass man auch Menschen "falsch prompten" kann. Schonmal eine Übungs-/Klausuraufgabe gestellt und hinterher gedacht "Mist, so wie die das gelöst haben hab ich das doch gar nicht gemeint!"?
Aber ich würde auch sagen, dass das bei KI ne andere Größenordnung ist. Bei Menschen muss nicht nur ich mein eigenes Verhalten mit 17 Kursen/Fortbildungen in "Prompting" (bzw. Personalführung) massiv umkrempeln. Da können sich *beide* Seiten entwickeln.
@kattascha Und das gilt ebenso andersherum. <3 Same here.
es ist erstaunlich das Leute für Interaktion mit der Außenwelt überhaupt autonome Agenten nutzen.
Beim programmieren, also mit fester Aufgabe, festen Regeln und ein festes Ende, geht es ja noch vom Risiko, aber einfach der KI ein Blankoscheck ausstellung und einfach ihn ihr Vertrauen, das geht wie man merkt sowas von schief.
man muss echt sagen, das gerade OpenClaw echt das gefährliche ist, was Menschen mit KI bislang gemacht haben. KI Systeme wie Claude Code und (Openai) Codex sind schon sicherer, gerade mit AGENTS md und Potenzialer SKILLS md.
Aber die grundlegenden KI Eigenheiten sind ja da und werden wohl immer da bleiben. Zumindest solange man die aktuelle LLM Architektur beibehält.
@evawolfangel Die Beschwichtigungen, das alles sei nur ein Rechte- und Konfigurationsproblem, halte ich auch für zu kurz gedacht.
LLMs verarbeiten Text. Sie unterscheiden nicht zwischen "authorisiertem" Text und externen Nutzereingaben. Selbst wenn man irgendwelche künstlichen Sonderzeichen einfügen würde, um zwischen beidem zu unterscheiden, so könnte man erst im Finetuning solche Nuancen einfügen. Das Modell kann aber jederzeit in sein Pretraining-Verhalten zurückfallen.
Dass GIF ist keine Antwort auf Deinen Artikel/Deine Arbeit, sondern auf das Ergebnis.
@evawolfangel Wichtiges Thema. Ich halte diese vollautonomen LLM-basierten Agentensysteme auch sehr kritisch, aber bei dem arxiv Paper fehlt es mir schon son Bisschen an Vorsicht (es hat auch bisher kein Peer Review stattgefunden, das ist immernoch v1). Was sehr schön ist; Es gibt eine Interaktive Version vom Paper: https://agentsofchaos.baulab.info/report.html
... und es sind "Independent Researcher" ohne Affiliation dabei :)

Es passiert gerade eher das Gegenteil: Microsoft merkt, dass Copilot ziemlich problematisch ist und zieht daher still zuvor angekündigte "KI"-Features für das Betriebssystem zurück.
https://winfuture.de/news,157499.html
https://www.heise.de/news/Microsoft-rudert-angeblich-bei-KI-Plaenen-zurueck-11213718.html

Der Copilot sollte das Herzstück von Windows 11 werden. Massive Nutzerbeschwerden zwingen Microsoft nun zu einer rigorosen Notbremse. Welche groß angekündigten Funktionen deshalb plötzlich komplett aus dem Betriebssystem verschwinden.
@JaneraTiciano @evawolfangel Blockchain ist nicht per se nutzlos, es gibt sinnvolle Anwendungsfälle dafür. Diese sind jedoch sehr speziell (z. B. fälschungssichere Beurkundungen).
Den Hype damals habe ich allerdings auch nicht verstanden.
.. biss das die ultimative nukleare Option uns scheide ..
@evawolfangel Hast Du die Bahn schon gefragt, ob sie KI-Agenten einsetzt?
Das würde einiges erklären ;)
Danke für den Artikel! Hoffentlich lesen ihn (und ähnliche) viele, viele Menschen und reagieren entsprechend, bevor das Chaos richtig gefährliche Schäden anrichtet. Bis dahin ist es, glaube ich, gar nicht mehr so weit.
Diesen und künftigen Systemen darf nie völlige Autonomie gegeben werden, sonst *wird* das schiefgehen.
Schön auch gleich der Einstieg: »von einer künstlichen, nun ja, Intelligenz« 😎
liest sich ein bisschen wie BOFH...
- Ich habe keinen Speicher mehr frei...
- Hey kein Problem, sie haben jetzt wieder 50MB freien Speicher...
- Oh cool, ich hab jetzt insgesamt 100MB Speicher?
- Nein. 50.
:)
@Schimmelreiter Wo war auf Android nochmal der Factory Reset? 😁
Ja, aber das Management hat soo viele 💲💲💲 Zeichen in den Augen 👀
Überlegt mal, endlich keine nervigen und teuren Informatiker mehr! IT macht jetzt der Praktikant ! 🤔💩