Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5
KI-Agenten: Das ist erst der Anfang des Chaos

Der Hype um OpenClaw befeuert einen Streit in der Szene. Wie gefährlich sind KI-Agenten? Eine neue Studie zeigt nun die verheerenden Ergebnisse eines Experiments.

DIE ZEIT

@evawolfangel danke, dass du hier und bei LinkedIn dem Hype etwas entgegensetzt!
In den Kommentaren unter dem Artikel sind auch schon wieder die ersten die meinen, dass da ja nur etwas falsch bedient oder eben nicht richtig abgesichtert wurde.

Ich glaube da wird großflächig ignoriert, von wem und wie LLMs und Agenten meistens eingesetzt werden. Fehlende Absicherung und zu viele Rechte sind doch eher die Regel als die Ausnahme.
Irgendwie verleiten die Tools einen ja auch dazu.

@zollak @evawolfangel ich gehe davon aus, das die wenigsten Unternehmen, die gerade auf den "AI or die" Zug aufspringen, die Absicherung ihrer Agenten wirklich auf dem Radar haben. Da werden dann auch gerne mal bestehende Autorisierungssysteme für menschliche Akteure, oft rollen-basiert, druntergebaut, die einfach nicht für non-human gemacht sind. Aber selbst eine ideale Autorisierung kann das Risiko nur verringern.