Mehr KI-Schrott

In einem Vortrag auf der RSAC Konferenz hat das Sicherheitsunternehmen Zenity vorgeführt, wie leicht man ein LLM auf Abwege führen kann. Der Technik-Chef des Unternehmens sagt dazu, dass die viel diskutierte Angriffsmethode "Prompt Injection" viel zu hoch gegriffen ist. KI-Agenten seien leichtgläubig und müssten nur freundlich überredet werden, etwas anderes zu tun als vorgesehen.

Microslop (so von meinem Lieblings-Nachrichtenportal verballhornt) hat ein tolles "Angebot" für Nutzer/innen des hauseigenen Cloud-Speichers OneDrive: Wer ein MS 365 Premium Abonnement hat, kann mit der hauseigenen KI Meisterwerke aus in OneDrive gespeicherten Fotos gestalten. Ach,

https://www.pc-fluesterer.info/wordpress/2026/03/25/mehr-ki-schrott-2/

#Allgemein #Empfehlung #Hintergrund #Warnung #cloud #KI #Microsoft #privacy #sicherheit

Mehr KI-Schrott | pc-flüsterer bremen

@PC_Fluesterer

Das Wort #gullible bzw. #leichtgläubig ist auch zu hoch gegriffen. LLMs glauben gar nichts. Sie bewerten Wortfolgen statistisch und erzeugen daraus neue, wahrscheinliche Wortfolgen. #Glaube und #Wahrheit sind keine Kategorien für ein #LLM.

@debacle
Ja, geschenkt. Das ist eine Vermenschlichung der KI, um die Vorgänge für Otto und Erna von der Straße (und ihre Pendents in der IT) verdaubar zu machen. Diese Vermenschlichung trifft man bei Diskussionen über KI häufig. Nach der reinen Lehre formuliert, wären zehn mal mehr Worte notwendig, und die Lesbarkeit (und wahrscheinlich die Verständlichkeit) der Aussagen würde leiden.