
Sicherheitslücke in Claude Cowork: So verschaffen sich Hacker unbemerkt Zugriff | t3n
Claude Cowork ist als Begleiter für den Arbeitsalltag gedacht. In der aktuellen Testphase weist der KI-Agent allerdings noch gravierende Sicherheitslücken auf und ist anfällig für Prompt-Injection-Angriffe. Vor zwei Tagen hat Anthropic eine Research-Preview von Claude Cowork veröffentlicht. Dabei handelt es sich um einen KI-Assistenten, der im digitalen Arbeitsalltag verschiedene Aufgaben übernehmen soll, darunter das Erstellen […]
t3n Magazin
A single click mounted a covert, multistage attack against Copilot
Exploit exfiltrating data from chat histories worked even after users closed chat windows.
Ars TechnicaChatGPT falls to new data-pilfering attack as a vicious cycle in AI continues
https://arstechni.ca/QKxA #dataexfiltration #promptinjections #Security #chatbots #Biz&IT
#AI
ChatGPT falls to new data-pilfering attack as a vicious cycle in AI continues
Will LLMs ever be able to stamp out the root cause of these attacks? Possibly not.
Ars Technica
OpenAI: Prompt Injections für KI-Browser bleiben ein Problem
KI-Agenten und Browser werden besser gegen Prompt Injections geschützt. Doch: Das Problem wird laut OpenAI noch Jahre bestehen.
heise online
Syntax hacking: Researchers discover sentence structure can bypass AI safety rules
New research offers clues about why some prompt injection attacks may succeed.
Ars Technica
KI-Update Deep-Dive feat. They Talk Tech: Prompt Injections
KI-Agenten sollen unseren Alltag organisieren und uns Arbeit abnehmen. Doch eine Angriffsmethode namens Prompt Injection macht die Sprachmodelle manipulierbar.
heise onlineUnseeable
#promptinjections in screenshots: more vulnerabilities in Comet and other
#AI browsers -
https://brave.com/blog/unseeable-prompt-injections/ just the start

Unseeable prompt injections in screenshots: more vulnerabilities in Comet and other AI browsers | Brave
AI browsers remain vulnerable to prompt injection attacks via screenshots and hidden content, allowing attackers to exploit users' authenticated sessions.
Brave
ShadowLeak: ChatGPT verriet Angreifern persönliche Daten aus E-Mails
Mit einer Kombination verschiedener Manipulationstechniken ließ das OpenAI-LLM sich austricksen und plauderte private Daten aus. Was wusste Sam Altman darüber?
heise onlineNew attack on ChatGPT research agent pilfers secrets from Gmail inboxes
https://arstechni.ca/vR3m #promptinjections #Security #Biz&IT
#LLMs #AI
New attack on ChatGPT research agent pilfers secrets from Gmail inboxes
Unlike most prompt injections, ShadowLeak executes on OpenAI’s cloud-based infrastructure.
Ars Technica