Sicherheitslücke in Claude Cowork: So verschaffen sich Hacker unbemerkt Zugriff | t3n

Claude Cowork ist als Begleiter für den Arbeitsalltag gedacht. In der aktuellen Testphase weist der KI-Agent allerdings noch gravierende Sicherheitslücken auf und ist anfällig für Prompt-Injection-Angriffe. Vor zwei Tagen hat Anthropic eine Research-Preview von Claude Cowork veröffentlicht. Dabei handelt es sich um einen KI-Assistenten, der im digitalen Arbeitsalltag verschiedene Aufgaben übernehmen soll, darunter das Erstellen […]

t3n Magazin
A single click mounted a covert, multistage attack against Copilot https://arstechni.ca/kkdK #dataexfiltration #promptinjections #Security #copilot #Biz&IT #LLMs #AI
A single click mounted a covert, multistage attack against Copilot

Exploit exfiltrating data from chat histories worked even after users closed chat windows.

Ars Technica
ChatGPT falls to new data-pilfering attack as a vicious cycle in AI continues https://arstechni.ca/QKxA #dataexfiltration #promptinjections #Security #chatbots #Biz&IT #AI
ChatGPT falls to new data-pilfering attack as a vicious cycle in AI continues

Will LLMs ever be able to stamp out the root cause of these attacks? Possibly not.

Ars Technica
OpenAI: Prompt Injections für KI-Browser bleiben ein Problem

KI-Agenten und Browser werden besser gegen Prompt Injections geschützt. Doch: Das Problem wird laut OpenAI noch Jahre bestehen.

heise online
Syntax hacking: Researchers discover sentence structure can bypass AI safety rules

New research offers clues about why some prompt injection attacks may succeed.

Ars Technica
KI-Update Deep-Dive feat. They Talk Tech: Prompt Injections

KI-Agenten sollen unseren Alltag organisieren und uns Arbeit abnehmen. Doch eine Angriffsmethode namens Prompt Injection macht die Sprachmodelle manipulierbar.

heise online
Unseeable #promptinjections in screenshots: more vulnerabilities in Comet and other #AI browsers - https://brave.com/blog/unseeable-prompt-injections/ just the start
Unseeable prompt injections in screenshots: more vulnerabilities in Comet and other AI browsers | Brave

AI browsers remain vulnerable to prompt injection attacks via screenshots and hidden content, allowing attackers to exploit users' authenticated sessions.

Brave
ShadowLeak: ChatGPT verriet Angreifern persönliche Daten aus E-Mails

Mit einer Kombination verschiedener Manipulationstechniken ließ das OpenAI-LLM sich austricksen und plauderte private Daten aus. Was wusste Sam Altman darüber?

heise online
New attack on ChatGPT research agent pilfers secrets from Gmail inboxes https://arstechni.ca/vR3m #promptinjections #Security #Biz&IT #LLMs #AI
New attack on ChatGPT research agent pilfers secrets from Gmail inboxes

Unlike most prompt injections, ShadowLeak executes on OpenAI’s cloud-based infrastructure.

Ars Technica