Das ist so cool.

"In the two weeks it was scanning, Claude discovered more than 100 bugs in total, 14 of which were considered “high severity.” That means that if the right “exploit code” had been created, they could have been used in a widespread attack on Firefox’s users."

https://www.wsj.com/tech/ai/send-us-more-anthropics-claude-sniffs-out-bevy-of-bugs-c6822075?ref=platformer.news via the Overspill https://theoverspill.blog/2026/03/11/british-ai-investment-mystery-start-up-2627/

@marcelweiss
Na toll. Und ganz normale Webseiten werden bei Firefox oft nicht vollständig angezeigt, weil irgendwo ein „Sicherheitsfeature“ aktiv ist.
@marcelweiss related dazu. Ja, KI-Systeme sind mächtig, können aber genau so gut zum Angriff, wie zur Verteidigung genutzt werden. Und die Angreifer sind meistens einen Schritt voraus.
https://mastodon.social/@pallenberg/116209502963962391
@kleisli Wenn LLMs effizient und permanent wie hier zur Verteidigung eingesetzt werden, bleibt den Angreifern am Ende keine Angriffsfläche. Das ist ziemlich offensichtlich. Man muss es nur einsetzen wollen.
How We Hacked McKinsey's AI Platform

An autonomous AI agent found a SQL injection in McKinsey's Lilli AI platform. What it extracted was worse than we expected.

@mrtoto McKinsey sollte mehr LLMs zur Verteidigung einsetzen.
@marcelweiss Klar, das ganze ist ja auch eine PR Maßnahme der Firma um ihr eignes Tool zu promoten das genau das tut.

@mrtoto Angesichts der Anthropic-Firefox-News wird das Offensichtliche doch nur noch offensichtlicher.

Hätte irgendjemand einen Nicht-LLM-Weg gefunden, der so effizient Bugs findet, würden hier alle vor Freude ausrasten. Aber so: Grillenzirpen.

Das ist ne Art Massenpsychose in einer Untermenge von Tech-„Interessierten“, die so weird ist.