Thomas Friedman vond de zorgvuldig gecontroleerde publicatie van de Claude Mythos Preview door Anthropic en zijn technische partners belangrijker dan de ontwikkelingen in Iran.

'The good news is that Anthropic discovered in the process of developing Claude Mythos that the A.I. could not only write software code more easily and with greater complexity than any model currently available, but as a byproduct of that capability, it could also find vulnerabilities in virtually all of the world’s most popular software systems more easily than before.

The bad news is that if this tool falls into the hands of bad actors, they could hack pretty much every major software system in the world, including all those made by the companies in the consortium.'

https://www.nytimes.com/2026/04/07/opinion/anthropic-ai-claude-mythos.html

Opinion | Anthropic’s Restraint Is a Terrifying Warning Sign

The rapid advance of artificial intelligence is happening now.

The New York Times

@EricChrSmit Bestaande modellen zijn ook best goed in het vinden van kwetsbaarheden.

Deze spin doet Anthropic keer op keer en is waarschijnlijk een poging om LLMs te reguleren, om de positie van grote AI bedrijven in te graven (Anthropic, OpenAI, Google, etc.) en alternatieven uit te sluiten ('regulatory capture').

Het feit is dat open modellen als DeepSeek slechts 3-6 maanden achterlopen zint ze niet.

Slecht dat NYT voor dit narratief valt.

@EricChrSmit (desalniettemin zullen er veel nieuwe kwetsbaarheden gevonden worden, maar die trend is al een tijdje bezig)