Thomas Friedman vond de zorgvuldig gecontroleerde publicatie van de Claude Mythos Preview door Anthropic en zijn technische partners belangrijker dan de ontwikkelingen in Iran.

'The good news is that Anthropic discovered in the process of developing Claude Mythos that the A.I. could not only write software code more easily and with greater complexity than any model currently available, but as a byproduct of that capability, it could also find vulnerabilities in virtually all of the world’s most popular software systems more easily than before.

The bad news is that if this tool falls into the hands of bad actors, they could hack pretty much every major software system in the world, including all those made by the companies in the consortium.'

https://www.nytimes.com/2026/04/07/opinion/anthropic-ai-claude-mythos.html

Opinion | Anthropic’s Restraint Is a Terrifying Warning Sign

The rapid advance of artificial intelligence is happening now.

The New York Times
@EricChrSmit Het is verbazend op hoeveel verschillende manieren de rusteloze mensheid de aarde en zichzelf in gevaar blijft brengen: AI, klimaatrampen, oorlogen, ziekteverwekking, industriële overdaad, et cetera. Men lijkt zo snel mogelijk naar de afgrond te willen.
@EricChrSmit
Code schrijven "with greater complexity" is geen verbetering, het is vooral een manier om veel sneller technsche schuld op te bouwen.

@EricChrSmit Bestaande modellen zijn ook best goed in het vinden van kwetsbaarheden.

Deze spin doet Anthropic keer op keer en is waarschijnlijk een poging om LLMs te reguleren, om de positie van grote AI bedrijven in te graven (Anthropic, OpenAI, Google, etc.) en alternatieven uit te sluiten ('regulatory capture').

Het feit is dat open modellen als DeepSeek slechts 3-6 maanden achterlopen zint ze niet.

Slecht dat NYT voor dit narratief valt.

@EricChrSmit (desalniettemin zullen er veel nieuwe kwetsbaarheden gevonden worden, maar die trend is al een tijdje bezig)

@EricChrSmit Ik denk -conservatief geschat- dat 99.9999% van de bugs waardeloos is vanuit het oogpunt van een bad actor. Je hebt een hele specifieke bug op precies de juist plek nodig, die op exact de juiste manier te misbruiken valt om ergens toegang toe te krijgen. Één byte naar links of rechts en je hebt er niets aan.

Jammer dat een krant als de NYT valt voor het domdenken van iemand die de materie niet begrijpt.

@EricChrSmit We hoeven Anthrophic en andere AI bedrijven niet altijd op hun woord te geloven.

Anthropic moet elk jaar miljarden moeten ophalen aan nieuwe investeringen omdat ze massief verliesgevend zijn. Ze zijn niet vies van een beetje hype, en dat maakt ze een onbetrouwbare bron.

Het zou zo fijn zijn als persberichten van AI bedrijven met iets meer scepsis worden ontvangen.

@jasper eens hoor. Kritisch kijken is altijd goed