Zahlen, die weh tun (oder überraschen):
OpenRouter Hunter Alpha & Healer Alpha: Zwei kostenlose Stealth-Models für Agenten-Entwickler
https://agentenlog.de/posts/2026-03-17-openrouter-hunter-healer-alpha-stealth-models
#Agentenlog #KIAgenten #OpenRouter #KIModelle
Agentenlog – KI-News + Praxis + Deep Dives

Wie KI‑Agenten wirklich funktionieren — News + Praxis + Deep Dives. Mehr als nur News: Tutorials, Analysen und Eindrücke aus der Agenten-Welt.

Agentenlog

KI im Cyberkonflikt: Warum Verteidiger die Nase vorn haben

KI begünstigt die Verteidigung systematisch stärker als den Angriff – und dieser Vorsprung wächst, je bedeutsamer die Ziele werden.

https://www.all-about-security.de/ki-im-cyberkonflikt-warum-verteidiger-die-nase-vorn-haben/

#ki #cyber #cybersecurity #LLM #kimodelle

Täuschung und Erkennung im Cyberkonflikt: Eine Analyse

Erfahren Sie, warum KI im Cyberkonflikt Vorteile für die Verteidigung bietet. Täuschung und Erkennung spielen eine Schlüsselrolle.

All About Security Das Online-Magazin zu Cybersecurity (Cybersicherheit). Ransomware, Phishing, IT-Sicherheit, Netzwerksicherheit, KI, Threats, DDoS, Identity & Access, Plattformsicherheit

Böswillige KI-Nutzung erkennen und verhindern: Anthropics neuer Bedrohungsbericht mit Fallstudien

Der aktuelle Bedrohungsbericht fasst die wichtigsten Erkenntnisse zusammen – und zeigt, wie komplex solche Operationen in der Praxis aufgebaut sind.

https://www.all-about-security.de/boeswillige-ki-nutzung-erkennen-und-verhindern-anthropics-neuer-bedrohungsbericht-mit-fallstudien/

#anthropic #kimodelle

Böswillige KI-Nutzung erkennen und verhindern: Anthropics neuer Bedrohungsbericht mit Fallstudien

Wie missbrauchen Bedrohungsakteure KI-Modelle? Anthropics aktueller Bericht liefert Fallstudien und Erkenntnisse aus zwei Jahren Threat Intelligence.

All About Security Das Online-Magazin zu Cybersecurity (Cybersicherheit). Ransomware, Phishing, IT-Sicherheit, Netzwerksicherheit, KI, Threats, DDoS, Identity & Access, Plattformsicherheit
#KIs greifen gerne zur #nuklear|en Option, wenn sie denn könnten: In einer #Studie wählten führende #KIModelle in geopolitischen #Kriegssimulationen überraschend häufig extreme Maßnahmen.

KI-Modelle in Nuklearkrisen-Simulationen: Eskalation statt Diplomatie

Eskalation als Standardreaktion

Das Modell zeigte eine Bereitschaft zu Erstschlägen, wenn es beim Gegenüber eine Schwachstelle wahrnahm – ein Verhalten, das jeden Studenten der Nuklearstrategie aufhorchen lassen würde.

https://www.all-about-security.de/ki-modelle-in-nuklearkrisen-simulationen-eskalation-statt-diplomatie/

#kimodelle #cyberwar #Anthropic #OpenAI #gemini

KI-Modelle in Nuklearkrisen-Simulationen: Eskalation statt Diplomatie

Studie des King's College zeigt: Aktuelle KI-Modelle neigen in Krisenszenarien zu Eskalation – mit Konsequenzen für nationale Sicherheitsentscheidungen.

All About Security Das Online-Magazin zu Cybersecurity (Cybersicherheit). Ransomware, Phishing, IT-Sicherheit, Netzwerksicherheit, KI, Threats, DDoS, Identity & Access, Plattformsicherheit
#China|s #OpenSource #KIs überholen den Westen: Chinesische #OpenWeight #KIModelle wie #DeepSeek und #Qwen verbreiten sich rasant und bieten nahezu #Spitzenleistung zu deutlich niedrigeren #Kosten.

Tux Flash: Lokale KI-Modelle, Nextcloud, Cosmic-Desktop, i3, Vosk-Transcriber, Chemnitzer Linux-Tage

https://tube.tchncs.de/w/rDkCG463MCxKK29CZyawib

Tux Flash: Lokale KI-Modelle, Nextcloud, Cosmic-Desktop, i3, Vosk-Transcriber, Chemnitzer Linux-Tage

PeerTube

Einfache Trainingsabfrage hebelt Sicherheit von 15 KI-Modellen aus

Ein Forschungsteam von Microsoft Azure unter Leitung von CTO Mark Russinovich hat eine Schwachstelle in der Sicherheitsarchitektur großer Sprachmodelle dokumentiert.

https://www.all-about-security.de/einfache-trainingsabfrage-hebelt-sicherheit-von-15-ki-modellen-aus/

#microsoft #microsoftazure #ki #kimodelle #LLM

LLM-Sicherheit unter Druck: Eine gefährliche Trainingsabfrage

Eine einzige Trainingsanweisung kann Sicherheitsmechanismen von LLMs umgehen. Erfahren Sie mehr über diese Entdeckung von Microsoft.

All About Security Das Online-Magazin zu Cybersecurity (Cybersicherheit). Ransomware, Phishing, IT-Sicherheit, Netzwerksicherheit, KI, Threats, DDoS, Identity & Access, Plattformsicherheit

Forscher testen KI-Sicherheitsprüfungen: Können manipulierte Sprachmodelle erkannt werden?

Können aktuelle Sicherheitsprüfungen erkennen, wenn KI-Modelle absichtlich fehlerhafte Ergebnisse liefern?

https://www.all-about-security.de/forscher-testen-ki-sicherheitspruefungen-koennen-manipulierte-sprachmodelle-erkannt-werden/

#claude #Anthropic #kimodelle #ki

Forscher testen KI-Sicherheitsprüfungen: Können manipulierte Sprachmodelle erkannt werden?

Anthropic-Studie zeigt: Vorbereitungsprüfungen identifizieren sabotierende KI-Modelle. Mensch-Maschine-Team deckt manipulierte Systeme auf.

All About Security Das Online-Magazin zu Cybersecurity (Cybersicherheit). Ransomware, Phishing, IT-Sicherheit, Netzwerksicherheit, KI, Threats, DDoS, Identity & Access, Plattformsicherheit
Studie: #KIModelle scheitern an echten Arbeitsaufgaben - Golem.de
Studie: #KI Modelle scheitern an echten Arbeitsaufgaben - Golem.de https://share.google/SSoFhh8vUX0qk3Ec6
Studie: KI-Modelle scheitern an echten Arbeitsaufgaben - Golem.de

Eine neue Studie zeigt: Führende KI-Systeme können reale Arbeitsprojekte nicht selbständig bewältigen.

Golem.de