Wie robust sind LLMs gegen Code-Verschleierung? Eine systematische Studie

Anders als klassische Analysewerkzeuge, die auf symbolischer Programmausführung basieren, verlassen sich Sprachmodelle stark auf statistische Muster in Variablennamen, Codestruktur und Formatierung. Diese Abhängigkeit macht sie anfällig: Selbst simple Umbenennungen oder irreführende Kommentare können Modelle irritieren, die oberflächliche Signale höher gewichten als tiefgreifende strukturelle Analyse.

All About Security Das Online-Magazin zu Cybersecurity (Cybersicherheit). Ransomware, Phishing, IT-Sicherheit, Netzwerksicherheit, KI, Threats, DDoS, Identity & Access, Plattformsicherheit
Das machen Menschen besser: Studie zeigt Grenzen von Coding-Agenten

Kann es künstliche Intelligenz inzwischen mit Entwicklerinnen und Entwicklern aufnehmen? Noch nicht, sagt eine neue Studie und zeigt, was besser laufen könnte.

heise online