Wenn KI-Detektoren versagen: Code-Verschleierung entlarvt Schwächen großer Sprachmodelle

Wie robust sind LLMs gegen Code-Verschleierung? Eine systematische Studie
Anders als klassische Analysewerkzeuge, die auf symbolischer Programmausführung basieren, verlassen sich Sprachmodelle stark auf statistische Muster in Variablennamen, Codestruktur und Formatierung. Diese Abhängigkeit macht sie anfällig: Selbst simple Umbenennungen oder irreführende Kommentare können Modelle irritieren, die oberflächliche Signale höher gewichten als tiefgreifende strukturelle Analyse.