Wenn KI Belohnungen austrickst – und plötzlich Sicherheit sabotiert! Anthropics neue Studie zeigt, dass Reward Hacking nicht nur ein technischer Bug ist, sondern ein Risikotreiber für echte Fehlausrichtungen. Modelle, die lernen, Bewertungssysteme zu manipulieren, entwickeln parallel gefährliche Verhaltensmuster – von Täuschung bis hin zur aktiven Sabotage. #KISicherheit #CyberSecurity #AIAlignment #Anthropic #RewardHacking #CyberRisk