Leichte Angreifbarkeit von Roboter-LLMs

Forscher haben gezeigt, dass Sprachmodelle in Robotern durch Jailbreaks manipulierbar sind, was potenziell gefährliche Konsequenzen mit sich bringt. Trotz dieser Risiken empfehlen sie, weiterhin auf KI in der Robotik zu setzen, allerdings mit verbesserten Schutzmechanismen.

Da ist Vorsicht geboten.

#KI #Robotik #Technologie #Nvidia #Unitree #Clearpath

https://t3n.de/news/forscher-zeigen-llms-roboter-jailbreak-missbrauch-1659765/

Forscher zeigen: So einfach lassen sich LLMs in Robotern mit einem Jailbreak missbrauchen

Damit Roboter in dieser Welt navigieren, Gefahren einschätzen und Regeln einhalten können, braucht es große Sp

t3n Magazin