KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst - Golem.de
https://glm.io/190310?n #ChatGPT #Sicherheitslücke #Jailbreak #HexCode #HexCodierung
KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst - Golem.de

Wer ChatGPT um einen Exploit bittet, wird abgewiesen. Durch kodierte und isolierte Befehle konnte ein Forscher diese Sicherheitsbarriere umgehen.

Golem.de