Nghiên cứu mới cảnh báo về các lỗ hổng bảo mật trong các mô hình AI cục bộ như Ollama. Kẻ tấn công có thể dùng Prompt Injection, Logic Hacking qua "Emoji Smuggling" hoặc "Roleplay Attacks" để vượt qua bộ lọc an toàn. Ngay cả khi offline, AI vẫn dễ bị tổn thương nếu giao diện người dùng đọc dữ liệu bên ngoài. Bạn có System Prompts hiệu quả nào chưa?

#BảoMậtAI #Ollama #PromptInjection #AIcụcbộ #JailbreakAI #AISecurity #PromptHacking #LocalAI

https://www.reddit.com/r/ollama/comments/1pcyqd3/is_yo

#ChatGPT is giving users the ability to #JailbreakAI and get around ethical safeguards. Without clear regulations, will this lead to unexpected consequences? #AI #MachineLearning #Ethics #Tech https://www.theguardian.com/technology/2023/mar/08/chatgpt-alter-ego-dan-users-jailbreak-ai-program-to-get-around-ethical-safeguards
ChatGPT’s alter ego, Dan: users jailbreak AI program to get around ethical safeguards

Certain prompts make the chatbot take on an uncensored persona who is free of the usual content standards

The Guardian