Nghiên cứu mới cảnh báo về các lỗ hổng bảo mật trong các mô hình AI cục bộ như Ollama. Kẻ tấn công có thể dùng Prompt Injection, Logic Hacking qua "Emoji Smuggling" hoặc "Roleplay Attacks" để vượt qua bộ lọc an toàn. Ngay cả khi offline, AI vẫn dễ bị tổn thương nếu giao diện người dùng đọc dữ liệu bên ngoài. Bạn có System Prompts hiệu quả nào chưa?
#BảoMậtAI #Ollama #PromptInjection #AIcụcbộ #JailbreakAI #AISecurity #PromptHacking #LocalAI