⚠️ Tin bảo mật AI: Chỉ 3 dòng mã có thể hack ứng dụng Vercel AI của bạn! 😱 Kẻ tấn công có thể chiếm quyền chatbot qua prompt injection (VD: lệnh "Bỏ qua hướng dẫn trước") gây:
- Rò rỉ prompt nội bộ
- Bỏ qua ràng buộc bảo mật
- Chiếm quyền kiểm soát hành động
🔒 Khắc phục NGAY:
1️⃣ Dùng `sanitizePrompt(userInput)`
2️⃣ Cài eslint-plugin-vercel-ai-security để tự động cảnh báo lỗi
Tránh: Hệ thống không xác thực input người dùng, chạy mã không kiểm soát!