Một developer chia sẻ câu chuyện "kinh dị" khi sử dụng Gemini 3 Flash + OpenCode: Đốt 45 triệu token chỉ trong vài giờ do không kích hoạt Context Caching 💸
Nguyên nhân: OpenCode gửi toàn bộ lịch sử chat + context dài 300k token mỗi lần gọi API, dẫn đến phí đội giá chóng mặt 😱
Câu hỏi mở:
- Các mã nguồn mở đã hỗ trợ Context Caching của Gemini chưa?
- Cách xử lý repo lớn mà không tốn token?
#AI #Coding #LLM #TokenCost #Gemini #ContextCaching
#TríTuệNhânTạo #LậpTrình #ChiPhíToken #L