Một developer chia sẻ câu chuyện "kinh dị" khi sử dụng Gemini 3 Flash + OpenCode: Đốt 45 triệu token chỉ trong vài giờ do không kích hoạt Context Caching 💸
Nguyên nhân: OpenCode gửi toàn bộ lịch sử chat + context dài 300k token mỗi lần gọi API, dẫn đến phí đội giá chóng mặt 😱

Câu hỏi mở:
- Các mã nguồn mở đã hỗ trợ Context Caching của Gemini chưa?
- Cách xử lý repo lớn mà không tốn token?

#AI #Coding #LLM #TokenCost #Gemini #ContextCaching
#TríTuệNhânTạo #LậpTrình #ChiPhíToken #L

[Phân tích AI] Thử nghiệm với Gemini 3 Flash & OpenCode tiêu tốn 44,45 triệu token chỉ trong vài giờ do không hỗ trợ Context Caching. Chi phí "đốt token" là do gửi toàn bộ ngữ cảnh + lịch sử chat mỗi lần. Liệu có công cụ nào đang tận dụng tính năng này của Google hiệu quả? #Gemini #AI #TokenCost #ContextCaching #MLOps #LocalLLM #PhátTriểnAI #CôngNghệMới

https://www.reddit.com/r/LocalLLaMA/comments/1qp6gss/the_cost_of_massive_context_burned_45m_gemini/