[진짜 내 일을 위한 Agentic Workflow
Lablup의 신정규 대표가 Backend.AI:GO 개발 경험을 공유하며, 에이전트 코딩 시대의 핵심 과제와 철학적 차이를 분석했습니다. 토큰 사용량 최적화, harness의 중요성, 자동화의 핵심, 그리고 스타트업의 기회에 대해 논의했습니다.
https://news.hada.io/topic?id=27513
#agenticworkflow #aicoding #tokenoptimization #startupopportunity #automation

진짜 내 일을 위한 Agentic Workflow | GeekNews
Lablup의 신정규 대표가 Backend.AI:GO 를 40일간 개발하며 약 100만 줄의 코드를 130억 토큰으로 생성한 경험을 공유에이전트 코딩 시대에는 토큰 사용량이 IT 기업의 경쟁력과 직결되며, 고속 inference와 thinking 토큰 최적화가 핵심 과제Claude Code의 진짜 경쟁력은 모델이 아닌 harness(모델을 결정론적으로 제어
GeekNewsAT&T slashes AI orchestration costs by 90% after processing 8 billion tokens a day. Their new LLM architecture and tool‑orchestration layer let agents act faster while cutting token waste. See how the “Ask AT&T” platform is shaping enterprise‑AI and agentic AI at scale. #AIAgents #ToolOrchestration #ATTCuts #TokenOptimization
🔗 https://aidailypost.com/news/att-cuts-ai-orchestration-costs-90-after-handling-8-b-tokens-daily
Công cụ Headroom giảm 60-90% token cho agent bằng nén thông minh đầu ra công cụ (tìm kiếm, API...). Đạt 1.300+ lượt tải trong 1 tuần. Cập nhật CCR: nén đảo ngược được nhờ cache & truy xuất khi cần; thêm bộ nhớ tạm thời, lưu thông tin quan trọng, giảm tải context. Tương thích LocalLLM, llama.cpp, Ollama. #AI #Agent #LLM #Headroom #TokenOptimization #AI #Đại_trí_tuệ #Agent_ai #Tối_ưu_hóa_token
https://www.reddit.com/r/LocalLLaMA/comments/1qkgl28/we_hit_1300_downloads_in_a_week_with_our_tool/
TOONIFY: Thư viện chuyển đổi JSON, YAML, XML, CSV sang định dạng TOON – giảm 30-60% token khi truyền dữ liệu đến LLM. Viết bằng Rust, hỗ trợ CLI tool, kiểm tra lỗi và tính toán token. Phù hợp: truyền dữ liệu tới LLM, pipeline, tập dữ liệu lớn. Tác giả: AndreaIannoli. #TOONIFY #MạngLọcDữLiệu #AI #OpenSource #TokenOptimization #LậpTrìnhViên
Hashtags: #TOONIFY #OpenSource #AI #TokenOptimization #DataScience #SoftwareDevelopment #LậpTrìnhViên #MạngLọcDữLiệu
https://www.reddit.com/r/LocalLLaMA/co
Tối ưu hóa token thực sự không phải là mỗi cuộc trò chuyện, mà là ở lớp nhớ. Tiết kiệm token không phải bằng nhớ nhiều hơn trong 1 cuộc trò chuyện, mà bằng nhớ thông minh hơn trong tất cả tương tác #TokenOptimization #LLM #AI #TríTuệNhânTạo #TốiuHóatoken #HệThốngNhớ
https://www.reddit.com/r/LocalLLaMA/comments/1olynzf/the_real_token_optimization_isnt_per_chat_its_in/
Gấp.reduce token waste trong AI lokal bằng cung cục context preso. Đề xuất cắt bớt repo toàn bộ/-poly convo về các từng phần cần thiết để tiết kiệm token, tăng hiệu suất và tiết ngân-prés. Tham khảo công cụ cá nhân: [GitHub link] (không thể paste URL). Tags: #AITuteur #GiamDoToBi #GiaoThietAI #TokenOptimization #AIEfficiency
https://www.reddit.com/r/LocalLLaMA/comments/1oa1j22/reducing_token_waste_in_local_ai_agents_concept/