curl.md – URL to Markdown for Agents

curl.md는 웹사이트 URL을 에이전트가 효율적으로 활용할 수 있도록 토큰 사용을 최적화한 마크다운 형식으로 변환해 주는 도구입니다. 브라우저, CLI, API, SDK 등 다양한 방식으로 사용할 수 있으며, Amp, Claude, OpenCode, Pi 등 주요 코딩 에이전트와 공식 통합을 지원합니다. 무료로 제공되며, GitHub에 MIT 라이선스 하에 오픈소스로 공개되어 있어 누구나 사용 및 기여가 가능합니다.

https://curl.md/

#url #markdown #agent #tokenoptimization #opensource

curl.md

Turn websites into optimized markdown for coding agents.

Show HN: Mex – persistent memory for AI coding agents (~60% token reduction)

Mex는 AI 코딩 에이전트를 위한 지속적 메모리 솔루션으로, 토큰 사용량을 약 60% 줄여 효율적인 메모리 관리와 비용 절감을 가능하게 한다. 이는 AI 에이전트가 이전 대화나 코드 상태를 더 효과적으로 기억하고 활용할 수 있게 하여, LLM 기반 개발 작업의 생산성을 높인다. 개발자들이 AI 코딩 에이전트의 성능 최적화에 즉시 활용할 수 있는 도구로 주목받고 있다.

https://news.ycombinator.com/item?id=48048713

#ai #codingagents #persistentmemory #tokenoptimization #llm

Show HN: Mex – persistent memory for AI coding agents (~60% token reduction) | Hacker News

Every MCP server you enable injects its tools into every AI request, even if you never use it. I measured it (even though I'm careful not to mess things up, but sometimes I forget): 4 servers = 163 tools = ~$515/month wasted on coding sessions.

I created LeanProxy to fix this, reduces that by 99% with on-demand loading. It's an evolution of Nexus-Dev I made before, optimized further by removing the memory part that isn't always needed with an MCP proxy.

Full analysis with real data: https://blog.mornati.net/the-hidden-tax-on-every-ai-request-how-mcp-servers-are-draining-your-token-budget

Check out LeanProxy: https://github.com/mmornati/leanproxy-mcp

#MCP #AI #TokenOptimization #LeanProxy #Developer

DeepReinforce (@deep_reinforce)

claw-code를 기반으로 AI가 토큰 사용을 더 효율적으로 만들도록 반복 개선한 결과, 품질 저하 없이 최대 70%까지 토큰 절감이 가능해졌다고 주장한다. AI 코드 생성/에이전트의 비용 효율을 크게 높일 수 있는 최적화 사례다.

https://x.com/deep_reinforce/status/2039761929179476330

#tokenoptimization #aicode #efficiency #agent #codegeneration

DeepReinforce (@deep_reinforce) on X

try: Tokenless-claw-code: Started with claw-code 🦞Asked AI 📷 to keep making it more token-efficient 📷, up to 70% token savings and no drop in quality.

X (formerly Twitter)

🕐 2026-03-27 12:00 UTC

📰 【消費トークン1/12】コーディングエージェントにRAGは罠だった。「検索」ではなく「コンパイル」するDAGツールを作った話 (👍 48)

🇬🇧 RAG wastes tokens in coding agents. Built a DAG tool that 'compiles' docs instead of searching, reducing token usage to 1/12th.
🇰🇷 코딩 에이전트에서 RAG는 토큰 낭비. 검색 대신 문서를 '컴파일'하는 DAG 도구로 토큰 사용량 1/12로 감소.

🔗 https://zenn.dev/yumemi_inc/articles/a61de3467bc182

#CodingAgent #RAG #TokenOptimization #Zenn

【消費トークン1/12】コーディングエージェントにRAGは罠だった。「検索」ではなく「コンパイル」するDAGツールを作った話

Zenn

[진짜 내 일을 위한 Agentic Workflow

Lablup의 신정규 대표가 Backend.AI:GO 개발 경험을 공유하며, 에이전트 코딩 시대의 핵심 과제와 철학적 차이를 분석했습니다. 토큰 사용량 최적화, harness의 중요성, 자동화의 핵심, 그리고 스타트업의 기회에 대해 논의했습니다.

https://news.hada.io/topic?id=27513

#agenticworkflow #aicoding #tokenoptimization #startupopportunity #automation

진짜 내 일을 위한 Agentic Workflow | GeekNews

Lablup의 신정규 대표가 Backend.AI:GO 를 40일간 개발하며 약 100만 줄의 코드를 130억 토큰으로 생성한 경험을 공유에이전트 코딩 시대에는 토큰 사용량이 IT 기업의 경쟁력과 직결되며, 고속 inference와 thinking 토큰 최적화가 핵심 과제Claude Code의 진짜 경쟁력은 모델이 아닌 harness(모델을 결정론적으로 제어

GeekNews

AT&T slashes AI orchestration costs by 90% after processing 8 billion tokens a day. Their new LLM architecture and tool‑orchestration layer let agents act faster while cutting token waste. See how the “Ask AT&T” platform is shaping enterprise‑AI and agentic AI at scale. #AIAgents #ToolOrchestration #ATTCuts #TokenOptimization

🔗 https://aidailypost.com/news/att-cuts-ai-orchestration-costs-90-after-handling-8-b-tokens-daily

Công cụ Headroom giảm 60-90% token cho agent bằng nén thông minh đầu ra công cụ (tìm kiếm, API...). Đạt 1.300+ lượt tải trong 1 tuần. Cập nhật CCR: nén đảo ngược được nhờ cache & truy xuất khi cần; thêm bộ nhớ tạm thời, lưu thông tin quan trọng, giảm tải context. Tương thích LocalLLM, llama.cpp, Ollama. #AI #Agent #LLM #Headroom #TokenOptimization #AI #Đại_trí_tuệ #Agent_ai #Tối_ưu_hóa_token

https://www.reddit.com/r/LocalLLaMA/comments/1qkgl28/we_hit_1300_downloads_in_a_week_with_our_tool/

TOONIFY: Thư viện chuyển đổi JSON, YAML, XML, CSV sang định dạng TOON – giảm 30-60% token khi truyền dữ liệu đến LLM. Viết bằng Rust, hỗ trợ CLI tool, kiểm tra lỗi và tính toán token. Phù hợp: truyền dữ liệu tới LLM, pipeline, tập dữ liệu lớn. Tác giả: AndreaIannoli. #TOONIFY #MạngLọcDữLiệu #AI #OpenSource #TokenOptimization #LậpTrìnhViên

Hashtags: #TOONIFY #OpenSource #AI #TokenOptimization #DataScience #SoftwareDevelopment #LậpTrìnhViên #MạngLọcDữLiệu

https://www.reddit.com/r/LocalLLaMA/co

Tối ưu hóa token thực sự không phải là mỗi cuộc trò chuyện, mà là ở lớp nhớ. Tiết kiệm token không phải bằng nhớ nhiều hơn trong 1 cuộc trò chuyện, mà bằng nhớ thông minh hơn trong tất cả tương tác #TokenOptimization #LLM #AI #TríTuệNhânTạo #TốiuHóatoken #HệThốngNhớ

https://www.reddit.com/r/LocalLLaMA/comments/1olynzf/the_real_token_optimization_isnt_per_chat_its_in/