I added prompt caching to my Anthropic Batch API workflow. The hit rate was 0%.

Each model has a minimum cacheable token count — 4,096 for Haiku 4.5. If your cache_control block is below that, the API silently ignores it. Successful response, zero cache reads, no warning.

My IAB taxonomy prompt was 1,064 tokens. Well under the threshold.

Full write-up:

https://mikenoe.com/posts/prompt-caching-classivore/

#AnthropicAPI #LLM #PromptCaching #AIEngineering

OpenClaw이 Anthropic의 Claude CLI 재사용을 다시 허용했다. OpenClaw는 Anthropic API 키와 Claude CLI를 함께 지원하며 기존 토큰 프로필을 유지한다. Claude 4.6은 기본 adaptive thinking 적용( /think로 재정의 가능). /fast는 직접 api.anthropic.com 요청에만 service_tier를 주입. prompt caching(short/long/none)과 1M 컨텍스트(베타, 명시 활성화 및 특정 인증 필요)도 지원. Claude CLI 백엔드는 새 정책 발표 전까지 허용되며 인증·쿨다운·오류 대응 문서가 제공된다.

https://news.hada.io/topic?id=28761

#anthropic #openclaw #claude #promptcaching #longcontext

Anthropic - OpenClaw : 다시 사용 가능해짐

Anthropic 담당자가 OpenClaw 스타일의 Claude CLI 사용이 다시 허용된다고 통보함 Anthropic API 키와 Claude CLI 재사용을 함께 지원하며, 기존 Anthropic 토큰 프로필도 실행 시 계속 인정됨 Claude CLI 백엔드는 다시 허용된 통합 방식으로 처리되며, 새 정책 발표 전까지 claude -p 사용도 허용 대상 Claude 4.6 모델은 명시적...

GeekNews

OPENAI API EMBRACES "PROMPT CACHING"

OpenAI API prompt caching, starting March 22, 2026, helps AI applications save money and time by reusing prompt tokens. Learn how it works.

#OpenAIAPI, #PromptCaching, #AITechnology, #LLM, #TechNews

https://newsletter.tf/openai-api-prompt-caching-saves-money-time/

OpenAI API's new prompt caching feature can save users money and time. This is because it reuses parts of prompts, like saving common phrases.

#OpenAIAPI, #PromptCaching, #AITechnology, #LLM, #TechNews
https://newsletter.tf/openai-api-prompt-caching-saves-money-time/

OpenAI API prompt caching saves money and time from March 22, 2026

OpenAI API prompt caching, starting March 22, 2026, helps AI applications save money and time by reusing prompt tokens. Learn how it works.

NewsletterTF

Prompt-caching – auto-injects Anthropic cache breakpoints (90% token savings)

https://prompt-caching.ai/

#HackerNews #PromptCaching #AutoInject #Anthropic #TokenSavings #CacheBreakpoints

prompt-caching — Cut Claude Code Token Costs by 90% Automatically

Open source MCP plugin that automatically injects prompt cache breakpoints into Claude Code sessions. Up to 90% token cost reduction — zero config.

prompt-caching

Alex Albert (@alexalbert__)

API에 자동 프롬프트 캐싱(automatic prompt caching) 기능을 추가했다는 공지입니다. 이제 개발자는 요청마다 캐시 포인트를 수동으로 설정할 필요가 없어져 개발 편의성이 크게 개선되고, 응답 재사용으로 성능·비용 측면의 이점이 기대됩니다.

https://x.com/alexalbert__/status/2024586006633271386

#api #promptcaching #developertools #ai

Alex Albert (@alexalbert__) on X

Huge quality of life upgrade for devs: We've added automatic prompt caching to the API which means you no longer have to set cache points in your requests!

X (formerly Twitter)
OpenAI spills technical details about how its AI coding agent works

Unusually detailed post explains how OpenAI handles the Codex agent loop.

Ars Technica

[OpenAI Codex CLI 내부 동작 분석: 에이전트 루프와 프롬프트 캐싱 전략

OpenAI의 Codex CLI 내부 동작 분석 아티클이 공개되었습니다. 에이전트 루프(Agent Loop)의 구조, 프롬프트 구성 및 Responses API의 데이터 흐름, 성능 최적화 전략(프롬프트 캐싱, 대화 압축, 무상태 설계) 등을 심층적으로 다룹니다.

https://news.hada.io/topic?id=26089

#openai #codex #agentloop #promptcaching #zdr

OpenAI Codex CLI 내부 동작 분석: 에이전트 루프와 프롬프트 캐싱 전략

<p>요약:</p> <ul> <li> <strong>에이전트 루프(Agent Loop)의 구조</strong>: Codex CLI가 사용자 입력, 모델 추론, 도구(Tool) 실행을 조율하여 ...

GeekNews
Strands AgentsでClaudeモデルのプロンプトキャッシュを使う方法 - Qiita

Bedrockはプロンプトキャッシュに対応しています。 2025年9月のアップデートでこのプロンプトキャッシュが使いやすくなり、「とりあえずメッセージの最後にキャッシュポイントを追加したらOK」的な感じになりました。 制限事項もあるので詳細はドキュメントを見...

Qiita
Oh look, another genius idea from the depths of corporate innovation 🤔: cut costs with 'prompt caching' and save those precious LLM tokens 💰. Because clearly, the problem is not the convoluted explanations but *how* to make them cheaper in bulk. As if slapping a price tag on incomprehensibility is the ultimate solution 🎉.
https://ngrok.com/blog/prompt-caching/ #corporateinnovation #promptcaching #costcutting #LLMtokens #techsatire #businessstrategy #HackerNews #ngated
Prompt caching: 10x cheaper LLM tokens, but how? | ngrok blog

A far more detailed explanation of prompt caching than anyone asked for.

ngrok blog