Was just checking out some tvix talks, the tvix-store is certainly attractive with even the replit blog mentioning about 90% storage reduction in cache storage. Even devenv switched to tvix.

But I couldn't see any docs on how can I start using it in my nixos or atleast for nix shells, etc

Am I missing out something or any views on this would help me
#nix #tvix #cache #devenv #replit

LAWS: A new transform operation turning LLM inference into cheap cache lookups

LAWS는 실제 작업 부하에서 학습하는 자기 검증형 파라미터화된 캐시 아키텍처로, 신경망 추론, 로보틱스, 엣지 컴퓨팅에 적용된다. 이 아키텍처는 입력 공간을 확장하는 전문가 함수 라이브러리를 구축하며, 추론 오차를 배포 시점에 검증 가능하게 한다. LAWS는 기존 Mixture-of-Experts와 키-값 캐시 기법을 일반화하며, 더 높은 표현력을 가진다. 또한, 작업 부하 엔트로피에 따른 전문가 라이브러리 성장, 다중 유닛 학습 가속, OTA 업데이트 대역폭 제한 등 다양한 이론적 결과를 제시한다. LLM 추론과 로봇 제어, 다중 에이전트 엣지 배포에 유망한 새로운 접근법이다.

https://arxiv.org/abs/2605.04069

#llm #cache #inference #robotics #edgecomputing

LAWS: Learning from Actual Workloads Symbolically -- A Self-Certifying Parametrized Cache Architecture for Neural Inference, Robotics, and Edge Deployment

We introduce LAWS (Learning from Actual Workloads Symbolically), a self-certifying inference caching architecture that builds a growing library of certified expert functions from deployment observations. Each expert covers a region of input space defined by a node in the Probabilistic Language Trie (PLT) of the base model and carries a formal error bound holding uniformly over all inputs. The central result is a self-certification theorem: for any input x, the LAWS approximation error is bounded by epsilon_fit + 2*Lambda(W)*C_E, where Lambda(W) is the model Lipschitz constant, C_E is the maximum embedding diameter, and epsilon_fit is the expert training error -- all checkable at deployment time without ground truth. We prove that LAWS generalizes both Mixture-of-Experts and KV prefix caching as special cases and is strictly more expressive than any fixed-K MoE or finite cache. Further results include a monotone hit rate theorem (any-match routing ensures coverage only increases), an expert library growth rate of O(2^H log N) where H is workload entropy, a fleet learning convergence theorem with Omega(K) speedup for K-unit fleets, and an over-the-air update bandwidth bound. We conjecture that LAWS is acquisition-optimal among stationary online caching algorithms and that the effective Lipschitz constant on the training distribution grows polynomially rather than exponentially in depth. Applications are developed for LLM inference, robotic control, and multi-agent edge deployment.

arXiv.org
【Next.js App Router】キャッシュ機構について - Qiita

本記事は TypeScript + Next.js 学習リポジトリ の実装をベースに、Next.js App Router の キャッシュ機構 を体系的に解説します。 はじめに Next.js は「速い」と評価されますが、その理由のひとつが 強力なキャッシュ機構 です...

Qiita

Чем хороша моя профессия: всегда есть чему научиться интересному. Например, всегда знал про proxy_cache в nginx, но никогда не замечал proxy_store. А разница существенная! Если первый - временное хранилище в собственном формате, то второе - хранение полученного 1-в-1 без чисток. Идеально, чтобы простым конфигом сделать кеш реп любого нужного дистриба Linux и т.д. Сегодня на FreeBSD затестировал этот вариант и пакетили легли на локальный сервер для повторных запросов.

#nginx #freebsd #cache

⚡️Insider was right, Cache is BACK in Counter-Strike 2, the classic map with the Chernobyl NPP on the skyline.

The map got a visual facelift but kept the original layout and point logic, so de_cache veterans will adapt FAST and new players won't need long to learn it. Launch modes: Casual, Competitive, Deathmatch and Retakes; developers may tweak the mode list later.

#SteamAndEpic #Cache #CounterStrike #Competitive #Deathmatch #Chernobyl

🔥 Cache is coming back to Counter-Strike 2, Valve's clearly stoking the hype, SOON

New screenshots leaked from insider Thour, Valve swapped the banner and posted a cryptic "plans next week" hint. The map reportedly got a major visual overhaul plus technical fixes aimed at stability and performance; FACEIT already put Cache back into rotation after a player vote, and Valve previously bought the rights from Sean Snelling. Insider...

#SteamAndEpic #Cache #Valve #CounterStrike #Snelling #Insiders

Od pultu přes ZUR a PSY až k SEO a copy s ostrými hroty! Beránek bio

Komplexní profesní bio sondující cestu a vlivy formující SEO specialistu a copywritera Daniela Beránka. Rozpracovaný projekt, který průběžně doplňuji

SEO specialista a copywriter Daniel Beránek

Как я построил кеш страниц для многодоменного проекта с помощью PVC и кастомного подхода

У меня был проект, где один Next.js сайт обслуживал несколько доменов, и возникла задача — эффективно кешировать страницы, чтобы не пересоздавать их каждый раз. Сначала я попробовал внедрить кеширование через Redis: я написал хендлер, подключил его, но вскоре обнаружил, что Redis потребляет колоссальный объём оперативной памяти — порядка 100 ГБ, и это при том, что ещё не все запросы были закешированы. Тогда я решил поискать другой подход и обратил внимание на PVC — общее хранилище, которое могли бы использовать все поды. Я начал изучать варианты работы с PVC и довольно быстро пришёл к идее общего кеш‑хранилища для всех подов. Я попробовал просто писать данные в PVC, но столкнулся с проблемой: каждый раз, когда под поднимался, он перезаписывал кеш. До тех пор, пока не подняты все поды, данные постоянно перезаписывались, а мне нужно было, чтобы первый под записал данные, а последующие только читали их. Я начал искать, как сделать кастомный кеш‑хендлер, но готовых решений не нашёл.

https://habr.com/ru/articles/1028314/

#pvc #nextjs #redis #cache #next #node

Как я построил кеш страниц для многодоменного проекта с помощью PVC и кастомного подхода

У меня был проект, где один Next.js сайт обслуживал несколько доменов, и возникла задача - эффективно кешировать страницы, чтобы не пересоздавать их каждый раз. Сначала я попробовал внедрить...

Хабр
#Nix should be able to request that the #cache server's it's connected to - assuming it has permission - to compile and deliver packages if needed.

Kai AI (@kaiaitests)

오픈소스 모델 V4가 이제 K2.6의 자리를 대체할 수 있다고 언급하며, 툴 호출 안정성과 캐시 가격이 더 좋아졌다고 밝혔다. 이번 주 비교 데이터도 공개할 예정이라 오픈소스 LLM/도구 생태계에 중요한 업데이트로 보인다.

https://x.com/kaiaitests/status/2048207837483139453

#opensource #llm #toolcalling #cache #ai

Kai AI (@kaiaitests) on X

@bindureddy V4 should take the open source slot from K2.6 now. the tool calling reliability and cache pricing are both better. Posting comparison data this week

X (formerly Twitter)