How to Work and Compound with AI

이 글은 AI와 효과적으로 협업하고 작업을 점진적으로 개선하는 방법을 다룹니다. 핵심 원칙으로는 좋은 컨텍스트 제공, 개인화된 설정(취향) 구성, 검증 용이성 확보, 큰 작업 위임, 그리고 피드백 루프를 통한 지속적 개선이 제시됩니다. 특히 프로젝트별 문서화, 세션별 온보딩, 기억 계층 구축, 스킬화된 워크플로우 자동화, 그리고 오류를 조기에 발견하고 수정하는 검증 체계 구축 방법을 상세히 설명합니다. 이는 AI 모델과의 협업을 체계화하고 생산성을 극대화하는 실용적 가이드로, AI 개발자들이 자신의 작업 환경에 맞게 적용할 수 있습니다.

https://eugeneyan.com/writing/working-with-ai/

#aiproductivity #workflow #contextmanagement #verification #automation

How to Work and Compound with AI

Context as infra, taste as config, verification for autonomy, scale via delegation, closing the loop.

eugeneyan.com

LCM: Lossless Context Management

LCM(Lossless Context Management)은 장기 문맥 작업에서 Claude Code를 능가하는 결정론적 LLM 메모리 아키텍처입니다. LCM은 재귀적 문맥 압축과 작업 분할을 통해 모든 이전 상태를 손실 없이 보존하면서도 종료 보장과 단기 작업에서의 무비용 연속성을 제공합니다. 이 접근법은 기존 Recursive Language Models를 확장하며, 32K에서 1M 토큰 범위의 긴 문맥 평가에서 우수한 성능을 입증했습니다. LCM은 복잡한 재귀 제어 흐름을 엔진 관리 구조로 대체하여 AI 에이전트의 메모리 관리와 장기 문맥 처리에 혁신적 기여를 합니다.

https://arxiv.org/abs/2605.04050

#llm #contextmanagement #recursion #longcontext #aiagent

LCM: Lossless Context Management

We introduce Lossless Context Management (LCM), a deterministic architecture for LLM memory that outperforms Claude Code on long-context tasks. When benchmarked using Opus 4.6, our LCM-augmented coding agent, Volt, achieves higher scores than Claude Code on the OOLONG long-context eval, including at every context length between 32K and 1M tokens. LCM may be considered both a vindication and extension of the recursive paradigm pioneered by Recursive Language Models (RLMs). Our results demonstrate that recursive context manipulation can outperform not just conventional LLMs, but frontier coding agents with native file-system access. LCM departs from RLM by decomposing symbolic recursion into two deterministic, engine-managed mechanisms: recursive context compression, in which a hierarchical summary DAG automatically compacts older messages while retaining lossless pointers to every original; and recursive task partitioning, in which engine-managed parallel primitives like LLM-Map replace model-written loops. This trade-off, analogous to the move from GOTO to structured control flow in program-ming language design, sacrifices maximal flexibility for termination guarantees, zero-cost continuity on short tasks, and lossless retrievability of all prior state.

arXiv.org

Ctx – Do you remember? Persistent context for AI coding tools
Ctx는 AI 코딩 도구를 위한 지속적 컨텍스트 관리 시스템으로, 프로젝트의 문맥을 세션 간에 유지하고 재구성할 수 있게 해준다. 이는 AI 개발 도구들이 매번 초기 상태에서 시작하는 문제를 해결하며, 작업, 결정, 학습 내용을 영속적으로 저장하여 개발 효율성을 높인다. 파일 기반으로 동작하며 특정 모델이나 벤더에 종속되지 않아 다양한 AI 도구와 호환된다. 개발자들이 AI와의 협업에서 기억과 맥락을 유지할 수 있도록 설계된 인프라스트럭처이다.

https://github.com/ActiveMemory/ctx

#ai #contextmanagement #developertools #workflow #memorysystem

GitHub - ActiveMemory/ctx: ctx: do you remember? — a single-binary, local-first, convergent memory system for humans and machines.

ctx: do you remember? — a single-binary, local-first, convergent memory system for humans and machines. - ActiveMemory/ctx

GitHub

Show HN: ContextWizard – AI context manager with undo and drag-drop
ContextWizard는 웹 콘텐츠와 ChatGPT, Claude, Gemini 등 AI 플랫폼 간의 연결을 돕는 브라우저 확장 프로그램이다. 주요 기능으로는 광고나 내비게이션을 제거한 스마트 컨텍스트 복사, 드래그 앤 드롭 북마크 관리자와 실행 취소 기능, 프롬프트 편집기, 종단 간 암호화 백업 및 동기화, 12개 언어 지원 등이 있다. 최근 버전 1.2.0에서는 북마크 관리자 기능이 크게 개선되었다.

https://chromewebstore.google.com/

#browserextension #aiplatform #productivity #contextmanagement

Before you continue

The Hidden Challenge of Multi-LLM Context Management

Why token counting isn't a solved problem when building across providers Building AI...

DEV Community

Cory House has a Full-Day Hands-On Workshop July 22nd at Nebraska.Code().

Learn more about 'Coding Effectively with AI' here:

https://nebraskacode.amegala.com/

#Editor #CLI #AIModels #ConfigTechniques #Outputs #MCPServers #AI #CodeReviewWorkflows #ContextManagement #CoryHouse #PromptingTechniques #TechWorkshop #ArtificialIntelligence #Tech

lucas (@lucas_flatwhite)

Claude에서 컨텍스트를 효과적으로 관리하는 방법을 소개한다. 대화 시작 시 역할을 먼저 설정하는 등, 긴 대화에서도 모델의 응답 품질과 일관성을 높이기 위한 실전 프롬프트/컨텍스트 운영 팁을 담고 있다.

https://x.com/lucas_flatwhite/status/2045430129321754676

#claude #prompting #contextmanagement #llm #productivity

lucas (@lucas_flatwhite) on X

Claude에서 컨텍스트를 잘 관리하는 방법 역할 먼저 설정 > 대화 시작 할 때,…

X (formerly Twitter)

ニケちゃん (@tegnike)

Claude Code의 문맥 소모를 줄이기 위해 만들어진 오픈소스 프로젝트 rtk가 소개됐다. 명령 출력(git status, ls 등)을 바로 넣지 않고 미리 압축·필터링해 토큰 사용량을 줄이는 도구로, AI 개발 워크플로우 최적화에 유용하다.

https://x.com/tegnike/status/2042503095817486833

#opensource #aidevtools #claudecode #tokens #contextmanagement

ニケちゃん (@tegnike) on X

claude codeのコンテキストの消費が激しいため以下を導入 https://t.co/dnXsfJK6sH どうやら git status や ls などのコマンド出力がそのままコンテキストに流れる前に、事前にrtkが圧縮・フィルタしてくれるっぽい トークン消費が最大90%削減されるらしいが果たして

X (formerly Twitter)

XFeltonX (@XFeltonX)

에이전트 워크플로우에서는 단순히 저렴한 토큰 비용만으로는 충분하지 않으며, 대규모로 확장될수록 컨텍스트 관리, 라우팅, 공정한 컴퓨트 배분이 핵심 제품 가치가 된다는 관점을 제시한다.

https://x.com/XFeltonX/status/2040979736458064176

#aiagents #contextmanagement #routing #computing #llm

XFeltonX (@XFeltonX) on X

@_LuoFuli Cheap tokens alone won’t sustain agent workflows. Once harnesses scale, context management, routing, and fair compute allocation become the real product.

X (formerly Twitter)

Mojofull (@furoku)

여러 전문 작업에서 생성한 trajectory를 바탕으로, 컨텍스트를 똑똑하게 prune하고 관리하는 최적화 함수가 결국 발견될 것이라고 전망한다. 개별 작업별 최적화보다 범용적인 컨텍스트 최적화가 중요해질 수 있다는 AI 에이전트 연구 관점을 제시한다.

https://x.com/furoku/status/2038046247337238765

#aiagent #trajectory #contextmanagement #optimization #llm

Mojofull (@furoku) on X

さまざまな専門タスクから個別にtrajectoryを作ってるけど、そのうちtrajectoryの最適化関数が見つかる。 賢くprune(不要削除)してコンテキストを管理する最適化関数ね。 そうすると個別最適の必要すらなくなる。

X (formerly Twitter)