Searching over Session Transcripts > MEMORY.md

agent-traces는 로컬에 저장된 Claude Code 및 Codex AI 코딩 어시스턴트 세션 기록(JSONL 파일)을 의미 기반으로 검색할 수 있게 해주는 오픈소스 CLI 도구입니다. 각 세션을 사용자 프롬프트와 도구 호출 단위로 분할해 Qwen3-Embedding-8B 임베딩을 생성하고, 검색 시 사용자 의도와 도구 호출 텍스트 임베딩 점수를 조합해 관련 기록을 찾아냅니다. 모든 데이터와 인덱스는 로컬에 저장되어 개인정보 보호가 보장되며, OpenRouter API를 통해 임베딩을 수행합니다. AI 에이전트가 이전 작업을 기억하고 재활용하는 메모리 확장에 유용한 도구로, 설치와 사용법이 상세히 안내되어 있습니다.

https://github.com/edwarddgao/agent-traces

#semanticsearch #llm #embedding #agentmemory #cli

GitHub - edwarddgao/agent-traces: Agent-friendly semantic search over your local Claude Code and Codex session traces.

Agent-friendly semantic search over your local Claude Code and Codex session traces. - edwarddgao/agent-traces

GitHub

Dan McAteer (@daniel_mac8)

Anthropic이 MCP, Skills, agent harnesses에 이어 에이전트의 핵심 원시 기능으로 ‘memory’를 강조했다. 단순한 채팅 기록이 아니라, 쓰기 가능한 공유 컨텍스트, 출처(provenance), 검토, 백그라운드 통합을 포함하는 진짜 에이전트 메모리를 제시했으며, ‘Dreaming’ 기능도 공개했다.

https://x.com/daniel_mac8/status/2053799261209264275

#anthropic #claude #agentmemory #aiagents #llm

Dan McAteer (@daniel_mac8) on X

Anthropic is making memory the next first-class agent primitive after MCP, Skills, and agent harnesses. Not “chat history.” Real agent memory: > writable shared context > provenance > review > background consolidation Their new “Dreaming” feature is basically Claude doing

X (formerly Twitter)

Show HN: Sigma Guard – deterministic contradiction checks for graph memory

Sigma Guard는 그래프 기반 AI 메모리와 GraphRAG 스타일 시스템에서 사실 간 모순을 사전에 검증하는 오픈소스 도구입니다. 그래프 데이터베이스가 스키마 검증은 가능하지만, 서로 모순되는 사실을 탐지하지 못하는 문제를 해결하며, 셀룰러 쉬프 코호몰로지를 활용해 지역적 일관성 규칙을 기반으로 전역 일관성을 판단합니다. 실시간 스트리밍 업데이트와 대규모 그래프(5백만 노드, 4천만 엣지) 검증도 가능하며, 에이전트 메모리의 사전 커밋 검증 레이어로 활용할 수 있습니다. 다만, 그래프 DB 대체가 아니며 LLM 출력의 진위 보장은 하지 않습니다.

https://news.ycombinator.com/item?id=48078195

#graphmemory #agentmemory #graphrag #verification #opensource

Show HN: Sigma Guard – deterministic contradiction checks for graph memory | Hacker News

Rohit Ghumare (@ghumare64)

agent-memory.dev가 정상적으로 동작한다는 짧은 업데이트로, 에이전트 메모리 관련 도구 또는 프로젝트의 작동 가능성을 알린다.

https://x.com/ghumare64/status/2048066409851199577

#agentmemory #agents #memory #tool

Rohit Ghumare (@ghumare64) on X

@_Suresh2 @akshay_pachaar https://t.co/LGLRPGvrAf works

X (formerly Twitter)

Avi Chawla (@_avichawla)

에이전트 메모리가 많아질수록 오히려 더 적게 아는 것처럼 보인다는 관점을 제시하며, 현재의 에이전트 메모리 구조가 기억 저장소의 성질을 그대로 따르기 때문에 vector DB 기반 기억의 한계를 설명하는 트윗이다.

https://x.com/_avichawla/status/2047222861614686589

#agentmemory #vectordb #llm #agents #memory

Avi Chawla (@_avichawla) on X

The more your agent remembers, the less it knows. This sounds counterintuitive, but it is actually a direct result of how agent memory is built today. Agent memory inherits the cognitive shape of its store. - A vector DB gives it associative memory to recognize familiar

X (formerly Twitter)

Akshay (@akshay_pachaar)

에이전트 메모리 시스템은 단순히 더 많이 저장하는 것보다 무엇을 잊을지 결정하는 것이 더 어렵고 중요하다는 내용입니다. 문서, 임베딩, 엔티티를 계속 쌓는 방식은 오래된 정보와 불필요한 연결을 남겨 실제 유용성을 떨어뜨릴 수 있다고 지적합니다.

https://x.com/akshay_pachaar/status/2044699731277078785

#agentmemory #embeddings #knowledgegraph #aiagents #memory

Akshay 🚀 (@akshay_pachaar) on X

Knowing what to forget is harder! Most agent memory systems focus on ingestion. Add more documents, build more embeddings, extract more entities. The graph only grows. But a memory that never forgets isn't actually useful. Stale nodes and unused connections pile up over time,

X (formerly Twitter)

Akshay (@akshay_pachaar)

에이전트 메모리를 3차원으로 설계해야 한다는 관점을 제시했다. 단일 벡터DB 중심 메모리의 한계를 지적하며, 의미 유사성 외에도 다른 차원의 지식을 저장해야 한다는 새로운 에이전트 메모리 아키텍처 아이디어를 설명한다.

https://x.com/akshay_pachaar/status/2044329897603244093

#agentmemory #vectordatabase #aiagents #memory #architecture

Akshay 🚀 (@akshay_pachaar) on X

Agent memory is three-dimensional. Most agent memory systems use a single store. Usually a vector database. It handles semantic similarity well, but it captures only one dimension of knowledge. Here's the gap. Store these three facts: → Alice is the tech lead on Project Atlas

X (formerly Twitter)

Python Trending (@pythontrending)

hindsight — Hindsight: Agent Memory That Learns는 '학습하는 에이전트 메모리'를 표방하는 프로젝트/연구입니다. 에이전트의 메모리 관리와 학습 기반 기억 개선을 다루는 기술적 시도임을 시사합니다.

https://x.com/pythontrending/status/2031690980424880167

#hindsight #agentmemory #research #ai

Python Trending 🇺🇦 (@pythontrending) on X

hindsight - Hindsight: Agent Memory That Learns https://t.co/AIY3TuZDb8

X (formerly Twitter)

Everyone’s excited about AI agents. But a harder question remains: what would need to be true for them to actually stay aligned with the human job-to-be-done over time? Not just at the prompt, but across decisions, context, and collaboration. Curious how others think about this.

#AgentArchitecture #AgentEngineering #AgentMemory #RuntimeEvaluation #IntentModeling #LLMSystems #AgenticAI #AI #ArtificialIntelligence #JTBD

https://www.designative.info/2026/03/08/preventing-agent-drift-designing-ai-systems-that-stay-aligned-with-human-intent/

Preventing Agent Drift: Designing AI Systems That Stay Aligned With Human Intent » { design@tive } information design

What would it take for AI agents to truly support human work—capturing intent, preserving context, and staying aligned with real jobs-to-be-done?

{ design@tive } information design

Your AI agents lose 90% of their context between sessions.

We fixed that.

Snipara — context optimization for AI agents. Less hallucination, more precision.

https://snipara.com

#AI #LLM #AgentMemory #ContextWindow

Snipara - AI Context Optimization for Your Documentation

Turn 500K tokens into 5K of perfect context. Use your own LLM with 90% cost reduction. Works with Claude Code, Cursor, and more.

Snipara