andy nguyen (@kevinnguyendn)

byterover가 LLM을 호출하기 전에 저렴한 경로를 우선 탐색하는 5단계 검색 시스템을 소개한다. 80% 이상의 질의가 200ms 이내에 해결되며, 중요도·최신성·성숙도 메타데이터와 지수 감쇠, 히스테리시스 티어를 활용하고 벡터 없이 전체 저장소를 grep하는 방식이 특징이다.

https://x.com/kevinnguyendn/status/2040231089407676825

#byterover #retrieval #llm #search #opensource

andy nguyen (@kevinnguyendn) on X

@mattshumer_ byterover: 5-tier retrieval that exhausts cheap paths before touching an LLM, 80%+ of queries resolve under 200ms. Every entry carries lifecycle metadata (importance, recency, maturity) with exponential decay and hysteresis tiers. No vectors anywhere, grep'd the whole repo. Pure

X (formerly Twitter)

Avi Chawla (@_avichawla)

Slack Knowledge Assistant의 코드가 공개됐다. 이 프로젝트는 내부 지식봇이 단일 도구만 검색하는 한계를 해결하며, 여러 소스에 대한 통합 검색을 제공한다. 새 데이터 소스를 붙일 때마다 복잡한 커스텀 통합과 검색 로직이 필요한 문제를 줄여준다.

https://x.com/_avichawla/status/2036331218049048826

#opensource #slack #enterprisesearch #knowledgebot #retrieval

Avi Chawla (@_avichawla) on X

You can find the code for Slack Knowledge Assistant here: https://t.co/ovA6jM9nd1 The key problem is that most internal knowledge bots only search one tool and need custom integration + sophisticated retrieval logics for each new source. Airweave gives you unified search across

X (formerly Twitter)

Open-source персистентная память для LLM

Задача, которая казалась тривиальной: научить LLM помнить, с кем она разговаривает. Пользователь пишет «я вегетарианец», а через три сообщения модель предлагает стейк-хаус. Знакомо? Стандартные решения — обрезка истории, суммаризация, внешние векторные базы — всё это костыли. Я пошёл другим путём и сделал NGT Memory — модуль персистентной памяти с открытым исходным кодом. В статье подробно расскажу про архитектуру, эксперименты и все найденные решения. Если строили чат-ботов или AI-агентов — будет интересно

https://habr.com/ru/articles/1014366/

#llm #memory #python #openai #fastapi #opensource #retrieval #chatbot

Open-source персистентная память для LLM

Последние полгода я занимаюсь задачей, которая поначалу казалась тривиальной: научить LLM помнить, с кем она разговаривает. Задача звучит просто. На практике — нет. Если вы строили чат-бот или...

Хабр
Abandoned car retrieved from ice off Nova Scotia shore by helicopter, snowmobiles
It is believed to have been left by local troublemakers, though RCMP said in an email there was no criminality involved in the situation.
#Canada #Abandonedcar #NovaScotia #RCMP
https://globalnews.ca/news/11733367/nova-scotia-abandoned-car-ice-retrieval/
Abandoned car retrieved from ice off Nova Scotia shore by helicopter, snowmobiles
It is believed to have been left by local troublemakers, though RCMP said in an email there was no criminality involved in the situation.
#Canada #Abandonedcar #NovaScotia #RCMP
https://globalnews.ca/news/11733367/nova-scotia-abandoned-car-ice-retrieval/
Abandoned car retrieved from ice off Nova Scotia shore by helicopter, snowmobiles
It is believed to have been left by local troublemakers, though RCMP said in an email there was no criminality involved in the situation.
#Canada #Abandonedcar #NovaScotia #RCMP
https://globalnews.ca/news/11733367/nova-scotia-abandoned-car-ice-retrieval/

Простые проблемы, которые мы решали в ИИ-стартапе

Предыстория. Ну как ИИ-стартап, в общем-то обычный SaaS но с ключевыми задачками в бизнес-процессах для LLM. Задача основателю казалась простой. Нужно было построить систему, которая принимает пользовательский запрос, анализирует контекст пользователя, извлекает релевантные данные и формирует ответ. На первом этапе архитектура ИИ-слоя выглядела очень просто и типично: user request ⭢ RAG retrieval ⭢ LLM ⭢ answer В прототипе все работало отлично. Но после запуска в реальном продукте начались первые проблемы. Именно тогда этот стартап и попал ко мне.

https://habr.com/ru/articles/1008230/

#стартап #команда_разработки #команда_стартапа #retrieval #rag #rag_система #rag_pipeline #ииинжиниринг

Простые проблемы, которые мы решали в ИИ-стартапе

Предыстория. Ну как ИИ-стартап, в общем-то обычный SaaS но с ключевыми задачками в бизнес-процессах для LLM.  Задача основателю казалась простой. Нужно было построить систему, которая принимает...

Хабр

Akshay (@akshay_pachaar)

RAG는 최종 목표가 아니며 AI 에이전트의 '메모리'가 모든 방향이라는 주장입니다. 작성자는 RAG(2020-2023)가 한 번 정보 검색 후 응답만 생성하고 의사결정 기능이 없어 불필요한 반복 검색 문제가 있었다고 요약하며, 향후에는 메모리 기반 에이전트 아키텍처로의 진화가 핵심이라는 점을 설명합니다.

https://x.com/akshay_pachaar/status/2028087631268188412

#rag #memory #aiagents #retrieval

Akshay 🚀 (@akshay_pachaar) on X

RAG was never the end goal. Memory in AI agents is where everything is heading. Let me break down this evolution in the simplest way possible. RAG (2020-2023): - Retrieve info once, generate response - No decision-making, just fetch and answer - Problem: Often retrieves

X (formerly Twitter)

tomaarsen (@tomaarsen)

Perplexity AI가 검색(retrieval)용으로 설계된 4개의 오픈-웨이트(state-of-the-art) 다국어 임베딩 모델을 공개했습니다. 대표 모델로 pplx-embed-v1과 pplx-embed-context-v1이 있으며, int8 및 바이너리 임베딩에 특화되어 대규모 검색 문제에 적합하도록 훈련되었다고 알립니다.

https://x.com/tomaarsen/status/2027392224879595949

#perplexity #embeddings #openweights #retrieval #pplxembed

tomaarsen (@tomaarsen) on X

🤗 @perplexity_ai has released 4 open-weights state-of-the-art multilingual embedding models designed for retrieval tasks! pplx-embed-v1 and pplx-embed-context-v1 Specifically trained for int8 and binary embeddings, they'll be viable for massive search problems. Details in 🧵

X (formerly Twitter)