Стриминг ответов в Telegram-боте: новый API и 100 строк Python

1 марта 2026 Telegram добавил в Bot API метод sendMessageDraft - возможность потокового вывода сообщений. Тот самый эффект, к которому все привыкли в ChatGPT и Claude. Текст появляется по частям, в конце бегают анимированные точки, и ты видишь, что ответ ещё генерируется. Я написал простенький рабочий пример на чистом Python - без каких-либо фреймворков. Только asyncio и urllib .

https://habr.com/ru/articles/1019836/

#telegram #telegram_bot #telegram_api #stream #chunking

Стриминг ответов в Telegram-боте: новый API и 100 строк Python

1 марта 2026 Telegram добавил в Bot API метод  sendMessageDraft  - возможность потокового вывода сообщений. Тот самый эффект, к которому все привыкли в ChatGPT и Claude. Текст появляется по...

Хабр

Learn how chunking strategies impact RAG performance in 2026, including fixed-size, semantic, and hybrid approaches. Discover optimization techniques for use cases like medical research and legal analysis using tools like LangChain and embedding models.

#RAG #chunking #semantic chunking #LangChain #embedding models

https://dasroot.net/posts/2026/02/chunking-strategies-rag-performance/

Chunking Strategies: The Hidden Lever in RAG Performance

Learn how chunking strategies impact RAG performance in 2026, including fixed-size, semantic, and hybrid approaches. Discover optimization techniques for use cases like medical research and legal analysis using tools like LangChain and embedding models.

Technical news about AI, coding and all

🧠 New preprint by Zhong et al. proposes a #synaptic mechanism for #chunking in #WorkingMemory.

Using short-term #plasticity and synaptic augmentation, their model shows how items can be temporarily suppressed and later retrieved as chunks, increasing effective capacity w/o increasing simultaneous activity.

🌍 https://doi.org/10.7554/eLife.109538.1

#Neuroscience #CompNeuro #SynapticPlasticity

so, you want to chunk really fast?

How we built memchunk - a blazing fast text chunking library using SIMD and memchr for RAG pipelines

Topaz

Архитектура высоконагруженных RAG-систем: 10 стратегий оптимизации чанкинга и интеграция с Weaviate, Qwen / Llama /Gemma

Привет, Хабр! Это Андрей Носов, AI-архитектор в компании Raft, проектирую и внедряю высоконагруженные RAG-системы на предприятиях. Сегодня я расскажу о вызовах, которые мы преодолеваем каждый день, создавая такие системы, и сделаю акцент на чанкинге. Обозначим направления, в которых мы будем работать. Сегодня поговорим только о двух возможностях применения больших языковых моделей — это MedTech и LegalTech. Они наиболее востребованные на рынке в текущий момент в плане систем поиска. Такой выбор направлений связан с глобальным трендом на работу с профессиональными знаниями, о котором говорят Gartner и OpenAI.

https://habr.com/ru/companies/oleg-bunin/articles/967102/

#rag #chunking #llm #genai #архитектура #чанкинг #highload #highload++

Архитектура высоконагруженных RAG-систем: 10 стратегий оптимизации чанкинга и интеграция с Weaviate, Qwen / Llama /Gemma

Привет, Хабр! Это Андрей Носов, AI-архитектор в компании Raft, проектирую и внедряю высоконагруженные RAG-системы на предприятиях. Сегодня я расскажу о вызовах, которые мы преодолеваем каждый день,...

Хабр

Mô hình ngữ cảnh dài có thực sự giải quyết 'attention dilution'? Có người cho rằng Gemini 1M context loại bỏ RAG/chia nhỏ tài liệu. Tuy nhiên, tác giả bài viết nghi ngờ, kinh nghiệm cho thấy hiệu suất giảm mạnh sau 100K-200K token. Điều này rất quan trọng với tài liệu pháp lý cần độ chính xác cao.

#AI #LLM #LongContext #AttentionDilution #RAG #Chunking #Gemini #TechNews #ArtificialIntelligence
#MôHìnhAI #NgữCảnhDài #XửLýNgônNgữ #CôngNghệ #TríTuệNhânTạo #HỏiĐáp

https://www.reddit.com/r/LocalLLa

Công cụ rag-chunk giúp kiểm tra chiến lược chunking cho tài liệu. Cho phép phân tích, kiểm tra và đánh giá các chiến lược khác nhau. Calculates Recall score để đánh giá hiệu quả. #RAG #chunking #CLI #Python #ragchunk #tiểu#côngcụ #phần_mềm

https://www.reddit.com/r/programming/comments/1oxfu03/i_was_tired_of_guessing_my_rag_chunking_strategy/

Bạn đang tối ưu RAG? Đừng bỏ qua cách chia đoạn văn bản (chunking)! Thay vì chia theo ký tự thô, việc chia theo ngữ nghĩa (semantic chunking), duy trì ngữ cảnh với các đoạn 500-1000 token có chồng lấn nhỏ, mang lại hiệu quả vượt trội hơn cả việc đổi model hay embedding. Hãy chia theo ý nghĩa, không phải số lượng!

#RAG #AI #NLP #TextSplitting #Chunking #TốiƯuAI

https://www.reddit.com/r/LocalLLaMA/comments/1ojwsfi/the_single_most_overlooked_decision_in_rag_stop/

🤖 Oh joy, yet another #AI model that promises to chunk #text across languages, because apparently, understanding words needed a chonkier approach. 🙄 #Hugging #Face proudly presents a delightfully complex name, ideal for confusing your cat and impressing no one at dinner parties. 🌍 Expect world peace and better #machine #translation any day now! 🎉
https://huggingface.co/mirth/chonky_mmbert_small_multilingual_1 #Chunking #Language #Models #HackerNews #ngated
mirth/chonky_mmbert_small_multilingual_1 · Hugging Face

We’re on a journey to advance and democratize artificial intelligence through open source and open science.

mirth/chonky_mmbert_small_multilingual_1 · Hugging Face

We’re on a journey to advance and democratize artificial intelligence through open source and open science.