Show HN: RVW – A transformer model capable of online continual learning

RVW는 사전학습된 트랜스포머 모델을 온라인으로 지속 학습할 수 있게 설계된 새로운 아키텍처입니다. 각 레이어별 전문가 집단을 동적으로 확장 및 축소하며, 리플레이 버퍼나 명시적 태스크 식별자 없이 분포 변화에 적응합니다. TinyLlama-1.1B에 적용 시 기존 EWC, 파인튜닝, LoRA 대비 훨씬 낮은 퍼플렉서티를 기록하며 이전 도메인 성능도 유지합니다. 도메인 지식은 개별 전문가보다 레이어 간 라우팅 패턴에 의해 인코딩되는 것으로 보입니다.

https://zenodo.org/records/20064618

#continuallearning #transformer #onlinelearning #lora #tinyllama

Adaptive Low-Rank Product Transformers with Dynamic Expert Routing for Online Continual Learning

Inspired by the role of sleep in biological continual learning, we introduce RVW, a trans- former architecture for online continual adaptation of pretrained models. RVW maintains a small pool of per-layer experts that grow and prune in response to distribution shift, with no replay buffer and no explicit task identifier. Applied to TinyLlama-1.1B on a 15,000- chunk six-domain stream, RVW reaches 40 average held-out PPL, substantially better than EWC (158), fine-tuning (164), and LoRA (448) on the same parameter-matched base, while preserving prior-domain performance. Threshold sweeps suggest a combinatorial encoding reading: domain knowledge appears to be carried by routing patterns across layers rather than by individual specialized experts.

Zenodo

Our partners from CeADAR Ireland published a new paper on Continual Learning in the #CloudEdgeIoT Continuum. It explores how adaptive #AI can address concept drift, dynamic data & resource constraints.

This is key for enabling efficient, trustworthy AI & MetaOS orchestration across @O_CEI_Horizon ecosystem.

📑 Read the paper: https://o-cei.eu/wp-content/uploads/2026/03/Paper-CeADAR-Jan-2026-ICP.000586-3-2.pdf

📰 Discover O-CEI publications: https://o-cei.eu/scientific-publications/

#Research #HorizonEurope

#OCEI #AI #ContinualLearning #CloudEdgeIoT #Research

AI 에이전트가 스스로 진화하는 3가지 방식, 모델 교체만이 답이 아니다

AI 에이전트의 학습은 모델 업데이트만이 아닙니다. LangChain이 제시한 모델·하네스·컨텍스트 3레이어 프레임워크를 소개합니다.

https://aisparkup.com/posts/10900

fly51fly (@fly51fly)

Google Research와 University of Wisconsin-Madison 공동 저자들의 2026년 논문 'Grow, Don't Overwrite: Fine-tuning Without Forgetting'(arXiv)이 공유되었습니다. 미세조정(fine-tuning) 시 기존 지식을 잃지 않도록 하는 방법을 제안하는 연구로, 모델 지속 학습과 캐타스트로픽 포게팅 문제에 대한 해결책을 다룹니다. arXiv 링크 포함.

https://x.com/fly51fly/status/2031486326000988505

#finetuning #continuallearning #googleresearch #arxiv

fly51fly (@fly51fly) on X

[LG] Grow, Don't Overwrite: Fine-tuning Without Forgetting D Adila, H Mazzawi, B Dherin, X Gonzalvo [Google Research & University of Wisconsin-Madison] (2026) https://t.co/gTyQoHNgUU

X (formerly Twitter)

Awni Hannun (@awnihannun)

장기 실행 에이전트와 관련된 지속학습에 대한 관찰과 소규모 실험 보고. MLX로 토이 실험을 해본 결과, 프롬프트 압축(prompt compaction)과 재귀적 서브에이전트(recursive sub-agents)를 결합한 현재의 접근법이 의외로 효과적이며 장기 에이전트 설계에 유용할 수 있다는 판단을 제시함.

https://x.com/awnihannun/status/2029672507448643706

#continuallearning #agents #mlx #prompting

Awni Hannun (@awnihannun) on X

I've been thinking a bit about continual learning recently, especially as it relates to long-running agents (and running a few toy experiments with MLX). The status quo of prompt compaction coupled with recursive sub-agents is actually remarkably effective. Seems like we can go

X (formerly Twitter)
Demonstrating "Catastrophic Forgetting" in neural networks with 1-D function approximation #AI #ContinualLearning

Guohao Li (@guohao_li)

GLM-5의 on-policy cross-stage distillation이 흥미롭다는 언급입니다. 작성자는 @thinkymachines의 on-policy distillation 블로그를 인용하며, 특히 옴니(omni) 모델에서 재학습 시 발생하는 catastrophic forgetting(망각)을 완화하기 위한 on-policy distillation 활용 아이디어를 공유했습니다.

https://x.com/guohao_li/status/2024071081913381337

#glm5 #distillation #continuallearning #onpolicy

Guohao Li 🐫 (@guohao_li) on X

The on-policy cross-stage distillation in GLM-5 by @Zai_org is quite interesting as well. When @thinkymachines released their blog on on-policy distillation, I also shared some thoughts on how to use on-policy distillation for catastrophic forgetting, especially for omni models.

X (formerly Twitter)

Dan McAteer (@daniel_mac8)

Dario가 Dwarkesh에게 한 말 가운데 핵심은 지속학습(continual learning)이 장애물이 아닐 수 있다는 점이며, 이것이 해결되면 강력한 AI로 가는 '마지막 도미노'가 넘어갈 수 있다고 주장하는 내용입니다. 지속학습의 중요성과 AI 역량 확보에 대한 전략적 함의를 강조하는 트윗입니다.

https://x.com/daniel_mac8/status/2023502100358180934

#continuallearning #airesearch #aisafety #darioamodei

Dan McAteer (@daniel_mac8) on X

*THIS* is the most important thing Dario told Dwarkesh. Continual learning may not be a barrier. It's the last domino that needs to fall for powerful AI.

X (formerly Twitter)

Chubby (@kimmonismus)

Dario Amodei가 향후 1~2년 내에 연속 학습(continual learning)을 해결할 가능성이 높다고 언급했습니다. 그는 최근의 연구적 돌파구들이 계속 이어지고 있다고 평가하며, 지속 학습 분야의 조기 해결을 전망하는 발언을 했습니다.

https://x.com/kimmonismus/status/2022411046384742562

#darioamodei #continuallearning #airesearch #lifelonglearning

Chubby♨️ (@kimmonismus) on X

Dario Amodei: I think there is a good chance that in the next 1-2 years we solve continous learning. These insane breakthrougs just dont stop

X (formerly Twitter)