fly51fly (@fly51fly)
Google Research와 University of Wisconsin-Madison 공동 저자들의 2026년 논문 'Grow, Don't Overwrite: Fine-tuning Without Forgetting'(arXiv)이 공유되었습니다. 미세조정(fine-tuning) 시 기존 지식을 잃지 않도록 하는 방법을 제안하는 연구로, 모델 지속 학습과 캐타스트로픽 포게팅 문제에 대한 해결책을 다룹니다. arXiv 링크 포함.
https://x.com/fly51fly/status/2031486326000988505
#finetuning #continuallearning #googleresearch #arxiv

fly51fly (@fly51fly) on X
[LG] Grow, Don't Overwrite: Fine-tuning Without Forgetting
D Adila, H Mazzawi, B Dherin, X Gonzalvo [Google Research & University of Wisconsin-Madison] (2026)
https://t.co/gTyQoHNgUU
X (formerly Twitter)Awni Hannun (@awnihannun)
장기 실행 에이전트와 관련된 지속학습에 대한 관찰과 소규모 실험 보고. MLX로 토이 실험을 해본 결과, 프롬프트 압축(prompt compaction)과 재귀적 서브에이전트(recursive sub-agents)를 결합한 현재의 접근법이 의외로 효과적이며 장기 에이전트 설계에 유용할 수 있다는 판단을 제시함.
https://x.com/awnihannun/status/2029672507448643706
#continuallearning #agents #mlx #prompting

Awni Hannun (@awnihannun) on X
I've been thinking a bit about continual learning recently, especially as it relates to long-running agents (and running a few toy experiments with MLX).
The status quo of prompt compaction coupled with recursive sub-agents is actually remarkably effective. Seems like we can go
X (formerly Twitter)Demonstrating "Catastrophic Forgetting" in neural networks with 1-D function approximation
#AI #ContinualLearningGuohao Li (@guohao_li)
GLM-5의 on-policy cross-stage distillation이 흥미롭다는 언급입니다. 작성자는 @thinkymachines의 on-policy distillation 블로그를 인용하며, 특히 옴니(omni) 모델에서 재학습 시 발생하는 catastrophic forgetting(망각)을 완화하기 위한 on-policy distillation 활용 아이디어를 공유했습니다.
https://x.com/guohao_li/status/2024071081913381337
#glm5 #distillation #continuallearning #onpolicy

Guohao Li 🐫 (@guohao_li) on X
The on-policy cross-stage distillation in GLM-5 by @Zai_org is quite interesting as well. When @thinkymachines released their blog on on-policy distillation, I also shared some thoughts on how to use on-policy distillation for catastrophic forgetting, especially for omni models.
X (formerly Twitter)Dan McAteer (@daniel_mac8)
Dario가 Dwarkesh에게 한 말 가운데 핵심은 지속학습(continual learning)이 장애물이 아닐 수 있다는 점이며, 이것이 해결되면 강력한 AI로 가는 '마지막 도미노'가 넘어갈 수 있다고 주장하는 내용입니다. 지속학습의 중요성과 AI 역량 확보에 대한 전략적 함의를 강조하는 트윗입니다.
https://x.com/daniel_mac8/status/2023502100358180934
#continuallearning #airesearch #aisafety #darioamodei

Dan McAteer (@daniel_mac8) on X
*THIS* is the most important thing Dario told Dwarkesh.
Continual learning may not be a barrier.
It's the last domino that needs to fall for powerful AI.
X (formerly Twitter)Chubby (@kimmonismus)
Dario Amodei가 향후 1~2년 내에 연속 학습(continual learning)을 해결할 가능성이 높다고 언급했습니다. 그는 최근의 연구적 돌파구들이 계속 이어지고 있다고 평가하며, 지속 학습 분야의 조기 해결을 전망하는 발언을 했습니다.
https://x.com/kimmonismus/status/2022411046384742562
#darioamodei #continuallearning #airesearch #lifelonglearning

Chubby♨️ (@kimmonismus) on X
Dario Amodei: I think there is a good chance that in the next 1-2 years we solve continous learning.
These insane breakthrougs just dont stop
X (formerly Twitter)fly51fly (@fly51fly)
arXiv 논문 'Self-Distillation Enables Continual Learning' 발표: 자기 증류(self-distillation)를 활용해 연속 학습(continual learning) 성능을 개선하는 방법을 제안합니다. 저자들은 이 접근이 기존 방법 대비 잔존 성능과 안정성을 높여 재훈련 없이 지식 유지에 도움된다고 보고합니다. (저자/소속 포함: I. Shenfeld 외, MIT·ETH Zurich)
https://x.com/fly51fly/status/2016637249690227099
#continuallearning #selfdistillation #arxiv #research

fly51fly (@fly51fly) on X
[LG] Self-Distillation Enables Continual Learning
I Shenfeld, M Damani, J Hübotter, P Agrawal [MIT & ETH Zurich] (2026)
https://t.co/OLn6p7k4pW
X (formerly Twitter)Dan McAteer (@daniel_mac8)
OpenAI Prism은 연구자 전용이 아니라 일반 사용자·학생도 활용할 수 있는 도구라는 안내입니다. 작성자는 Google의 'Nested Learning' 논문을 업로드해 Continual Learning 패러다임을 단순한 다이어그램으로 자동 생성했으며, 학습용 시각화 생성에 유용하고 무료로 사용할 수 있음을 강조했습니다.
https://x.com/daniel_mac8/status/2016554325691015604
#openai #prism #continuallearning #aitools #diagram

Dan McAteer (@daniel_mac8) on X
OpenAI Prism is *NOT* only for researchers.
Uploaded Google's "Nested Learning" paper for Continual Learning and had it generate a diagram that visualizes the paradigm in a simple way.
Great if you're a student or curious person who wants to learn too.
Plus it's free.
X (formerly Twitter)Erik Hoel (@erikphoel)
새 논문 'A Disproof of LLM Consciousness' 공개: 저자는 LLM에 대해 반증 가능하고 비자명한(falsifiable and non-trivial) 의식 이론은 작동할 수 없음을 보였다고 주장하며, 흥미롭게도 연속학습(continual learning)을 해결하면 상황이 바뀔 수 있다고 시사함.
https://x.com/erikphoel/status/2011836954443206935
#llm #consciousness #research #continuallearning

Erik Hoel (@erikphoel) on X
1. 🚨 Finally I get to share my new paper: "A Disproof of LLM Consciousness."
I show that *no* falsifiable and non-trivial theories of consciousness could ever work for LLMs.
Intriguingly, turns out that cracking continual learning might change this https://t.co/aZBo3XUo9r
X (formerly Twitter)