fly51fly (@fly51fly)
[논문] "TQL: Scaling Q-Functions with Transformers by Preventing Attention Collapse"라는 2026년 arXiv 논문이 공개되었습니다(저자: P Dong, K Hung, A Swerdlow, D Sadigh 등). 이 연구는 트랜스포머를 활용한 Q-함수 확장(강화학습 맥락)에서 '어텐션 붕괴'를 방지하는 방법(TQL)을 제안합니다. Stanford 소속 연구입니다.
