fly51fly (@fly51fly)

[논문] "TQL: Scaling Q-Functions with Transformers by Preventing Attention Collapse"라는 2026년 arXiv 논문이 공개되었습니다(저자: P Dong, K Hung, A Swerdlow, D Sadigh 등). 이 연구는 트랜스포머를 활용한 Q-함수 확장(강화학습 맥락)에서 '어텐션 붕괴'를 방지하는 방법(TQL)을 제안합니다. Stanford 소속 연구입니다.

https://x.com/fly51fly/status/2018805453007069545

#transformers #qlearning #attention #arxiv #tql

fly51fly (@fly51fly) on X

[LG] TQL: Scaling Q-Functions with Transformers by Preventing Attention Collapse P Dong, K Hung, A Swerdlow, D Sadigh... [Stanford University] (2026) https://t.co/qXLLGN6otE

X (formerly Twitter)