Microsoft Research (@MSFTResearch)
Microsoft 연구진이 LLM2CLIP로 AAAI-26 Outstanding Paper Award를 수상했습니다. LLM2CLIP은 대형 언어 모델을 '교사'로 활용해 CLIP이 길고 복잡한 캡션을 더 잘 이해하도록 개선한 비전-언어 프레임워크로, 멀티모달 성능에서 최첨단 결과를 달성했습니다.

Microsoft Research (@MSFTResearch) on X
Microsoft researchers received the AAAI-26 Outstanding Paper Award for LLM2CLIP, a vision-language framework that uses large language models as “teachers” to help CLIP better understand long, complex captions and achieve state-of-the-art multimodal performance.