Paul Couvert (@itsPaulAi)

새 모델이 1,200만 토큰의 초대형 컨텍스트 윈도우를 제공하면서도 정확도 98%를 유지하고, Opus 4.7 대비 속도는 52배 빠르며 비용은 5% 수준이라고 소개됐다. 긴 문맥 처리 문제를 크게 개선할 수 있는 인상적인 모델 성능이다.

https://x.com/itsPaulAi/status/2051666947625111825

#llm #contextwindow #aimodel #performance #inference

Paul Couvert (@itsPaulAi) on X

This could solve the main issue with context windows Because this new model has a context window of 12M tokens (!!) but still maintains 98% accuracy And compared to Opus 4.7, it's: - 52 times faster - Costs 5% of the price That's really impressive.

X (formerly Twitter)