Anthony Morris ツ (@amorriscode)
Opus 4.6 버전이 데스크톱의 Max/Teams/Enterprise 요금제에 대해 1M(100만) 문맥(context) 지원으로 출시되었다는 공지로, 매우 큰 문맥 창을 제공하는 업데이트임을 알림.
Anthony Morris ツ (@amorriscode)
Opus 4.6 버전이 데스크톱의 Max/Teams/Enterprise 요금제에 대해 1M(100만) 문맥(context) 지원으로 출시되었다는 공지로, 매우 큰 문맥 창을 제공하는 업데이트임을 알림.
AI Leaks and News (@AILeaksAndNews)
Anthropic가 Claude Opus 4.6과 Claude Sonnet 4.6 모델에 대해 1백만 토큰(약 75만 단어) 규모의 컨텍스트 윈도우를 일반 사용자 대상로 공개했습니다. 이제 모든 사용자가 대규모 문맥을 활용해 긴 문서 이해, 코드베이스 분석, 복합 질의 처리 등 장문 입력 기반 응용을 구현할 수 있습니다. 무엇을 할지 활용 사례가 주목됩니다.
Mark Gadala-Maria (@markgadala)
Claude가 1백만 토큰 규모의 컨텍스트 창을 지원해 컨텍스트 길이 문제를 사실상 무의미하게 만들었다고 발표했습니다. 전체 코드베이스, 6개월치 이메일, 전체 법률 사건 파일, 책 등을 한 번의 프롬프트로 넣을 수 있으며 청킹, RAG, 별도 검색 계층 없이 일반 이용 가능하다고 적시되어 있는 매우 큰 장기 컨텍스트 기능 확장 소식입니다.
TestingCatalog News (@testingcatalog)
Anthropic이 Opus 4.6을 발표했습니다. 이번 버전은 1M(100만) 토큰 컨텍스트 윈도우를 지원하며 Claude Code 사용자들에게 일반 제공(general availability)으로 배포되었습니다. 대용량 장기 문맥 처리 능력이 크게 향상되어 코드 생성·분석 및 긴 문서 처리 등 개발자용 워크플로우에서 실용성이 높아질 것으로 보입니다.
Claude (@claudeai)
Opus 4.6이 100만 토큰 환경에서 MRCR v2에서 78.3%를 기록하며 프론티어 모델 중 최고 성능을 냈고, 전체 코드베이스와 대규모 문서 세트 및 장기 실행 에이전트 로드가 가능해졌습니다. 요청당 미디어 한도가 이미지/PDF 페이지 600장으로 확대되었다는 기능 확장 소식도 포함됩니다.
AshutoshShrivastava (@ai_for_success)
OpenRouter에 두 개의 스텔스 모델이 올라왔다는 보고가 있다. 그중 'Hunter Alpha'로 추정되는 모델은 1조 파라미터, 1M 컨텍스트를 갖추고 에이전트 워크플로·장기 과제 수행·광범위한 툴 사용을 목적으로 설계된 것으로 소개되었다. 현재는 비공개(stealth) 상태라 공식 발표 및 세부 정보는 대기 중이다.

Two new stealth models on OpenRouter. I received a DM a few days back about a new model coming, and I guess one of these could be that. So let's wait and see. Hunter Alpha: 1T-parameter model with 1M context built for agentic workflows, long-horizon tasks, and serious tool use.
Min Choi (@minchoi)
OpenAI가 GPT-5.4를 공개했다고 보고되었습니다. GPT-5.4는 100만 토큰(1M) 컨텍스트를 지원하며 코딩과 에이전트 기능에 큰 도약을 가져오고, 네이티브 컴퓨터 사용을 지원하는 등 에이전트 생태계에 큰 변화를 예고합니다.
Min Choi (@minchoi)
OpenAI가 GPT-5.4를 공개했다고 알림. 1M(백만) 토큰 컨텍스트를 지원하고 코딩과 에이전트 성능에서 큰 도약을 보이며 '네이티브 컴퓨터 사용' 기능을 포함한다. 작성자는 7가지 데모(예: 3D 체스 게임)를 통해 에이전트·코딩 응용에서의 혁신 가능성을 강조한다.
Qwen (@Alibaba_Qwen)
Qwen3.5 시리즈가 4비트 가중치 및 KV 캐시 양자화(quantization)에서도 거의 손실 없는 정확도를 유지한다고 발표되었습니다. 장문 처리 성능에서 Qwen3.5-27B는 80만+ 컨텍스트를 지원하며, Qwen3.5-35B-A3B는 소비자용 32GB GPU에서 100만 컨텍스트를 넘기고, Qwen3.5-122B-A10B도 높은 장문 능력을 지원한다고 명시되어 장기 컨텍스트와 저비트 양자화 양쪽에서 주목할 만한 진전입니다.

The Qwen3.5 series maintains near-lossless accuracy under 4-bit weight and KV cache quantization. In terms of long-context efficiency: Qwen3.5-27B supports 800K+ context length Qwen3.5-35B-A3B exceeds 1M context on consumer-grade GPUs with 32GB VRAM Qwen3.5-122B-A10B supports
MiniMax (official) (@MiniMax_AI)
OpenRouter에서 100K–1M 토큰 길이 컨텍스트를 다루는 실험을 공유한 트윗입니다. M2.5 모델이 긴 토큰 시나리오에서 안정적으로 작동한다는 경험을 언급해, 장기 컨텍스트 처리 가능성과 LLM 활용에 대한 개발자 관점을 제공합니다.