Anthony Morris ツ (@amorriscode)
Opus 4.6 버전이 데스크톱의 Max/Teams/Enterprise 요금제에 대해 1M(100만) 문맥(context) 지원으로 출시되었다는 공지로, 매우 큰 문맥 창을 제공하는 업데이트임을 알림.
Anthony Morris ツ (@amorriscode)
Opus 4.6 버전이 데스크톱의 Max/Teams/Enterprise 요금제에 대해 1M(100만) 문맥(context) 지원으로 출시되었다는 공지로, 매우 큰 문맥 창을 제공하는 업데이트임을 알림.

TL;DR: MCP tool definitions can burn 55,000+ tokens before an agent processes a single user message. We built the Apideck CLI as an AI-agent interface instead:an ~80-token agent prompt replaces tens of thousands of tokens of schema, with progressive disclosure via `--help` and structural safety baked into the binary. Any agent that can run shell commands can use it. No protocol support required.
https://winbuzzer.com/2026/03/14/anthropic-drops-long-context-premium-1m-token-claude-xcxwbn/
Anthropic Unlocks 1M-Token Context Window for all Max, Team, and Enterprise Users
#AI #Anthropic #Claude #ClaudeOpus46 #ClaudeSonnet46 #ContextWindow #ClaudeMax #ClaudeCode
AI Leaks and News (@AILeaksAndNews)
Anthropic가 Claude Opus 4.6과 Claude Sonnet 4.6 모델에 대해 1백만 토큰(약 75만 단어) 규모의 컨텍스트 윈도우를 일반 사용자 대상로 공개했습니다. 이제 모든 사용자가 대규모 문맥을 활용해 긴 문서 이해, 코드베이스 분석, 복합 질의 처리 등 장문 입력 기반 응용을 구현할 수 있습니다. 무엇을 할지 활용 사례가 주목됩니다.
"Added 1M context window for Opus 4.6 by default for Max, Team, and Enterprise"
https://raw.githubusercontent.com/anthropics/claude-code/refs/heads/main/CHANGELOG.md
#HackerNews #Added #1M #context #window #for #Opus #4.6 #by #default #for #Max #Team #and #Enterprise
Opus4.6 #ContextWindow #Max #Team #Enterprise
Claude (@claudeai)
Claude Opus 4.6과 Claude Sonnet 4.6에서 100만 토큰 컨텍스트 윈도우(1 million context window)가 일반 제공(general availability)으로 출시되었다는 공지입니다. 대규모 장문 입력을 기본 지원함을 알리는 업데이트입니다.
Emily (@IamEmily2050)
Google DeepMind 팀의 하드웨어·소프트웨어 통합 역량으로, 하드웨어 수준에서 CXL을 광섬유(fibre optic)로 구현하면 Veo와 함께 5M(5백만) 컨텍스트 윈도우와 더 긴 비디오 처리가 가능해질 것이라는 기대가 제기됨. 다만 이를 실현하려면 TPU V8을 기다려야 한다는 내용의 전망성 글.

Hopefully, this is true and happens fast. Google DeepMind team is one of the best at hardware and software integration. CXL implementation at the hardware level with fibre optic will unlock the potential of 5M context window and longer video with Veo 🙏 we have to wait for TPU V8
[ChatGPT Pro에서 GPT-5.4 컨텍스트 1M을 제대로 쓰려면 설정이 필요
ChatGPT Pro에서 GPT-5.4 모델을 사용할 때 컨텍스트 창 크기를 1M 토큰으로 확장하려면 config.toml 파일에 특정 설정을 추가해야 한다는 사용자 경험이 공유되었습니다. 기본 설정은 258K 토큰으로 제한되어 있지만, model_context_window와 model_auto_compact_token_limit 값을 조정하면 약 800K 토큰까지 확장할 수 있습니다.