Anthony Morris ツ (@amorriscode)

Opus 4.6 버전이 데스크톱의 Max/Teams/Enterprise 요금제에 대해 1M(100만) 문맥(context) 지원으로 출시되었다는 공지로, 매우 큰 문맥 창을 제공하는 업데이트임을 알림.

https://x.com/amorriscode/status/2033998163074551961

#opus #contextwindow #longcontext #enterprise

Anthony Morris ツ (@amorriscode) on X

heard you like context? Opus 4.6 1M context is out for Max/Teams/Enterprise on desktop

X (formerly Twitter)

AI Leaks and News (@AILeaksAndNews)

Anthropic가 Claude Opus 4.6과 Claude Sonnet 4.6 모델에 대해 1백만 토큰(약 75만 단어) 규모의 컨텍스트 윈도우를 일반 사용자 대상로 공개했습니다. 이제 모든 사용자가 대규모 문맥을 활용해 긴 문서 이해, 코드베이스 분석, 복합 질의 처리 등 장문 입력 기반 응용을 구현할 수 있습니다. 무엇을 할지 활용 사례가 주목됩니다.

https://x.com/AILeaksAndNews/status/2032532679728492594

#anthropic #claude #longcontext #contextwindow #llm

AI Leaks and News (@AILeaksAndNews) on X

Anthropic is releasing 1 million context window for Claude Opus 4.6 and Claude Sonnet 4.6 for general availability The context window of approximately 750k words is now available to all users What will you do with 1M tokens of context?

X (formerly Twitter)

Mark Gadala-Maria (@markgadala)

Claude가 1백만 토큰 규모의 컨텍스트 창을 지원해 컨텍스트 길이 문제를 사실상 무의미하게 만들었다고 발표했습니다. 전체 코드베이스, 6개월치 이메일, 전체 법률 사건 파일, 책 등을 한 번의 프롬프트로 넣을 수 있으며 청킹, RAG, 별도 검색 계층 없이 일반 이용 가능하다고 적시되어 있는 매우 큰 장기 컨텍스트 기능 확장 소식입니다.

https://x.com/markgadala/status/2032536414512906715

#claude #longcontext #1mtokens #llm

TestingCatalog News (@testingcatalog)

Anthropic이 Opus 4.6을 발표했습니다. 이번 버전은 1M(100만) 토큰 컨텍스트 윈도우를 지원하며 Claude Code 사용자들에게 일반 제공(general availability)으로 배포되었습니다. 대용량 장기 문맥 처리 능력이 크게 향상되어 코드 생성·분석 및 긴 문서 처리 등 개발자용 워크플로우에서 실용성이 높아질 것으로 보입니다.

https://x.com/testingcatalog/status/2032510663097225359

#anthropic #opus #longcontext #claudecode

Claude (@claudeai)

Opus 4.6이 100만 토큰 환경에서 MRCR v2에서 78.3%를 기록하며 프론티어 모델 중 최고 성능을 냈고, 전체 코드베이스와 대규모 문서 세트 및 장기 실행 에이전트 로드가 가능해졌습니다. 요청당 미디어 한도가 이미지/PDF 페이지 600장으로 확대되었다는 기능 확장 소식도 포함됩니다.

https://x.com/claudeai/status/2032509550239297864

#opus #mrcr #longcontext #llm #multimodal

Claude (@claudeai) on X

Opus 4.6 scores 78.3% on MRCR v2 at 1 million tokens, highest among frontier models. Load entire codebases, large document sets, and long-running agents. Media limits expand to 600 images or PDF pages per request.

X (formerly Twitter)

AshutoshShrivastava (@ai_for_success)

OpenRouter에 두 개의 스텔스 모델이 올라왔다는 보고가 있다. 그중 'Hunter Alpha'로 추정되는 모델은 1조 파라미터, 1M 컨텍스트를 갖추고 에이전트 워크플로·장기 과제 수행·광범위한 툴 사용을 목적으로 설계된 것으로 소개되었다. 현재는 비공개(stealth) 상태라 공식 발표 및 세부 정보는 대기 중이다.

https://x.com/ai_for_success/status/2031886853864108382

#openrouter #hunteralpha #llm #agents #longcontext

AshutoshShrivastava (@ai_for_success) on X

Two new stealth models on OpenRouter. I received a DM a few days back about a new model coming, and I guess one of these could be that. So let's wait and see. Hunter Alpha: 1T-parameter model with 1M context built for agentic workflows, long-horizon tasks, and serious tool use.

X (formerly Twitter)

Min Choi (@minchoi)

OpenAI가 GPT-5.4를 공개했다고 보고되었습니다. GPT-5.4는 100만 토큰(1M) 컨텍스트를 지원하며 코딩과 에이전트 기능에 큰 도약을 가져오고, 네이티브 컴퓨터 사용을 지원하는 등 에이전트 생태계에 큰 변화를 예고합니다.

https://x.com/minchoi/status/2029689858986262860

#openai #gpt5.4 #agents #longcontext #ai

Min Choi (@minchoi) on X

This is wild. OpenAI just dropped GPT-5.4 and it will completely change the AI agent game. 1M context, huge leap for coding + agents, and native computer use. 7 wild examples. Bookmark this. 1. Build & Play 3D chess game

X (formerly Twitter)

Min Choi (@minchoi)

OpenAI가 GPT-5.4를 공개했다고 알림. 1M(백만) 토큰 컨텍스트를 지원하고 코딩과 에이전트 성능에서 큰 도약을 보이며 '네이티브 컴퓨터 사용' 기능을 포함한다. 작성자는 7가지 데모(예: 3D 체스 게임)를 통해 에이전트·코딩 응용에서의 혁신 가능성을 강조한다.

https://x.com/minchoi/status/2029689858986262860

#openai #gpt5.4 #longcontext #agents #coding

Min Choi (@minchoi) on X

This is wild. OpenAI just dropped GPT-5.4 and it will completely change the AI agent game. 1M context, huge leap for coding + agents, and native computer use. 7 wild examples. Bookmark this. 1. Build & Play 3D chess game

X (formerly Twitter)

Qwen (@Alibaba_Qwen)

Qwen3.5 시리즈가 4비트 가중치 및 KV 캐시 양자화(quantization)에서도 거의 손실 없는 정확도를 유지한다고 발표되었습니다. 장문 처리 성능에서 Qwen3.5-27B는 80만+ 컨텍스트를 지원하며, Qwen3.5-35B-A3B는 소비자용 32GB GPU에서 100만 컨텍스트를 넘기고, Qwen3.5-122B-A10B도 높은 장문 능력을 지원한다고 명시되어 장기 컨텍스트와 저비트 양자화 양쪽에서 주목할 만한 진전입니다.

https://x.com/Alibaba_Qwen/status/2026502059479179602

#qwen #llm #quantization #longcontext

Qwen (@Alibaba_Qwen) on X

The Qwen3.5 series maintains near-lossless accuracy under 4-bit weight and KV cache quantization. In terms of long-context efficiency: Qwen3.5-27B supports 800K+ context length Qwen3.5-35B-A3B exceeds 1M context on consumer-grade GPUs with 32GB VRAM Qwen3.5-122B-A10B supports

X (formerly Twitter)

MiniMax (official) (@MiniMax_AI)

OpenRouter에서 100K–1M 토큰 길이 컨텍스트를 다루는 실험을 공유한 트윗입니다. M2.5 모델이 긴 토큰 시나리오에서 안정적으로 작동한다는 경험을 언급해, 장기 컨텍스트 처리 가능성과 LLM 활용에 대한 개발자 관점을 제공합니다.

https://x.com/MiniMax_AI/status/2024542451059609705

#openrouter #m2.5 #llm #longcontext

MiniMax (official) (@MiniMax_AI) on X

Pushing 100K–1M tokens on @openrouter. M2.5’s right at home there.

X (formerly Twitter)