AI Leaks and News (@AILeaksAndNews)

Anthropic가 Claude Opus 4.6과 Claude Sonnet 4.6 모델에 대해 1백만 토큰(약 75만 단어) 규모의 컨텍스트 윈도우를 일반 사용자 대상로 공개했습니다. 이제 모든 사용자가 대규모 문맥을 활용해 긴 문서 이해, 코드베이스 분석, 복합 질의 처리 등 장문 입력 기반 응용을 구현할 수 있습니다. 무엇을 할지 활용 사례가 주목됩니다.

https://x.com/AILeaksAndNews/status/2032532679728492594

#anthropic #claude #longcontext #contextwindow #llm

AI Leaks and News (@AILeaksAndNews) on X

Anthropic is releasing 1 million context window for Claude Opus 4.6 and Claude Sonnet 4.6 for general availability The context window of approximately 750k words is now available to all users What will you do with 1M tokens of context?

X (formerly Twitter)

Claude (@claudeai)

Claude Opus 4.6과 Claude Sonnet 4.6에서 100만 토큰 컨텍스트 윈도우(1 million context window)가 일반 제공(general availability)으로 출시되었다는 공지입니다. 대규모 장문 입력을 기본 지원함을 알리는 업데이트입니다.

https://x.com/claudeai/status/2032509548297343196

#claude #opus #sonnet #contextwindow #llm

Claude (@claudeai) on X

1 million context window: Now generally available for Claude Opus 4.6 and Claude Sonnet 4.6.

X (formerly Twitter)

Emily (@IamEmily2050)

Google DeepMind 팀의 하드웨어·소프트웨어 통합 역량으로, 하드웨어 수준에서 CXL을 광섬유(fibre optic)로 구현하면 Veo와 함께 5M(5백만) 컨텍스트 윈도우와 더 긴 비디오 처리가 가능해질 것이라는 기대가 제기됨. 다만 이를 실현하려면 TPU V8을 기다려야 한다는 내용의 전망성 글.

https://x.com/IamEmily2050/status/2032073729661141437

#deepmind #cxl #contextwindow #veo #tpuv8

Emily (@IamEmily2050) on X

Hopefully, this is true and happens fast. Google DeepMind team is one of the best at hardware and software integration. CXL implementation at the hardware level with fibre optic will unlock the potential of 5M context window and longer video with Veo 🙏 we have to wait for TPU V8

X (formerly Twitter)

[ChatGPT Pro에서 GPT-5.4 컨텍스트 1M을 제대로 쓰려면 설정이 필요

ChatGPT Pro에서 GPT-5.4 모델을 사용할 때 컨텍스트 창 크기를 1M 토큰으로 확장하려면 config.toml 파일에 특정 설정을 추가해야 한다는 사용자 경험이 공유되었습니다. 기본 설정은 258K 토큰으로 제한되어 있지만, model_context_window와 model_auto_compact_token_limit 값을 조정하면 약 800K 토큰까지 확장할 수 있습니다.

https://news.hada.io/topic?id=27358

#chatgpt #gpt5 #contextwindow #codex #configuration

ChatGPT Pro에서 GPT-5.4 컨텍스트 1M을 제대로 쓰려면 설정이 필요

<p>최근 r/codex에 흥미로운 글이 올라왔습니다.</p> <p>👉 https://www.reddit.com/r/codex/s/oHBLxp7ZFn</p> <p>한 사용자가 ChatGPT Pro + Codex...

GeekNews

Flavio Adamo (@flavioAd)

GPT-5.4 정식 공개 소식과 조기 액세스 사용자 후기입니다. 1M 토큰 컨텍스트 윈도우 제공, SWE-Bench에서 57.7%로 1위, GPT-5.4 Pro는 FrontierMath에서 1위를 기록했다는 벤치마크 결과를 공유했으며, Avely 제품 업데이트 일정에 대한 언급도 있습니다.

https://x.com/flavioAd/status/2029622255937065193

#gpt5.4 #contextwindow #benchmarks #llm #ai

Flavio Adamo (@flavioAd) on X

🚨 GPT-5.4 IS OUT!! I’ve been testing it in early access for a while and I’ve been using it nonstop, absolutely loving it - 1M context window - #1 on SWE-Bench — 57.7 % - 5.4 Pro #1 on FrontierMath Just to give you an idea: we had a big Avely update planned for late March

X (formerly Twitter)

Bindu Reddy (@bindureddy)

GPT 5.4 관련 루머/발표 내용으로, 'extreme reasoning' 모드 추가와 문맥창을 두 배로 늘려 100만 토큰(1M tokens) 지원을 도입한다는 소식입니다. 이 변경으로 장기 작업 처리 능력이 향상되고 성능은 Opus와 비슷해지지만 총비용 측면에서는 다소 뒤처질 수 있다는 비교도 포함돼 있습니다.

https://x.com/bindureddy/status/2029383387191099401

#openai #gpt #contextwindow #llm

Bindu Reddy (@bindureddy) on X

GPT 5.4 will have an “extreme reasoning” mode and will double context to 1M tokens This will also help with very long running tasks These changes will bring OpenAI on par with Opus on performance but they may lag behind on total cost

X (formerly Twitter)

Ivan Fioravanti ᯅ (@ivanfioravanti)

EXO MLX Kimi K2.5의 컨텍스트 벤치마크를 두 대의 M3 Ultra(512GB)에서 실행한 결과를 공유. 속도는 엄청 빠르진 않지만 대용량 컨텍스트에서도 안정적인 생성 속도를 유지하며, 테스트는 캐시를 비활성화한 상태로 진행되었고 일반 사용 시에는 OpenCode와 C 조합으로 캐시 활용 시 더 좋은 성능이 나타날 수 있음을 언급.

https://x.com/ivanfioravanti/status/2028094304913092664

#exo #kimi #m3ultra #benchmark #contextwindow

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

EXO MLX Kimi K2.5 context benchmark running on two M3 Ultra 512GB. Not bad! It's not so fast, but it keeps a good generation speed even with large contexts. Keep in mind cache is disabled in these tests, normal usage is quite good with OpenCode & C.

X (formerly Twitter)
[The WSJ] Let AI Run [Their] Office Vending Machine. It Lost Hundreds Of Dollars.
Anthropic’s Claude ran a snack operation in the WSJ newsroom. It gave away a free PlayStation, ordered a live fish—and taught us lessons about the future of AI agents.
--
https://www.wsj.com/tech/ai/anthropic-claude-ai-vending-machine-agent-b7e84e34?gaa_at=eafs <-- shared media article
--
https://youtu.be/SpPhm7S9vsQ?si=aJQ2_BoxvLcNjOiz <-- shared video
--
[When you get clever journalists to !$%^&*@ with AI… bravo! And this is a very simple situation, vending machines have been around since literally the Roman Empire
“You are using the wrong prompts” and LUDDITES! In the comments in 3… 2… 1…]
#vendingmachine #artificialintelligence #AIHallucination #hallucinations #emperorsnewclothes #ohhhshiny #experiment #contextwindow #AIagent #claude #autonomous #compliance #fish #PlayStation #snackliberationday #knowledgeboundaries #guardrails #redteam #GenAI cynicism
@WSJ @Anthropic @Claude