AISatoshi (@AiXsatoshi)

외부 노트북에서 자택의 LMstudio에 원격으로 연결해 gpt-oss-120b 모델을 구동한 결과 초당 200토큰 이상 처리 가능한 성능을 확인했다는 실사용 보고입니다. 원격 접속 환경에서 높은 토크나이즈 처리량을 달성한 사례로, LMlink를 통한 원격 추론·개발 워크플로 우수성을 시사합니다.

https://x.com/AiXsatoshi/status/2028010987077702013

#lmstudio #gptoss120b #lmlink #inference

AI✖️Satoshi⏩️ (@AiXsatoshi) on X

外出先ノーパソから、自宅のLMstudioにつないで、gpt-oss-120b、200token/s以上が可能に!良いなあ #LMlink

X (formerly Twitter)

金のニワトリ (@gosrum)

Qwen3.5-35B-A3B-UD-Q4_K_XL(업데이트판)의 ts-bench 결과가 공유되었고, 업데이트로 점수가 84%에서 92%로 향상되어 gpt-oss-120b를 능가했다고 보고했습니다. 27B와 112B 버전은 아직 업데이트되지 않아 이후 재평가 예정이라는 내용입니다. 성능 향상과 벤치마크 우위가 핵심입니다.

https://x.com/gosrum/status/2027592021565997426

#qwen3.5 #benchmark #gptoss120b #modelupdate

金のニワトリ (@gosrum) on X

取り急ぎ、Qwen3.5-35B-A3B-UD-Q4_K_XL(アップデート版)のts-bench結果を共有します ・アップデートによりスコアが84%→92%に向上  →gpt-oss-120bを超えるスコアに 27Bと112Bはまだ更新されていないようなので、更新後に再評価します

X (formerly Twitter)

OpenAI just opened the doors to its massive Mixture‑of‑Experts models: gpt‑oss‑120B and gpt‑oss‑20B, both released under an Apache‑2.0‑style license. This means the weights are publicly available for anyone to fine‑tune, audit, or build on. A big step for open‑weight AI research—read more to see what this could mean for the community. #OpenAI #gptoss120B #gptoss20B #Apache2.0

🔗 https://aidailypost.com/news/openai-releases-gpt-oss-120b-gpt-oss-20b-under-apache-20-style-license

本地端跑 coding assistant 的方案

在 Hacker News 上看到「Ask HN: Who uses open LLMs and coding assistants locally? Share setup and laptop」這篇,在討論怎麼在本地端上跑 coding assistant 的方案。 裡面有人提到 Aider 搭 gpt-oss-120b 還不錯?如果要把 gpt-oss-120b 全上 GPU 的話好像得生出 64G...

Gea-Suan Lin's BLOG

Вам нужна RAM, а не VRAM. Параметр -cmoe для запуска больших и огромных моделей LLM локально. Ускоряем GPT-OSS-120B

Всё больше выходит больших MoE моделей с малым числом активных параметров. У MoE совсем другой сценарий нагрузки и использования ресурсов нежели у Dense моделей, достаточно немного VRAM. Большие MoE модели устроит 1 GPU и много обычной RAM. О том, как устроены MoE и как ускорить работу одним параметром не меняя железо.

https://habr.com/ru/articles/961478/

#llamacpp #cmoe #локальные_нейросети #gptoss120b #gptoss #cpumoe #qwen3 #deepseek #llm

Вам нужна RAM, а не VRAM. Параметр -cmoe для запуска больших и огромных моделей LLM локально. Ускоряем GPT-OSS-120B

Всё больше выходит больших MoE моделей с малым числом активных параметров. У MoE совсем другой сценарий нагрузки и использования ресурсов нежели у Dense моделей, достаточно немного VRAM. Большие MoE...

Хабр
Serving gpt-oss-120b at 5.8 ms TPOT with two RNGD cards: compiler…

Here are the key optimizations that enabled two RNGD cards to achieve 5.8 ms per output token for gpt-oss-120b, running under 180 W, in just weeks.

FuriosaAI

"Bạn đang chạy mô hình GPT-oss-120b trên MacBook Pro M4 128GB không? Thông qua cho biết nhé! 😊 Đang cân nhắc mua, muốn kiểm tra performance. #GPToss120b #MacBookProM4 #MôHìnhỐcT mẫu #MacBookProM4"

https://www.reddit.com/r/LocalLLaMA/comments/1oefgkn/anybody_running_gptoss120b_on_a_macbook_pro_m4/

When modern meet history, I have written for my work linux terminal #AI chat terminal with #sixel support (yep they were introduced in 1979). #gptoss120b is hosted with #llamacpp and client is written with python and Microsoft Autogen. For graphics output I am using libsixel-tools and all that is wrapped with Rich library. Python code is executed in #podman container. Btw all that is running on HP ZBook Ultra G1a 14 laptop. Yep I know it is just 500 lines of glue code.

GPT-OSS-20B / 120B: Сухие цифры после реальных тестов

GPT-OSS - тесты на реальном железе: производительность моделей 20B и 120B на RTX 4090, RTX 5090 и H100. Реальные метрики TPS, сравнение скорости генерации и практические выводы о том, какую модель выбрать для локального использования.

https://habr.com/ru/articles/938960/

#GPTOSS20B #GPTOSS120B #TPS_токены_в_секунду #RTX_4090_vs_RTX_5090 #Ollama #H100_PCIe #llm #локальная_LLM #VRAM_использование #vllm

GPT-OSS-20B / 120B: Сухие цифры после реальных тестов

OpenAI выпустила GPT-OSS модели ( https://huggingface.co/openai/gpt-oss-20b и https://huggingface.co/openai/gpt-oss-120b ) , и сообщество немедленно начало экспериментировать. Но реальные бенчмарки...

Хабр