codex 接 Ollama 的方式
前陣子在想要怎麼在本地端跑 coding 工具,剛剛看到 Simon Willison 的「Using Codex CLI with gpt-oss:120b on an NVIDIA DGX Spark via Tailscale」這篇,在講怎麼跑 gpt-oss:120b: 重點是這個: CODEX_OSS_BASE_URL=http://100.100.100.
Gea-Suan Lin's BLOG本地端跑 coding assistant 的方案
在 Hacker News 上看到「Ask HN: Who uses open LLMs and coding assistants locally? Share setup and laptop」這篇,在討論怎麼在本地端上跑 coding assistant 的方案。 裡面有人提到 Aider 搭 gpt-oss-120b 還不錯?如果要把 gpt-oss-120b 全上 GPU 的話好像得生出 64G...
Gea-Suan Lin's BLOGOpenAI 放出兩個 Apache License 2.0 的 Model:gpt-oss-20b 與 gpt-oss-120b
OpenAI 上次放 model 出來應該是 GPT-3 的事情了?在 Hacker News 上馬上就登上首位了:「OpenAI Open Models (openai.com)」,OpenAI 的新聞稿在這:「Open models by OpenAI」,另外有一篇比較多效能表現的資料在這:「Introducing gpt-oss」。 授權是用...
Gea-Suan Lin's BLOG