Tìm kiếm các mô hình AI phi châu Á (Mỹ, Canada, châu Âu) hiệu quả trong gọi công cụ (tool calling) cho năm 2026. Người dùng từng dùng thử Llama3.1 8B, Mistral, GPT-OSS, Gemma 3... nhận thấy GPT-OSS là lựa chọn tốt nhất nhưng gặp phải lối mòn và quy định kiểm duyệt. Cần gợi ý mô hình mới ngoài danh sách đã thử.

#AILocal #LLM #GPTOSS #AIVietNam #CôngNghệ

https://www.reddit.com/r/LocalLLaMA/comments/1pxo9y5/what_nonasian_based_models_do_you_recommend_at/

Romain Huet (@romainhuet)

VB가 OpenAI의 DX 팀에 합류했다는 발표. 작성자는 이번 여름 gpt-oss로 Hugging Face에 모델을 공개하는 협업을 했음을 언급하며, 이제 OpenAI에서 개발자들과 함께 일하며 직접 피드백을 받고 빌드할 것이라며 기대를 표함. 오픈소스 모델 배포 및 개발자 지원 관련 소식.

https://x.com/romainhuet/status/2003504198357590281

#openai #gptoss #huggingface #developertools

Romain Huet (@romainhuet) on X

Thrilled to have VB joining the DX team at @OpenAI! We partnered on gpt-oss this summer to launch the models on @huggingface. I’m excited to now work together to build with developers and learn directly from their feedback.

X (formerly Twitter)
FOSS Advent Calendar - Door 23: Generating Text with Text-Generation-WebUI

Today we explore Text-Generation-WebUI, a FOSS tool that lets us run large language models locally through a simple web interface. For this demo, I am using 20B GPT-OSS from OpenAI in 4-bit quantization.

I tested it with a physics/chemistry prompt: "Derive the general formula for the energy levels of a particle confined in a 2D infinite square well potential (a 'quantum box') with side length L. Start from the time-independent Schrödinger equation and apply the appropriate boundary conditions." The model produced correct results, although LaTeX rendering had minor issues. You also get full access to its reasoning, so you can follow step by step how the model arrives at the solution.

Everything runs locally, so our data stays private and no cloud services are required. Text-Generation-WebUI is perfect for experimenting with AI, studying, or nerdy fun.

Pro tip: try giving the model a challenging physics, math, or coding problem and check its reasoning along with the answer.

Link: https://github.com/oobabooga/text-generation-webui

What problem would you test with your local language model, a math derivation, a story, or code snippet?

#FOSS #OpenSource #Linux #CLI #Terminal #TextGenerationWebUI #LocalAI #LanguageModels #GPTOSS #4bitQuant #NLP #NerdContent #AdventCalendar #OpenTools #FOSSAdvent #CommandLine #CreativeAI #AI #Fediverse #TechNerds #adventkalender #adventskalender #KI #ArtificialIntelligence #KünstlicheIntelligenz #llm
Sharing a question about LMStudio and GPU offloading on laptop : how do you offload LLM workload to GPU on a laptop with Nvidia T600 card under Linux Mint

https://vger.to/lemmy.zip/post/54938285 #ai #lmstudio #llm #linuxmint #gpu #gptoss
LMStudio on a Linux laptop: GPU issue

livebench.ai là nền tảng mới chuyên đánh giá và so sánh các mô hình AI mã nguồn mở. Cộng đồng đang bàn luận sôi nổi về bảng xếp hạng này, đặc biệt là so sánh Qwen 3 Next với GPT-OSS. Bạn nghĩ sao về thứ tự các mô hình này?
#AI #OpenSource #Livebench #LLM #Qwen #GPTOSS #Benchmark #TríTuệNhânTạo #MãNguồnMở #ĐánhGiáAI #MôHìnhNgônNgữ

https://www.reddit.com/r/LocalLLaMA/comments/1peuh30/httpslivebenchai_open_weight_models_only/

🚀 Deep Local is now torrent‑available!

🧲 Download via magnet: magnet:?xt=urn:btih:c34676c00044bb1b190150810df6c779f02cbb13&dn=DeepLocal_Setup_EN.exe&xl=50885031

⬇️ or from GitHub release v1.0.0: https://github.com/ShinRalexis/DeepLocal/releases/tag/v1.0.0 .

Install Ollama and Deep Local, and you’re ready for offline fast translation. Happy translating!

#DeepLocal #AI #Offline #Translator #Ollama #Privacy #Open #openSource #c #Windows #Torrent #Magnet #llm #csharp #gptoss #Gemma3 #Mistral #ayaexpanse #Download

Phát triển **trợ lý Git 3B** địa phương, chuyển đổi tiếng Anh thông thường thành lệnh Git chính xác — đạt độ chính xác của GPT-OSS 120B. #Git #TrợLýGit #GPTOSS #PhátTriểnCôngNghệ #CôngNgヘ TECHNOLOGY #GIT #AI

https://www.reddit.com/r/ollama/comments/1pbeesy/we_built_a_3b_local_git_agent_that_turns_plain/

오픈소스 LLM으로 MCP 에이전트 만들기: gpt-oss와 Hugging Face의 조합

OpenAI의 오픈소스 추론 모델 gpt-oss와 Hugging Face MCP를 결합해 AI 에이전트를 만드는 실전 가이드. 유료 API 없이도 강력한 에이전트 구축이 가능합니다.

https://aisparkup.com/posts/6941

Trong so sánh Qwen3-Next-80B-A3B và gpt-oss-120b cho tác vụ lập trình, gpt-oss-120b được đánh giá là vượt trội. Mô hình này cung cấp giải pháp chính xác, nhanh chóng hơn và yêu cầu ít lần thử hơn. Ngoài ra, gpt-oss-120b cũng tiết kiệm VRAM hơn đáng kể (65GB so với 85GB của Qwen3-Next 8-bit). Qwen3-Next có thể thiên về nghiên cứu kiến trúc hơn là ứng dụng thực tế.
#AI #LLM #Coding #Qwen3Next #gptoss #LậpTrình #MôHìnhNgônNgữ

https://www.reddit.com/r/LocalLLaMA/comments/1p9nckz/qwen3next80ba3b_vs_

Một người dùng chia sẻ trải nghiệm so sánh Qwen3-Next-80B-A3B và gpt-oss-120b cho lập trình tác nhân. gpt-oss-120b được đánh giá cao hơn vì đưa ra giải pháp tinh tế, chính xác và nhanh hơn, trong khi Qwen3-Next cần nhiều lần thử. gpt-oss-120b cũng tiết kiệm VRAM hơn đáng kể (65GB vs 85GB). Qwen3-Next có thể phù hợp hơn cho các mục đích nghiên cứu kiến trúc.
#AI #LLM #Coding #Qwen3Next #gptoss #MachineLearning #LậpTrình #MôHìnhNgônNgữLớn

https://www.reddit.com/r/LocalLLaMA/comments/1p9nckz/qwen3