ollama cloud ist geil
gleicher preis wie z.b. openai aber zugriff auf mehrere modell aber man kann es auch gratis nutzen
und die prompts und responses werden nicht fürs training genutzt

drawback: keine transparenz bei den limiten - ich habe mit qwen3-coder und opencode in 5 minuten mein gesamtes free limit verballert 😂
nanocoder ist da weitaus sparsamer, ist allerdings paar mal abgestürzt
#KI #ollama #nanocoder #opencode #qwen3coder

Giới thiệu ayder-cli – Agent lập trình cục bộ hoạt động mượt với Ollama & Qwen3-Coder. Sử dụng XML thay JSON để tránh lỗi, chỉnh sửa tinh gọn, hỗ trợ tìm kiếm mã bằng ripgrep. Tự động xử lý task qua file Markdown, an toàn với xác nhận từng bước. Phù hợp Mac Silicon hoặc GPU mạnh. Dùng miễn phí, không lo hết token.
#AICodingAgent #Ollama #Qwen3Coder #DeveloperTools #aydercli #CôngCụLậpTrình #TríTuệNhânTạo #AIĐịaPhương #LậpTrìnhMáyHọc #CodeAssistant

https://www.reddit.com/r/LocalLLaMA/comments/

Finally got #goose running locally with #ollama and #qwen3-coder. A bit of a pain in the ass to set up, but I wanted a local option for simple tasks when my Cursor usage quota is depleted. I was able to do simple stuff like find and update copyright notices, but I haven't tried much beyond this. Last time I tried coding with local models was over a year ago so I'm hoping capabilities have evolved.

🎄Chúc mừng holiday! 🚀 Nebius phát hành 67,074 đường dẫn giao tiếp Qwen3-Coder OpenHands trên SWE‑rebench + 2 checkpoints fine‑tuned RFT. 1,800+ repo Python, 3,800 issue đã được sửa – mỗi chuỗi trung bình 64 bước, độ dài tới 131k token. Checkpoints nâng Pass@1 lên 50% và 62%. Dữ liệu, mã nguồn và mô hình đều được công khai trên Hugging Face. #Qwen3Coder #OpenHands #SWErebench #AI #ViAI #MachineLearning #DataScience

https://www.reddit.com/r/LocalLLaMA/comments/1puxedb/we_release_67074_qwen3code

Мой опыт настройки и использования AI инструментов в разработке

Локальные LLM для кода — пока мусор. По крайней мере на M1 Max 32GB Тестировал 5 моделей на реальном проекте. Результат: qwen3-coder-30b - завис после 44k токенов qwen2.5-coder-14b - ушёл в бесконечные вопросы qwen3-8b - пыталась выполнить list_files в терминале deepseek-coder - сломал файл со второй попытки При этом DeepSeek через API за 95₽ сделал три валидных изменения за 11 минут. Вывод: если нет жёстких требований к конфиденциальности - не мучайте свое железо. Claude Code или облачный DeepSeek работают в разы лучше. Подробный разбор с промптами, настройками и ценами провайдеров в статье. Перейти

https://habr.com/ru/articles/973404/

#cursor #claude_code #deepseek #qwen #qwen3coder #kiro #perplexity #gemini #lm_studio #mcp

Мой опыт настройки и использования AI инструментов в разработке

Способы написания кода с АИ Принципиально есть несколько способов писать код с использованием AI вставлять части кода в DeepSeek , Qwen , Perplexity , Gemini купить подписку за 20 USD на сервис Cursor...

Хабр

Cách sử dụng Qwen 3 coder trong VS Code với NVIDIA DGX Spark? Sử dụng Ollama, vLLM hay FastAPI model server? Ai đã từng làm điều tương tự? #Qwen3 #VSCode #NVIDIADGXSpark #LLM #LocalLLaMA #LậpTrình #Python #GPU #DGXSpark #Qwen3Coder #CodewithQwen3 #LocalLLM

https://www.reddit.com/r/LocalLLaMA/comments/1p1ym2j/how_do_i_use_qwen_3_coder_locally_in_vs_code/

Got #qwen3coder 30B #LLM to work on #Framework Desktop. I tested it with e.g. "Write an Angular login page to oauth idp server. Use best practices. use HttpOnly cookies." and few others. It thinks few seconds and writes the code about in 30 seconds. The codes looked okay. I'm satisfied what i got.

And it's quiet - even when thinking! The monster multi-GPU AI machines are so outdated with a price of one 5090.

I followed https://github.com/pablo-ross/strix-halo-gmktec-evo-x2/blob/main/ROADMAP.md to install #llamacpp. Some changes from it:
- Skipped kernel update due to newer Ubuntu 25.10.
- Got sudo group error from distrobox. Removed --group-add sudo from distrobox create.
- Tweaked run parameters. I hacked them with trial and error. Looks like i can increase "context size" a lot.
Current command to run Qwen is:
```
distrobox enter llama-rocm-7rc-rocwmma -- ~/llama.cpp/build/bin/llama-cli -m ~/models/qwen3-coder-30B-A3B/BF16/Qwen3-Coder-30B-A3B-Instruct-BF16-00001-of-00002.gguf --no-mmap -ngl 99 --ctx_size 16384 -n 20000
```
#homelab #AI

strix-halo-gmktec-evo-x2/ROADMAP.md at main · pablo-ross/strix-halo-gmktec-evo-x2

Configuration and documentation for optimizing Ubuntu 24.04 on AMD Ryzen AI Max+ 395 with Radeon 8060S for LLM inference using llama.cpp with ROCm 7 RC and rocWMMA. - pablo-ross/strix-halo-gmktec-e...

GitHub

Cài đặt dual Macbook cho coding LLM ngoại tuyến với Qwen3 Coder 30B A3B. Một MBP M2 Max 64GB làm server LLM, một MBP M1 Pro 16GB làm client chạy Claude Code. #LLM #Coding #Macbook #Qwen3Coder #ClaudeCode #LocalLLaMA #MáyTính #LậpTrình #TríTuệNhânTạo

https://www.reddit.com/r/LocalLLaMA/comments/1os187j/my_dual_mbp_setup_for_offline_llm_coding_w_qwen3/

Been using #AI (#Claude, #GPT5, #qwen3coder, and a few others) to help me write #code lately and I wanted to send a suggestion to #Anthropic but they have no feedback form on their website!

I even *asked Claude* how to send Anthropic feedback and it offered no option other than thumbs up/down in a chat. That's not what this is! :sigh:

I guess they'll never learn about my brilliant, money-making idea that would save a lot of developers a lot of trouble 🤷

"Codex-Cli kết nối thành công với Qwen3-Coder nhưng gặp Trong độ khランス-help. Trong bài expérimen, Qwen3-Coder-30b thường dừng sau vài l tante mà không hoàn thành hành động như 'chỉnh xinh X' mà không gọi tool. L vendre chỉ một số file,_set context 65k cũng ổn. Tổng ẩn chiroformer m Từ số câu trả lời không gọi tool? Mời chiaseen!"

#CodexCLI #Qwen3Coder #AI #Tinh Bay #OpenSource #Dev

https://www.reddit.com/r/LocalLLaMA/comments/1o9wn6x/codexcli_with_qwen3coder/