📚 Hướng dẫn toàn diện thiết lập AI cục bộ: Ollama, Qwen, Continue.dev, yêu cầu phần cứng, lỗi thường gặp và benchmark. Dựa trên r/LocalLLaMA, HN và cộng đồng. #AI #LocalAI #LậpTrìnhAI #CôngNghệ #AIcụcbộ #Ollama #Qwen #ContinueDev

https://www.reddit.com/r/programming/comments/1q1c37w/compiled_a_guide_to_local_ai_coding_from/

Thay thế Gemini CLI & Copilot bằng stack local với Ollama, Continue.dev và MCP servers. Giúp giữ code trên máy, ngừng trả phí hàng tháng và vẫn nhận được sự hỗ trợ "trợ lý" trong editor #LocalFirst #AI #LLaMA #Ollama #ContinueDev #MCP #TrợLýLocall #PhátTriển_LOCALL #ThayThế_Cloud_AI

https://www.reddit.com/r/LocalLLaMA/comments/1p6nf1r/how_i_replaced_gemini_cli_copilot_with_a_local/

Có thể sử dụng Continue.dev CLI mà không cần tài khoản? Người dùng muốn sử dụng công cụ coding locally và không muốn chia sẻ dữ liệu với các công ty lớn. #ContinueDev #CLILocal #NoAccount #LocalLLaMA #CôngCụLậpTrình #TựHost

https://www.reddit.com/r/LocalLLaMA/comments/1ospyy3/continuedev_cli_with_no_account_is_it_possible/

Một người dùng Mac Mini M4 (16GB) đang tìm kiếm các công cụ và mô hình AI để chạy cục bộ, hỗ trợ lập trình. Họ đã thử Continue.dev + Ollama + qwen2.5-coder:7B để tự động hóa code mẫu, script bash, Python cơ bản. Cần lời khuyên về cách hiệu quả hơn, mô hình tốt cho các tác vụ này (tốc độ >15 token/giây) và tích hợp tốt với VS Code.

#MacMini #M4 #AI #LocalLLaMA #CodingAssistant #Ollama #ContinueDev #TrợLýLậpTrình #MôHìnhAI #MáyChủCụcBộ #PhầnCứngApple

https://www.reddit.com/r/LocalLLaMA/comments/

Alla fine l’ho provato, ottenendo sicuramente risultati migliori che i semplici completamenti di testo offerti da altri plugin.

Rispetto alla configurazione proposta ho utilizzato Qwen3:14b invece del MOE, anche per limiti di memoria a disposizione. Inoltre ho utilizzato Intellij IDEA in una macchina diversa da quella su cui risiede ollama. Cioè in realtà fisicamente sono la stessa ma una e’ […]

#ai #continueDev #ollama #openwebui #qwen3 #software #sviluppo

https://www.b0sh.net/2025/08/coding-agent-con-ollama-qwen3-continue-parte-2/

Quanto segue e’ la traduzione di Build a LOCAL AI Coding Assistant: Qwen3 + Ollama + Continue.dev (Blazing Fast & Fully Private!) … non ho ancora provato il setup ma son molto curioso e lo faro’ a breve.

Volevo condividere il mio percorso nell’utilizzare diversi assistenti AI per la programmazione — da GitHub Copilot a Cursor e ora a Windsurf — e come infine ho trovato il punto ideale […]

#ai #codingAgent #continueDev #ollama #qwen3

https://www.b0sh.net/2025/08/coding-agent-con-ollama-qwen3-continue-parte-1/

Share to Mastodon - AddToAny

Как ИИ помогает мне в разработке?

Привет, это снова oldzoomer, и сейчас я расскажу, как ИИ помогает мне освободить себя от рутинных задач, и заниматься исключительно любимым делом.

https://habr.com/ru/articles/925284/

#вайбкодинг #lm_studio #bolt #continuedev

Как ИИ помогает мне в разработке?

Привет, это снова oldzoomer, и сейчас я расскажу, как ИИ помогает мне освободить себя от рутинных задач, и заниматься исключительно любимым делом. Насчёт вайбкодинга Да, в каком-то смысле я являюсь...

Хабр

Как запустить локальную LLM (AI) в Android Studio

Привет! Если вы мобильный разработчик и следите за AI-трендами, наверняка задумывались о том, как интегрировать языковые модели (LLM) в свои приложения прямо из Android Studio. В этой статье я расскажу, как это можно сделать быстро и просто, не полагаясь на внешние API и облачные решения.

https://habr.com/ru/articles/904648/

#kotlin #android_studio #continuedev #lmstudio #local_llm

Как запустить локальную LLM (AI) в Android Studio

Привет! Если вы мобильный разработчик и следите за AI-трендами, наверняка задумывались о том, как интегрировать языковые модели (LLM) в свои приложения прямо из Android Studio. В этой статье я...

Хабр

Devs utilising #AI in their IDE should check out Continue, it's #OpenSource and works with VS Code and JetBrains - pretty cool stuff, especially if you use Cursor already.

#ContinueDev

https://www.continue.dev/

Continue - Ship faster with Continuous AI

The future of coding isn't writing more code. It's delegating the boring parts, so you can build the interesting stuff