RE: https://norden.social/@maik/116328948179344820

Artikel wie schon von Arstechnica. Die interessantere Frage ist wie lange es dauern wird bist auf dieser Basis Angriffe auf / mit / durch Claude Code gefahren werden. Und was für Effekte daraus zu sehen sein werden.

Abgesehen davon: Ich bin hier um mit Ihnen über das Wort Go...äh, OpenCode zu reden: https://opencode.ai/

Gleiches LLM coding, allerdings was Modelle angeht offen und inhärent gleich FOSS als Codebasis. Funktioniert auch mit Mistral, ist deutlich weiter entwickelt als Mistrals VibeCLI.
Kritik und Vorteile alle wie gehabt, mehr Auswahl und mehr Offenheit.

#ai #claude #claudecode #opencode #mistral #mistralvibe #codestral #devstral2 #devstral #llm #vibecoding

@Bit @plexus Well, after a few days with it, I'm going back to using Claude Code with Ollama. Opencode was just too brittle on my setup. Who knows, I might try again later.

Here's the script I'm using to call #devstral in #ollama from #claudecode
https://gist.github.com/rubix1138/be281b66971b02563fd4be5bd785b9dd

klaude - A script to lauch Claude Code CLI using Ollama

klaude - A script to lauch Claude Code CLI using Ollama - klaude.sh

Gist

Migliori LLM locali del 2026: usali con Ollama o LM Studio

https://www.risposteinformatiche.it/migliori-modelli-llm-locali-2026-ollama-lm-studio/

Playing with #OpenHands and #Devstral from #MistralAI. I already hit a RateLimitError 429 ☹️ I'm also missing the time I can resume my work. And yes, I have activated the tokens compression settings.

It's not today that I'll be able to evaluate whether it's better than Claude Code or not.

@MartinH hast du nicht #devstral 2 benutzt?

The internet(tm) claims that DevStral2 would be almost on par with Claude Sonnet 4.5.
Also, open weights model with 120B, i.e. reasonable on current om-prem hardware a la AMDs 395+.
Prices are also pretty ok if hosted, also: EU hostable.

Did anyone compare that thing to the above Claude model, ideally using Claude Code as control system?
I'd also be interested in on-prem reports, ideally also with one of the AMD 395+ UMA boxes.

#llm #claudecode #claude_sonnet_45 #sonnet45 #devstral #devstral2 #mistral #aicoding #uma #amd #amdstrixhalo

Who are using #devstral-small-2 with #Cline plugin on #intellij ? Do you think that they are the perfect combination to replace #Junie ?

#java

Mistral Vibe 2.0 bringt KI-Agenten in das Terminal. Anstatt auf IDE-Plugins zu setzen, integriert sich das Tool direkt in die Shell und Dateisysteme. Spezialisierte Sub-Agenten werden über Slash-Commands gesteuert. Ein neues Klärungssystem verhindert Halluzinationen durch Auswahlmenüs bei Unklarheiten. Zugriff auf das volle Tool erfordert kostenpflichtige Pläne. #MistralVibe #MistralAI #Devstral
https://www.all-ai.de/news/news26top/mistral-vibe-2
Mistral Vibe 2.0 bringt KI-Agenten direkt in das Terminal

Neue Version integriert spezialisierte Sub-Agenten und Slash-Commands für effizientere Workflows ohne grafische Oberfläche.

All-AI.de

Got Mistral's vibe-cli up and running towards a local Ollama instance with devstral-2-small. Let's see if it can understand my retro game coding level editor (written in Java).

#Mistral #Devstral

Hướng dẫn nhanh cấu hình Aider với mô hình local: tạo 3 file trong ~/.
1️⃣ ~/.aider.conf.yml → endpoint, API‑key, model và đường dẫn file khác.
2️⃣ ~/.aider.model.settings.yml → định dạng diff, repo map, v.v.
3️⃣ ~/.aider.model.metadata.json → max tokens, chi phí.
Lưu ý: luôn prepend “openai/” vào model ID; Aider sẽ tự xóa khi gửi tới server. #Aider #CấuHình #LLM #OpenAI #Mistral #Devstral #Linux

https://www.reddit.com/r/LocalLLaMA/comments/1qis3y9/aiders_documentation_for_getting_conne