Für das Tuxedo Notebook wollte ich gestern optimistisch RAM kaufen. Aktuell sind 32GB drin. Für Spielereien mit Ollama und lokal installiertem mixtral:8x7b ist das etwas mager. 128er Riegel sind gar keine mehr verfügbar und 2x64GB kosten 940.- 😲
Hätte ich doch nur auf meinen Instinkt gehört und beim Kauf des Notebooks direkt 128GB bestellt - damals, als die Preise noch normal waren.

#ram #ai #ollama #localllm #mixtral8x7b

Let's say I have a large codebase written in #TypeScript that I wish to transform into another language, like #Rust.

Which service would be great to do so, that could operate locally, and hopefully, automatically?

Asking for a friend.

#Programming #Programmers #Coding #Code #SoftwareDevelopment #WebDevelopment #WebDev #AppDevelopment #CLI #Linux #FOSS #OSS #OpenClaw #Claude #Codex #Llama #Ollama #LlamaCCP #LLM #LargeLanguageModel #AI #LMStudio

@darkghosthunter I think you might need the #ollama or #llamacpp tags on that question to get better answers, if you want to know about running locally.
🤯 Wow, try the latest #Ollama with experimental #MLX support on Mac! I tried qwen3.5:35b-a3b-mxfp8, and it's more than 1.7x faster than q8_0! #LLM #AI #ML @vick21 @FreakyFwoof

OllamaがAppleシリコン向けに「MLX」をネイティブ統合:ローカルAIで最大2倍の高速化を実現

テクノロジー業界における「AIの実行場所」を巡る力学は確実に変化しているようだ。ローカル環境での大規模言語モデル(LLM)実行を支援するプラットフォーム「Ollama」は、Appleのオープンソース機械学習フレームワーク「MLX」へのネイティブ対応を特徴とするバージョン0.19のプレビュー版を公開した。このアップデートは、これまでクラウドベースのAPIに依存してきたAI開発やエージェント操作の基盤を、エンドユーザーの端末側へと引き寄せる技術的なマイルストーンと言えるだろう。 ユニファイドメモリの真価を引き出すアーキテクチャ統合 従来のパーソナルコンピュータにおける機械学習アプローチは、中央演算処理装置(CPU)と画像処理半導体(GPU)が物理的に分離されたメモリプールを持つことを前提としてきた。この構造では、膨大なパラメータを持つLLMを動作させる際、CPUからGPUへのデータ転送自体がボトルネックとなる。 ハードウェアとソフトウェアの完璧な同期 Appleシリコン(M1以降のチップセット)の最大の特徴は、CPUとGPUが単一の巨大なメモリプールを共有する「ユニファイドメモリアーキテクチャ」を採用している点にある。Appleが開発したMLXは、このハードウェア上の特性をソフトウェア側から直接利用するために設計されたフレームワークだ。Ollamaは今回のアップデートにより、MLXの共有メモリモデルを深いレベルで統合した。 その結果として生じるのは、データ転送オーバーヘッドの劇的な削減である。LLMの推論処理において、メモリ帯域幅はスループットを決定づける最重要要因となる。OllamaがMLXを経由してユニファイドメモリに直接アクセス可能となったことで、レイテンシが大幅に低下し、スループットが飛躍的に向上したのだ。 ベンチマークが示す推論能力の飛躍的な向上 アーキテクチャの刷新は、実際のベンチマーク結果に明確な数値として表れている。Ollamaが公開した内部テスト(テスト対象はAlibabaの「Qwen3.5-35B-A3B」モデル)によると、Appleの最新チップセットであるM5、M5 […]

https://xenospectrum.com/ollama-mlx-apple-silicon-nvfp4-local-ai/

Berber greeting translates to ‘Good day!’ in English

In Berber (Tamaziɣt), a common greeting is "Ahel zuweyn!" which translates to "Good day!" in English. The modern Berber language, known as Tamazight, is spoken by over 40 million people across North Africa and is officially recognized in Morocco, Algeria, and Tunisia. A fun fact: Berber languages have preserved many ancient words and grammatical structures that are not found in many other languages, making them a fascinating window into the past. ProtoVisionXL image model: […]

https://ai.forfun.su/2026/04/01/berber-greeting-translates-to-good-day-in-english/

Running local models on Macs gets faster with Ollama's MLX support https://arstechni.ca/ySBu #Applesilicon #alibaba #ollama #Apple #apple #Qwen #mlx #AI
Running local models on Macs gets faster with Ollama's MLX support

Apple Silicon Macs get a performance boost thanks to better unified memory usage.

Ars Technica

Alex Cheema (@alexocheema)

Ollama의 MLX 백엔드, Microsoft의 BitNet B1.58 2B 4T 모델, TurboQuant 논문 등 관련 स्रोत을 제시합니다. 경량화된 로컬 LLM과 양자화 기술을 추적하는 데 유용한 참고 링크 모음입니다.

https://x.com/alexocheema/status/2039118970628751379

#ollama #bitnet #mlx #llm #quantization

Alex Cheema (@alexocheema) on X

Sources: - https://t.co/Vl7a55t4jP - https://t.co/BpoeHkipag - https://t.co/6x1ysoZHFB

X (formerly Twitter)

Alex Cheema (@alexocheema)

ollama의 MLX 백엔드, Microsoft의 1-bit LLM, TurboQuant 논문이 이미 이전에 공개되었다며 최신 뉴스만 따라가면 뒤처진다고 언급합니다. AI 경량화와 양자화 관련 중요한 기술 흐름을 상기시키는 내용입니다.

https://x.com/alexocheema/status/2039118170242285798

#ollama #mlx #quantization #llm #microsoft

Alex Cheema (@alexocheema) on X

If you are following news cycles, you are way behind. - ollama MLX backend was out 3 months ago - Microsoft released a 1-bit LLM a year ago - TurboQuant paper was published last April

X (formerly Twitter)

I really hate the title "prompt engineer" but it came to mind today as I was refining my #DwarfFortress #ollama prompt to get good story summaries after large battles.

It should be noted that a 9700+ line gamelog file is probably too much to ask it to reason through.

https://pastebin.com/pwmmkt47

#LLM #gaming

dwarf fortress siege 2 - Pastebin.com

Pastebin.com is the number one paste tool since 2002. Pastebin is a website where you can store text online for a set period of time.

Pastebin