🧠🔧 LFM2-24B-A2B: Because what the world really needed was yet another alphabet soup of technobabble claiming to be "efficient" and "scalable." 🤖💼 Spoiler alert: it's basically a glorified AI sales pitch wrapped in jargon, with a side of "customizable" buzzword salad. 🥗📈
https://www.liquid.ai/blog/lfm2-24b-a2b #LFM2-24B-A2B
#AItechnobabble #buzzwordsalad #efficient #scalable #salespitch #HackerNews #ngatedLFM2-24B-A2B: Scaling Up the LFM2 Architecture | Liquid AI
Today, we release an early checkpoint of LFM2-24B-A2B, our largest LFM2 model. This sparse Mixture of Experts (MoE) model has 24 billion total parameters with 2 billion active per token, showing that the LFM2 architecture scales effectively to larger sizes.
LFM2-24B-A2B: Scaling Up the LFM2 Architecture | Liquid AI
Today, we release an early checkpoint of LFM2-24B-A2B, our largest LFM2 model. This sparse Mixture of Experts (MoE) model has 24 billion total parameters with 2 billion active per token, showing that the LFM2 architecture scales effectively to larger sizes.
Locally AI - Local AI Chat (@LocallyAIApp)
LFM 2.5 Thinking 1.2B 모델(@liquidai)이 iPhone과 iPad에서 이용 가능해졌습니다. 이 모델은 강력하고 효율적인 추론 능력을 제공하며 애플의 Apple MLX 위에서 온디바이스로 실행되어 '주머니 속 추론'을 목표로 합니다.
https://x.com/LocallyAIApp/status/2014035520154702160
#lfm2.5 #reasoning #applemlx #liquidai

Locally AI - Local AI Chat (@LocallyAIApp) on X
LFM 2.5 can now think.
The new LFM 2.5 Thinking 1.2B model by @liquidai is now available on iPhone and iPad.
The model brings powerful and efficient reasoning in your pocket. Running on-device powered by Apple MLX.
X (formerly Twitter)布留川英一 / Hidekazu Furukawa (@npaka123)
무명 AI 기업이 개발한 초소형 일본어 LLM 'LFM 2.5-JP'의 성능이 매우 우수하다는 유튜브 소개 글입니다. 소형 일본어 모델의 등장으로 로컬/경량 모델 환경에서의 실용성 가능성과 일본어 처리 역량 향상을 시사합니다.
https://x.com/npaka123/status/2010139381538173425
#llm #japanese #lfm2.5jp #smallmodel

布留川英一 / Hidekazu Furukawa (@npaka123) on X
無名AI企業が作った超小型日本語LLMの性能が高すぎる【LFM 2.5-JP】 https://t.co/WoaFeZRXKm @YouTubeより
X (formerly Twitter)Locally AI - Local AI Chat (@LocallyAIApp)
LiquidAI의 LFM 2.5 모델 패밀리(1.2B)가 앱에서 사용 가능해졌습니다. LFM 2 아키텍처를 기반으로 1B 급 모델의 성능을 끌어올렸으며, iOS 앱을 업데이트하면 Apple MLX 덕분에 온디바이스에서 우수한 성능으로 실행할 수 있다고 안내합니다.
https://x.com/LocallyAIApp/status/2009686759412740130
#lfm2.5 #liquidai #applemlx #ondevice #llm

Locally AI - Local AI Chat (@LocallyAIApp) on X
The new LFM 2.5 model family by @liquidai is now available in the app.
The 1.2B model builds on the LFM 2 architecture and pushes the boundaries of what a 1B model can achieve.
Update your iOS app to run it on-device, with best-in-class performance thanks to Apple MLX.
X (formerly Twitter)Liquid AI ra mắt LFM2-2.6B-Transcript, mô hình AI chép lời họp mã nguồn mở cực nhanh, sánh ngang các gã khổng lồ đóng kín.
Mô hình 2.6B tham số chạy trên thiết bị, sử dụng <3GB RAM, chép 60 phút họp trong 16 giây, chất lượng tóm tắt sánh ngang đám mây, tiết kiệm năng lượng và độ trễ thấp.
#LFM2 #LiquidAI #Transcription #AI #OnDevice #Summarization #ChépLời #TríTuệNhânTạo #AItrênThiếtBị #TómTắt
https://www.reddit.com/r/LocalLLaMA/comments/1q6nm6a/liquid_ai_releases_lfm226btranscript_an/
Awni Hannun (@awnihannun)
LFM2.5가 mlx-lm에서 M5 노트북으로 매우 빠른 prefill 성능을 보였습니다. 전체 정밀도 모델이 28k 토큰 프롬프트를 6초 미만(<6s)에 처리(>5k tok/s)하여, 소형 기기와 뉴럴 가속기를 활용한 온디바이스 추론에 적합한 경량 모델 후보로 평가됩니다.
https://x.com/awnihannun/status/2008569887124582883
#lfm2.5 #edgeai #mlxlm #ondevice

Awni Hannun (@awnihannun) on X
LFM2.5 has pretty fast prefill on an M5 laptop with mlx-lm. The full precision model processes a 28k token prompt in < 6 seconds (>5k tok/s).
Could be a very nice model for small devices with neural accelerators.
X (formerly Twitter)Liquid AI ra mắt LFM2.5: Mô hình 1.2B với kiến trúc lai mới, tốc độ xử lý trên CPU nhanh gấp đôi Qwen3 và Llama 3.2. Tối ưu ở 4-bit, chạy hiệu quả trên điện thoại, laptop mà không cần kết nối cloud. Đánh dấu bước tiến lớn cho AI cục bộ, mở ra thời đại "dồi dào trí tuệ". #LiquidAI #LFM2.5 #AI #OnDeviceAI #TríTuệNhânTạo #CôngNghệ #AIcụcbộ
https://www.reddit.com/r/singularity/comments/1q5b2gj/lfm25_released_liquid_ai_brings_frontiergrade/