Liquid AI releases LFM2-24B-A2B, a hybrid architecture that blends attention with convolutions to solve modern LLM scaling bottlenecks: Using a 1:3 ratio of attention to gated convolutions with sparse MoE, the model achieves 24B parameters while only activating 2.3B, fitting in 32GB RAM for local deployment. https://www.marktechpost.com/2026/02/25/liquid-ais-new-lfm2-24b-a2b-hybrid-architecture-blends-attention-with-convolutions-to-solve-the-scaling-bottlenecks-of-modern-llms/ #AIagent #AI #LLM #GenAI #LiquidAI
Liquid AI’s New LFM2-24B-A2B Hybrid Architecture Blends Attention with Convolutions to Solve the Scaling Bottlenecks of Modern LLMs

Liquid AI’s New LFM2-24B-A2B Hybrid Architecture Blends Attention with Convolutions to Solve the Scaling Bottlenecks of Modern LLMs

MarkTechPost
Whistleblowing as a Shield: Protecting the Voices That Keep AI Safe  - Untold

From OpenAI to Google, insiders who warn about unsafe AI face retaliation, not protection, revealing a dangerous gap between technological power and public accountability

Untold Mag

LiquidAI ra mắt LFM2.5-1.2B-Thinking: Mô hình suy luận 1.2 tỷ tham số chạy hoàn toàn trên điện thoại với chỉ 900MB RAM. Tạo ra chuỗi suy nghĩ nội bộ trước khi trả lời, tối ưu giải quyết vấn đề trong thời gian thực. Vượt qua Qwen3-1.7B dù nhỏ hơn 40% tham số. Hiệu suất cao, tiết kiệm bộ nhớ – sẵn sàng sử dụng ngay hôm nay! #AI #OnDeviceAI #LiquidAI #TríTuệNhânTạo #CôngNghệ #AItrênđiệnthoại #SuyLuậnMáy

https://www.reddit.com/r/singularity/comments/1qknn3y/liquidai_released_lfm25_thinking_runs_ent

Locally AI - Local AI Chat (@LocallyAIApp)

LFM 2.5 Thinking 1.2B 모델(@liquidai)이 iPhone과 iPad에서 이용 가능해졌습니다. 이 모델은 강력하고 효율적인 추론 능력을 제공하며 애플의 Apple MLX 위에서 온디바이스로 실행되어 '주머니 속 추론'을 목표로 합니다.

https://x.com/LocallyAIApp/status/2014035520154702160

#lfm2.5 #reasoning #applemlx #liquidai

Locally AI - Local AI Chat (@LocallyAIApp) on X

LFM 2.5 can now think. The new LFM 2.5 Thinking 1.2B model by @liquidai is now available on iPhone and iPad. The model brings powerful and efficient reasoning in your pocket. Running on-device powered by Apple MLX.

X (formerly Twitter)

Locally AI - Local AI Chat (@LocallyAIApp)

LiquidAI의 LFM 2.5 모델 패밀리(1.2B)가 앱에서 사용 가능해졌습니다. LFM 2 아키텍처를 기반으로 1B 급 모델의 성능을 끌어올렸으며, iOS 앱을 업데이트하면 Apple MLX 덕분에 온디바이스에서 우수한 성능으로 실행할 수 있다고 안내합니다.

https://x.com/LocallyAIApp/status/2009686759412740130

#lfm2.5 #liquidai #applemlx #ondevice #llm

Locally AI - Local AI Chat (@LocallyAIApp) on X

The new LFM 2.5 model family by @liquidai is now available in the app. The 1.2B model builds on the LFM 2 architecture and pushes the boundaries of what a 1B model can achieve. Update your iOS app to run it on-device, with best-in-class performance thanks to Apple MLX.

X (formerly Twitter)

Liquid AI ra mắt LFM2-2.6B-Transcript, mô hình AI chép lời họp mã nguồn mở cực nhanh, sánh ngang các gã khổng lồ đóng kín.

Mô hình 2.6B tham số chạy trên thiết bị, sử dụng <3GB RAM, chép 60 phút họp trong 16 giây, chất lượng tóm tắt sánh ngang đám mây, tiết kiệm năng lượng và độ trễ thấp.

#LFM2 #LiquidAI #Transcription #AI #OnDevice #Summarization #ChépLời #TríTuệNhânTạo #AItrênThiếtBị #TómTắt

https://www.reddit.com/r/LocalLLaMA/comments/1q6nm6a/liquid_ai_releases_lfm226btranscript_an/

🧠 Đánh giá mô hình LiquidAI LFM2.5‑VL‑1.6B (OCR)
- Đôi khi nhầm lẫn ký tự/ số (9 ↔ 8, T ↔ 1) → không dùng cho nhãn dinh dưỡng hay tem tài sản.
- Giỏi nhận dạng chủ đề trên ảnh nhỏ (screenshot, Reddit).
- Ảnh chụp trang dài có thể rơi vào vòng lặp lặp lại.
- Văn bản dày đặc gây lỗi.
- Token ảnh tối ưu 256‑512; giảm xuống 64‑256 làm giảm độ chính xác.

#AI #OCR #LiquidAI #MôHìnhAI #NhậnDạngVănBản #TechVietnam #CôngNghệ 🌐

https://www.reddit.com/r/LocalLLaMA/comments/1q6331b/model_rev

Liquid AI ra mắt LFM2.5 1.2B Instruct – mô hình ngôn ngữ nhỏ gọn nhưng hiệu suất cao, tối ưu cho tác vụ hướng dẫn. Hứa hẹn cải thiện khả năng suy luận và phản hồi chính xác hơn trong ứng dụng thực tế. Phù hợp với thiết bị có tài nguyên hạn chế. #AI #LiquidAI #LLM #InstructModel #TríTuệNhânTạo #MôHìnhNgônNgữ #CôngNghệMới

https://www.reddit.com/r/singularity/comments/1q5f1z3/liquid_ai_released_lfm25_12b_instruct/

Liquid AI ra mắt LFM2.5 1.2B Instruct – mô hình nền tảng nhỏ gọn, tối ưu cho thiết bị di động với 1.2 tỷ tham số. Cải tiến kiến trúc hybrid, huấn luyện trên 28T tokens, hỗ trợ đa phương thức, độ trễ thấp và khả năng tuân thủ lệnh nâng cao. Phù hợp cho ứng dụng agent cục bộ hiệu suất cao. #AI #LLM #LiquidAI #OnDeviceAI #MôHìnhNgônNgữ #TríTuệNhânTạo #AIcụcbộ

https://www.reddit.com/r/LocalLLaMA/comments/1q5f1jz/liquid_ai_released_lfm25_12b_instruct/

Liquid AI ra mắt LFM2.5: Mô hình 1.2B với kiến trúc lai mới, tốc độ xử lý trên CPU nhanh gấp đôi Qwen3 và Llama 3.2. Tối ưu ở 4-bit, chạy hiệu quả trên điện thoại, laptop mà không cần kết nối cloud. Đánh dấu bước tiến lớn cho AI cục bộ, mở ra thời đại "dồi dào trí tuệ". #LiquidAI #LFM2.5 #AI #OnDeviceAI #TríTuệNhânTạo #CôngNghệ #AIcụcbộ

https://www.reddit.com/r/singularity/comments/1q5b2gj/lfm25_released_liquid_ai_brings_frontiergrade/