Locally AI - Local AI Chat (@LocallyAIApp)
LFM 2.5 Thinking 1.2B 모델(@liquidai)이 iPhone과 iPad에서 이용 가능해졌습니다. 이 모델은 강력하고 효율적인 추론 능력을 제공하며 애플의 Apple MLX 위에서 온디바이스로 실행되어 '주머니 속 추론'을 목표로 합니다.
Locally AI - Local AI Chat (@LocallyAIApp)
LFM 2.5 Thinking 1.2B 모델(@liquidai)이 iPhone과 iPad에서 이용 가능해졌습니다. 이 모델은 강력하고 효율적인 추론 능력을 제공하며 애플의 Apple MLX 위에서 온디바이스로 실행되어 '주머니 속 추론'을 목표로 합니다.
布留川英一 / Hidekazu Furukawa (@npaka123)
무명 AI 기업이 개발한 초소형 일본어 LLM 'LFM 2.5-JP'의 성능이 매우 우수하다는 유튜브 소개 글입니다. 소형 일본어 모델의 등장으로 로컬/경량 모델 환경에서의 실용성 가능성과 일본어 처리 역량 향상을 시사합니다.
Locally AI - Local AI Chat (@LocallyAIApp)
LiquidAI의 LFM 2.5 모델 패밀리(1.2B)가 앱에서 사용 가능해졌습니다. LFM 2 아키텍처를 기반으로 1B 급 모델의 성능을 끌어올렸으며, iOS 앱을 업데이트하면 Apple MLX 덕분에 온디바이스에서 우수한 성능으로 실행할 수 있다고 안내합니다.

The new LFM 2.5 model family by @liquidai is now available in the app. The 1.2B model builds on the LFM 2 architecture and pushes the boundaries of what a 1B model can achieve. Update your iOS app to run it on-device, with best-in-class performance thanks to Apple MLX.
Liquid AI ra mắt LFM2-2.6B-Transcript, mô hình AI chép lời họp mã nguồn mở cực nhanh, sánh ngang các gã khổng lồ đóng kín.
Mô hình 2.6B tham số chạy trên thiết bị, sử dụng <3GB RAM, chép 60 phút họp trong 16 giây, chất lượng tóm tắt sánh ngang đám mây, tiết kiệm năng lượng và độ trễ thấp.
#LFM2 #LiquidAI #Transcription #AI #OnDevice #Summarization #ChépLời #TríTuệNhânTạo #AItrênThiếtBị #TómTắt
https://www.reddit.com/r/LocalLLaMA/comments/1q6nm6a/liquid_ai_releases_lfm226btranscript_an/
Awni Hannun (@awnihannun)
LFM2.5가 mlx-lm에서 M5 노트북으로 매우 빠른 prefill 성능을 보였습니다. 전체 정밀도 모델이 28k 토큰 프롬프트를 6초 미만(<6s)에 처리(>5k tok/s)하여, 소형 기기와 뉴럴 가속기를 활용한 온디바이스 추론에 적합한 경량 모델 후보로 평가됩니다.
Liquid AI ra mắt LFM2.5: Mô hình 1.2B với kiến trúc lai mới, tốc độ xử lý trên CPU nhanh gấp đôi Qwen3 và Llama 3.2. Tối ưu ở 4-bit, chạy hiệu quả trên điện thoại, laptop mà không cần kết nối cloud. Đánh dấu bước tiến lớn cho AI cục bộ, mở ra thời đại "dồi dào trí tuệ". #LiquidAI #LFM2.5 #AI #OnDeviceAI #TríTuệNhânTạo #CôngNghệ #AIcụcbộ
https://www.reddit.com/r/singularity/comments/1q5b2gj/lfm25_released_liquid_ai_brings_frontiergrade/
Mô hình LFM2 2.6B-Exp trên Android đạt 40+ TPS và 32K ngữ cảnh. Hiệu suất tương tự GPT-4. #LFM2 #GPT4 #AI #TríTuệNhânTạo #Android #MôHìnhHọcMáy
https://www.reddit.com/r/LocalLLaMA/comments/1q1k9g3/lfm2_26bexp_on_android_40_tps_and_32k_context/