AI Leaks and News (@AILeaksAndNews)

Google DeepMind가 소형 모델 'Gemini 3.1 Flash-Lite'를 공개했습니다. 가격은 입력 토큰 1M당 $0.25, 출력 토큰 1M당 $1.50이며, 여러 벤치마크에서 이전 버전인 Gemini 2.5 Flash를 능가한다고 보고되었습니다. 구글의 새로운 소형 모델 발표로, 비용·성능 면에서 주목받는 릴리스입니다.

https://x.com/AILeaksAndNews/status/2028873357169430645

#gemini #deepmind #llm #smallmodel #google

AI Leaks and News (@AILeaksAndNews) on X

Google DeepMind have released Gemini 3.1 Flash-Lite The new small AI model is priced at 25¢/1M input tokens and $1.50/1M output tokens and surpasses Gemini 2.5 Flash on several benchmarks An impressive new small model from Google

X (formerly Twitter)

金のニワトリ (@gosrum)

Qwen3.5의 Small 모델(9B 이하)은 코딩 에이전트 용도보다는 소형 비전 모델로 활용하는 편이 적용 범위가 더 넓을 것으로 보인다는 관찰입니다. 향후 이러한 용도 차이를 정량화해 평가하겠다는 계획을 밝히고 있습니다.

https://x.com/gosrum/status/2028686836051427708

#qwen3.5 #llm #vision #smallmodel

金のニワトリ (@gosrum) on X

Qwen3.5のSmall model(9B以下)はコーディングエージェントというよりは、小型ビジョンモデルとして用いる方が活用の幅が広そう 今後、そのあたりも定量化して評価できるようにしたい

X (formerly Twitter)

布留川英一 / Hidekazu Furukawa (@npaka123)

무명 AI 기업이 개발한 초소형 일본어 LLM 'LFM 2.5-JP'의 성능이 매우 우수하다는 유튜브 소개 글입니다. 소형 일본어 모델의 등장으로 로컬/경량 모델 환경에서의 실용성 가능성과 일본어 처리 역량 향상을 시사합니다.

https://x.com/npaka123/status/2010139381538173425

#llm #japanese #lfm2.5jp #smallmodel

布留川英一 / Hidekazu Furukawa (@npaka123) on X

無名AI企業が作った超小型日本語LLMの性能が高すぎる【LFM 2.5-JP】 https://t.co/WoaFeZRXKm @YouTubeより

X (formerly Twitter)

Falcon H1R 7B ra mắt: Mô hình 7B tham số đạt hiệu năng suy luận đỉnh cao, 88.1 trên AIME 24 và 97.4% MATH-500 – sánh ngang mô hình lớn hơn. Sử dụng học tăng cường sâu, mở trọng số, chạy được trên phần cứng phổ thông. Khoảng cách giữa mô hình cục bộ và tiên tiến đang thu hẹp nhanh. #AI #SuyLuận #FalconH1R #MôHìnhNhỏ #HọcTăngCường #AIME24 #GPQAD #OpenWeights #AI #Reasoning #SmallModel #ReinforcementLearning

https://www.reddit.com/r/singularity/comments/1q4kbdx/falcon_h1r_7b_released_tii_brings_o1