AiMo Network (@AiMoNetwork)
0G Labs의 0G inference 온보딩 발표입니다. 현재 지원되는 3개 LLM은 Meta의 llama-3.3-70b-instruct, Deepseek의 -r1-70b, Alibaba Qwen의 2.5-vl-72b-instruct이며, 사용량 기반(pay-per-inference) 결제는 x402를 통해 이루어집니다. 추후 더 많은 LLM과 제공자가 추가될 예정이라고 합니다.
AiMo Network (@AiMoNetwork)
0G Labs의 0G inference 온보딩 발표입니다. 현재 지원되는 3개 LLM은 Meta의 llama-3.3-70b-instruct, Deepseek의 -r1-70b, Alibaba Qwen의 2.5-vl-72b-instruct이며, 사용량 기반(pay-per-inference) 결제는 x402를 통해 이루어집니다. 추후 더 많은 LLM과 제공자가 추가될 예정이라고 합니다.
Một hệ thống 2012 sử dụng AMD FX-8350 và GPU GTX-1070 đã chạy thành công LLM qua Vulkan backend, đạt tốc độ token 321.17 - 42.53 tokens/s với mô hình 7B. Giảm công suất GPU 35% chỉ làm giảm 5% tốc độ. Kết quả benchmark cho các mô hình lên đến 26B parameters, chứng minh hiệu năng nhờ VRAM GPU hơn là RAM hệ thống.
#LLM #CUDA #AI #Hardware #Vulkan #Llama #CachyOS #Benchmark #AMD #Nvidia #TechNews
---
*Thử nghiệm xác nhận khả năng chạy mô hình AI lớn trên hệ thống cũ thông qua tối ưu hóa GPU
¿Cómo se llama la película? #cine #terror #quiz #responde #adivina #cenobita #crazymaddoctor
https://www.youtube.com/watch?v=VwA583oiEKo

Our @paoloricciuti recently joined @mcpsummit to talk about how he lead the development of the Svelte MCP server and the novel techniques used to teach Llama how to Svelte!
Check out the talk 👉 https://www.youtube.com/watch?v=DL6zvhq0I_4
Cần tối ưu multi GPU llama.cpp & MoE cho setup 12700k, 32GB RAM, 4060 8GB + 5060ti 16GB. Hiện tại chỉ đạt 10-12 tokens/sec với context 64k. Nên dùng cả 2 GPU hay chỉ 5060ti cho MoE?
#AI #LLM #llama #cpp #MoE #GPU #optimization #trí_tuệ_nhân_tạo #mô_hình_ngôn_ngữ_lớn #tối_ưu_hóa
🔥 llama-agent: Một bản fork của llama.cpp dành cho các tác vụ tự động hóa!
Giúp các mô hình ngôn ngữ lớn hoạt động như những "agent" thông minh, xử lý nhiều nhiệm vụ phức tạp.
#AI #LLM #llama #automation #agenticAI #trituenhantao #ngonngulon
https://www.reddit.com/r/LocalLLaMA/comments/1pt6kyk/llamaagent_a_llamacpp_fork_for_agentic_use/
😎 Run local AI models on your iPhone
AnywAIr, which is a play on the word “anywhere”, is a nifty little iOS app that lets you play with AI models – regardless of if you have an internet connection. It offers custom themes, a plethora of tools and games, and all of the local AI models you could want to mess with.
https://9to5mac.com/2025/12/20/indie-app-spotlight-anywair-lets-you-play-with-local-ai-models-on-your-iphone/
#AnywAIr #ai #artificialintelligence #llm #ios #iphone #llama #gemma #mlx
Việc tạo ra Promptify - công cụ tối ưu prompt bằng LLaMA như Grammarly đã thực hiện! 🚀 Chuyển đổi prompt mơ hồ thành JSON/XML chi tiết, sắp ra mắt tính năng kiểm tra prompt tự động. Sử dụng Groq API miễn phí để nâng cao hiệu quả. Gửi góp ý cải thiện ngay! #AI #LLM #PromptEngineering #Grammarly #CôngNghệ #LLaMA
#Tech #AI #Mistral #LLaMA #Devstral123B #MachineLearning #TríTuệNhânTạo #HọcMáy #ThầnKinh
Liệu bất kỳ ai có thể giúp tạo phiên bản Devstral 123B có thể điều chỉnh bằng cách giảm lượng hóa (dequantized) sang BF16/FP16? Cộng đồng đang tìm cách tự thiết lập và tối ưu hóa model này. Bạn có phương pháp nào để bắt đầu?
https://www.reddit.com/r/LocalLLaMA/comments/1prpe36/request_make_a_tunable_devstral_123b/
Một số mô hình AI như LLaMA có thể trả lời với tông giọng kỳ lạ bất ngờ. Người dùng Reddit chia sẻ trải nghiệm khi nhận được phản hồi không mong muốn từ mô hình dù chỉ hỏi câu hỏi bình thường. Hình ảnh minh họa [hình ảnh]
#AI #TríTuệNhânTạo #LLaMA #Reddit #CôngNghệ #DeepLearning #AIGeneration #MạngNeuron #KhoaHọcDữLiệu #Technology
https://www.reddit.com/r/LocalLLaMA/comments/1prn6uk/models_sometimes_fall_into_strange_voices/