GLM 4.7 Flash 30B PRISM + Web Search: Mô hình nhỏ nhưng hiệu năng ấn tượng! Hiệu quả trong suy luận, ít từ chối mềm, hỗ trợ tra cứu web giúp bù đắp kiến thức hạn chế. Phù hợp nghiên cứu đa chủ đề, chạy tốt trên LMStudio + OpenwebUI. Cực kỳ đáng thử cho ai dùng LLM cục bộ. #AI #LLM #GLM #PRISM #WebSearch #TríTuệNhânTạo #MôHìnhNgônNgữ #AIcucbo

https://www.reddit.com/r/LocalLLaMA/comments/1qqw3ov/glm_47_flash_30b_prism_web_search_very_solid/

Lúa.cpp đạt bước tiến lớn về hiệu năng trên cấu hình đa GPU: tăng tốc độ xử lý mô hình AI cục bộ lên 3–4 lần nhờ chế độ "split mode graph". Không chỉ mở rộng VRAM, giờ đây nhiều GPU giá rẻ có thể hoạt động song song tối đa hiệu suất. Tin vui cho dân tự triển khai AI tại nhà hay trên cloud mà không cần GPU đắt tiền!
#llama.cpp #AI #LocalLLM #Performance #GPU #ArtificialIntelligence #AIcucbo #Hiene #DaGPU

https://www.reddit.com/r/LocalLLaMA/comments/1q4s8t3/llamacpp_performance_breakthrough_for

API mới giúp index video thành embeddings để dùng RAG cục bộ, tích hợp Whisper + OCR, xử lý cả giọng nói và nội dung hình ảnh (slide, giao diện). Đầu ra là JSON có chia đoạn, kèm embedding và thời gian, tương thích với Milvus, Weaviate. Phù hợp tìm kiếm ngữ nghĩa trên video nội bộ mà không cần đưa lên đám mây. Có demo trực tiếp. #RAG #LocalLLM #AI #videoindexing #embeddings #truyvấnvideo #AIcucbo #RAGcucbo

https://www.reddit.com/r/LocalLLaMA/comments/1q442q1/built_an_api_to_index_videos_into/

Nhiều người dùng cài đặt LLM cục bộ mong đơn giản hóa cuộc sống, nhưng lại rơi vào mê cung tinh chỉnh (Ollama, LM Studio, v.v.). Từ việc muốn hỏi "nấu gì hôm nay?", họ đã dành hàng chục giờ mày mò. AI cục bộ có phải là "hố thỏ" mới của homelab?

#LLMs #AIcucbo #Homelab #RabbitHole #CôngNghệ #TríTuệNhânTạo

https://www.reddit.com/r/LocalLLaMA/comments/1peqbu0/local_llms_were_supposed_to_simplify_my_life_now/

Intel Arc Pro B60 Battlematrix vừa ra mắt bản xem trước với 192GB VRAM, được thiết kế đặc biệt cho các ứng dụng AI tại chỗ. Đây là bước tiến quan trọng, mang lại hiệu năng mạnh mẽ cho xử lý AI cục bộ!

#Intel #ArcProB60 #VRAM #AI #OnPremiseAI #IntelGPU #AIcucbo #Carddohoa

https://www.reddit.com/r/LocalLLaMA/comments/1pd3mdw/intel_arc_pro_b60_battlematrix_preview_192gb_of/

Giao diện NCURSES mới đã được ra mắt cho server llama.cpp GGUF, giúp quản lý và tương tác dễ dàng hơn qua mạng LAN. Đây là cải tiến đáng chú ý cho những ai muốn chạy mô hình AI cục bộ hiệu quả.

#llamaCPP #NCURSES #GGUF #LocalLLaMA #AI #Server #MạngLAN #GiaoDienMoi #AIcucbo

https://www.reddit.com/r/LocalLLaMA/comments/1p9jtc6/new_interface_for_llamacpp_ncurses_gguf_server/