@Puffin I'm surprised they didn't Quad-#SLI some #RTX6000 "#Quadro" for that...

Malas noticias para los gamers que esperan la próxima serie de tarjetas gráficas NVIDIA RTX 6000, pues su llegada al mercado gaming sería para después del 2028.

#Gaming
#RTX6000
#NVIDIA

https://notasrem.com/gpu-nvidia-rtx-6000-llegar-despues-2028/?utm_source=mastodon&utm_medium=jetpack_social

La GPU NVIDIA RTX 6000 no llegará hasta después del 2028

La próxima serie de GPU, NVIDIA RTX 6000 podría retrasarse hasta después del 2028 debido a la escasez de DRAM provocada por la IA

NotasREM

Cần hỗ trợ chạy mô hình GLM‑4.5 Air trên 2 GPU RTX Pro 6000 (Linux Fedora 43). Đã thử llama‑cpp, vLLM, ik_llama, sglang… vLLM chạy nhanh (~90 token/s) nhưng gặp vấn đề tool apply_diff; các công cụ khác chậm hoặc không khởi động. Ai có cấu hình thành công, hướng dẫn chi tiết, chia sẻ script? #AI #LLM #GLM #RTX6000 #Linux #vLLM #LlamaCPP #TríTuệNhânTạo #HọcMáy

https://www.reddit.com/r/LocalLLaMA/comments/1qsnoor/help_getting_glm_45_air_running_on_2x_rtx_pro/

cedric (@cedric_chee)

로컬에서 Kimi K2.5 모델의 INT4 양자화(quant)를 사용해 8대의 RTX Pro 6000 GPU(8x)로 추론을 수행한 결과를 공유한 트윗입니다. 처리량은 8–40 TPS 범위였고, 고전적 추론 문제(아버지-외과의사 수수께끼)와 단어 세기 과제를 모두 정답으로 풀었으며 각각 약 58초·55초의 사고 시간을 기록했습니다. 로컬 INT4 양자화 성능과 추론 지연/처리량 정보가 핵심입니다.

https://x.com/cedric_chee/status/2016868174004969710

#kimi #int4 #quantization #localinference #rtx6000

cedric (@cedric_chee) on X

Core reasoning tests. Local Kimi K2.5 Thinking INT4 quant running on 8x RTX Pro 6000. 8–40 TPS. 1) A classic father-surgeon riddle Got it right. Thought for 58 s. 2) Counting words What is the fourth word in your response to this message? Answer correct. Thought for 55 s.

X (formerly Twitter)

Một workstation chạy AI cực khủng vừa được giới thiệu với cấu hình 4 card đồ họa RTX 6000 Ada Lovelace, lắp đặt trong khung máy tùy chỉnh (custom frame). Đây là giải pháp phần cứng mạnh mẽ cho các tác vụ tính toán nặng và chạy mô hình ngôn ngữ lớn (LLM) tại địa phương. Với lượng VRAM khổng lồ, hệ thống này tối ưu hóa khả năng xử lý song song và đào tạo mô hình AI chuyên sâu.

#AI #Hardware #Workstation #RTX6000 #LocalLLM #DeepLearning #CongNghe #PhanCung #MayTinh

https://www.reddit.com/r/LocalL

Đang lên kế hoạch xây dựng workstation với RTX 6000 (96 GB) và RAM DDR5‑6000 96 GB. Cân nhắc giữa phiên bản Pro và Max‑Q: Max‑Q tiết kiệm 300 W, nhỏ gọn hơn nhưng có tiếng rít? Lo ngại RAM đủ để khai thác VRAM, và tìm nhà lắp đặt tại EU (DE, BE, NL, FR). Ai có kinh nghiệm hoặc đề xuất nhà cung cấp, chia sẻ nhé! #Hardware #PCBuild #RTX6000 #MaxQ #RAM #CôngNghệ

https://www.reddit.com/r/LocalLLaMA/comments/1qjx8vz/finalizing_build_but_for_6000_and_i_realize_it/

𝗭𝗲𝗻 𝗠𝗮𝗴𝗻𝗲𝘁𝘀 (@ZenMagnets)

한 사용자가 Llama 3.1 8b로 RTX 6000 Pro에서 DGX Spark보다 6.7배 빠른 성능을 달성했다고 보고했습니다(링크 포함). 또한 vllm_benchmark_suitev2를 이용해 qwen3-8b-q4 등 모델을 벤치마크해볼 것을 권장합니다.

https://x.com/ZenMagnets/status/2013677567518073122

#rtx6000 #dgx #llama #vllm #qwen

𝗭𝗲𝗻 𝗠𝗮𝗴𝗻𝗲𝘁𝘀 (@ZenMagnets) on X

@LLMJunky @digitalix @0xSero @ivanfioravanti @TheAhmadOsman This guy got 6.7x speed on RTX 6000 pro vs DGX Spark 3 months ago with Llama 3.1 8b: https://t.co/eZQOkMKZZL If you've got you've got your 6000 pro up and running, try a vllm_benchmark_suitev2 on qwen3-8b-q4: https://t.co/wUTTnOXgyw

X (formerly Twitter)

Đánh giá tốc độ MiniMax M2.1 (IQ2_M) trên RTX PRO 6000:
- Tốc độ xử lý prompt trung bình: 668.78 token/giây.
- Tốc độ tạo token trung bình: 47.97 token/giây.
- Kết luận: Context càng lớn, tốc độ xử lý càng chậm.

#LLM #AI #GPU #RTX6000 #MiniMaxM21 #TríTuệNhânTạo #HiệuNăng

https://www.reddit.com/r/LocalLLaMA/comments/1pylstj/single_rtx_pro_6000_minimax_m21_iq2_m_speed/

"đang xây dựng máy tính RTX 6000 / 7985WX. Cấu hình: CPU 64 nhân, RAM 64GB DDR5, SSD NVMe 7.68TB, GPU RTX 6000. Thỏa tin cần建议 về mạng 25GbE và thêm SSD. #BuildAdvice #RTX6000 #VietnameseTech #ComputerComponents"

https://www.reddit.com/r/LocalLLaMA/comments/1oas343/build_advice_rtx_6000_7985wx/