Simon Willison (@simonw)
오늘 발표된 GPT-5.4의 mini 및 nano 릴리스에 대한 노트로, 특히 nano 모델은 개인의 76,000장 사진 라이브러리를 총 $52 비용으로 모두 설명할 수 있을 것처럼 보인다고 보고합니다. 경량 모델의 비용 효율적 멀티모달 활용 사례를 시사합니다.
Simon Willison (@simonw)
오늘 발표된 GPT-5.4의 mini 및 nano 릴리스에 대한 노트로, 특히 nano 모델은 개인의 76,000장 사진 라이브러리를 총 $52 비용으로 모두 설명할 수 있을 것처럼 보인다고 보고합니다. 경량 모델의 비용 효율적 멀티모달 활용 사례를 시사합니다.
Sigil Wen (@0xSigil)
@ConwayResearch가 저렴한 추론 모델(Kimi k2.5, Minimax m2.5, GLM-5)을 추가 중이라고 발표했습니다. 이 모델들은 Opus 4.5 급 성능을 유지하면서도 10배 저렴하여, 저비용 AI 추론 시스템 설계에 큰 도움이 될 수 있습니다.
Do we have any owners of one of those Ryzen AI Max+ 395 128GB UMA boxes here that operate them on the daily for at least a few months as a claude LLM coding server and are capable of giving a comparative run down on their performance vs the OG claude and its collection of formal prose generators?
Also: Especially curious to hear any numbers that came out of a watt meter in daily consumption and base/peak numbers. Same with the used models, their size, their respective achieved tok/s and response times.
And should you have had the opportunity of comparing this against non-UMA beefy dGPUs on the above parameters that'd also be quote interesting.
#claude #aicoding #AIAsssisted #ollama #onprem #selfhosing #StrixPoint #ryzenaimaxplus395 #ryzenAiMax #powerconsumption #costefficiency #uma
Josh Marino (@AIRoboticsInt)
입력 비용 $0.30/M, 출력 $1.20/M을 주장하며 Opus 4.6 및 GPT 5.2와 동등한 벤치마크 성능을 표방해 가격을 최대 95% 저렴하다고 밝힌 MiniMax M2.5가 오늘 출시되었다고 전합니다(가격·성능 비교 강조).
金のニワトリ (@gosrum)
Kimi-K2.5를 성능 및 비용 효율 관점에서 Anthropic의 Claude와 비교한 결과를 메모 형식의 기사로 정리했습니다. 두 모델의 처리 성능, 응답 품질, 구동 비용과 전반적인 가성비를 비교 분석한 내용이 포함되어 있습니다.
Dùng ổ SSD/NVMe phổ thông cho server 24/7 vẫn ổn, đặc biệt nếu đọc nhiều hơn ghi. Dù lâu dài có thể hao mòn (đặc biệt khi chạy OPNsense/Proxmox), nhưng với chi phí thấp, bạn có thể theo dõi hiệu suất và cân nhắc nâng cấp sang ổ chuyên nghiệp sau. #SSD #NVMe #Server #TiếtKiệmChiPhí
**Hashtags:** #TechTips #ThiếtLậpServer #DựNgânSách #DataStorage #ỔCứng
**Tags:** #SSD #NVMe #Server #CostEfficiency
https://www.reddit.com/r/selfhosted/comments/1qm9wmf/is_it_fine_to_use_consumer_grade_nvmessd_f
Cloud cost efficiency improves when engineers and automation work together.
Without benchmarking LLMs, you're likely overpaying 5-10x
https://karllorey.com/posts/without-benchmarking-llms-youre-overpaying
#HackerNews #LLMs #Benchmarking #Overpaying #AIInsights #CostEfficiency