@debby Saluton ĉiuj 👋

Demandoj al la Komunumo:

Ĉu iu havas spertojn kun tiuj GPU-oj? Kiun vi rekomendus por loke funkciigi pli grandajn LLM-ojn?
Ĉu estas aliaj buĝetamikaj servilaj GPU-oj, kiuj eble fuĝis de mia atento, sed estas bonaj por AI-ŝarĝoj?
Ĉu vi havas konsilojn por konstrui malmultekostan AI-laborstacion? (Malvarmigo, energifonto, interkonektebleco, ktp.)
Kia estas via preferata agordo por loka AI-inferenco?

Dankon antaŭe! 🙌

#HejmaServilo #HejmaLabo #UzitaTek #AIKomunumo #Demandoj