Getting A Proprietary-Bus GPU Onto PCIe Enables Cheaper Local LLMs, For Now

If you’ve been thinking of getting into self-hosting generative AI, but don’t have a big budget for hardware, you might want to check out [Hardware Haven]’s latest video on an unu…

Hackaday
Getting A Proprietary-Bus GPU Onto PCIe Enables Cheaper Local LLMs, For Now

If you’ve been thinking of getting into self-hosting generative AI, but don’t have a big budget for hardware, you might want to check out [Hardware Haven]’s latest video on an unu…

Hackaday
Tomorrow I will install this Beauty in one of my DL360s to „pimp my LLAMA“ 😅🤪 Fingers crossed everything works #AI #LLAMA #DOCKER #HPDL360 #NvidiaTesla

3D-printed Fan Mount Keeps Server GPU Cool in Desktop Case

Most readers of Hackaday will be well aware of the current shortages of semiconductors and especially GPUs. Whether you're planning to build a state-of-the art gaming PC, a mining rig to convert your kilowatt-hours into cryptocoins, or are simply experimenting with machine-learning AI, you should be prepared to shell out quite a bit more money for a proper GPU than in the good old days.

Bargains are still to be had in the second-hand market though. [Devon Bray] chanced upon a pair of Nvidia Tesla K80 cards, which are not suitable for gaming and no longer cost-effective for mining crypto, but ideal for [Devon]'s machine-learning calculations. However, he had to make a modification to enable proper thermal management, as these cards were not designed to be used in regular desktop PCs.

The reason for this is that many professional-grade GPU accelerators are installed in rack-mounted server cases, and are therefore equipped with heat sinks but no fans: the case is meant to provide a forced air flow to carry away the card's heat. Simply installing the cards into a desktop PC case would cause them to overheat, as passive cooling will not get rid of the 300 W that each card pumps out on full load.

[Devon] decided to make a proper thermal solution by 3D printing a mount that carries three fans along with an air duct that snaps onto the GPU card. In order to prevent unnecessary fan noise, he added a thermal control system consisting of a Raspberry Pi Pico, a handful of MOSFETs, and a thermistor to sense the GPU's temperature, so the fans are only driven when the card is getting hot. The Pi Pico is of course way more powerful than needed for such a simple task, but allowed [Devon] to program it in MicroPython, using more advanced programming techniques than would be possible on, say, an Arduino.

We love the elegant design of the fan duct, which enables two of these huge cards to fit onto a motherboard side-by-side. We've seen people working on the opposite problem of fitting large fans into small cases, as well as designs that discard the whole idea of using fans for cooling.

#computerhacks #activecooling #gpu #nvidiatesla

3D-printed Fan Mount Keeps Server GPU Cool In Desktop Case

Most readers of Hackaday will be well aware of the current shortages of semiconductors and especially GPUs. Whether you’re planning to build a state-of-the art gaming PC, a mining rig to conv…

Hackaday
Die a-xp sieht ein wenig aus wie ein großer Laptop. Sie wiegt aber mehr als 10 kg, hat maximal 256 GByte RAM und viel Platz für Laufwerke.
AMD Threadripper: Workstation im Koffer hat Display, Tastatur und 64 Kerne - Golem.de
#AMD #AMDZen #CAD #Computer #GeforceRTX #NvidiaTesla #PC #PC-Hardware
AMD Threadripper: Workstation im Koffer hat Display, Tastatur und 64 Kerne - Golem.de

Die a-xp sieht ein wenig aus wie ein großer Laptop. Sie wiegt aber mehr als 10 kg, hat maximal 256 GByte RAM und viel Platz für Laufwerke.

Künstliche Intelligenz: Wave Computing kauft MIPS www.golem.de/news/kuenstliche-… #KI #Imagination #MIPS #NvidiaTesla #Patent #Startup #Wissenschaft
Künstliche Intelligenz: Wave Computing kauft MIPS - Golem.de

Das KI-Startup Wave Computing hat MIPS übernommen und plant, entsprechende CPU-Kerne für künftige, Dataflow Processing Units (DPU) genannte Chips für Künstliche Intelligenz

Lücken in mehreren Nvidia-Grafikkartentreibern können unter anderem für die Code-Ausführung aus der Ferne missbraucht werden. Gepatchte Versionen stehen zum Download bereit. www.heise.de/security/meldung/… #GPU #Grafikkarten #NVIDIAGeForce #Nvidia #NvidiaQuadro #NvidiaTesla
Nvidia patcht mehrere Lücken in GPU-Treibern

Lücken in mehreren Nvidia-Grafikkartentreibern können unter anderem für die Code-Ausführung aus der Ferne missbraucht werden. Gepatchte Versionen stehen zum Download bereit.

Lücken in mehreren Nvidia-Grafikkartentreibern können unter anderem für die Code-Ausführung aus der Ferne missbraucht werden. Gepatchte Versionen stehen zum Download bereit. www.heise.de/newsticker/meldun… #GPU #Grafikkarten #NVIDIAGeForce #Nvidia #NvidiaQuadro #NvidiaTesla
Nvidia patcht mehrere Lücken in GPU-Treibern

Lücken in mehreren Nvidia-Grafikkartentreibern können unter anderem für die Code-Ausführung aus der Ferne missbraucht werden. Gepatchte Versionen stehen zum Download bereit.

IBM AC922: In Deep Learning schlägt der Power9 die X86-Konkurrenz - Golem.de

Am Beispiel des neuen AC922 zeigt IBM, dass der Power9-Prozessor in rechenintensiven Anwendungen wohl sehr effizient ist. Das System gibt es jetzt für den Unternehmenseinsatz zu

Mit der neuen Instanz P3 richtet sich Amazon an Nutzer, die viele GPU-Kerne für ihre Berechnungen verwenden müssen. Zum Einsatz kommen bis zu acht Nvidia Tesla V100, unterstützt von bis zu 64 vCPUs. https://www.heise.de/ix/meldung/Neue-Instanz-P3-fuer-AWS-mit-bis-zu-acht-Nvidia-Tesla-V100-3873333.html #Amazon #AmazonEC2 #AmazonWebServices #CloudComputing #Nvidia #NvidiaTesla
Neue Instanz P3 für AWS mit bis zu acht Nvidia Tesla V100

Mit der neuen Instanz P3 richtet sich Amazon an Nutzer, die viele GPU-Kerne für ihre Berechnungen verwenden müssen. Zum Einsatz kommen bis zu acht Nvidia Tesla V100, unterstützt von bis zu 64 vCPUs.