Wow laut Leschs Kosmos verbraucht eine Anfrage an ChatGPT mit einer Antwort von 230 Wörtern 581Wh 🤯
Jetzt will ich das ja nicht mal mehr aus Spaß nutzen.
Wow laut Leschs Kosmos verbraucht eine Anfrage an ChatGPT mit einer Antwort von 230 Wörtern 581Wh 🤯
Jetzt will ich das ja nicht mal mehr aus Spaß nutzen.
@rstockm @tante »OK, I just did a more rigorous study and I conclude that a single ChatGPT query requires between 30x and 50x more energy than a conventional search query. We can't afford this.«
https://scholar.social/@wim_v12e/111427136672493284
Blogpost: https://limited.systems/articles/google-search-vs-chatgpt-emissions/
OK, I just did a more rigorous study and I conclude that a single ChatGPT query requires between 30x and 50x more energy than a conventional search query. We can't afford this. (blog post to follow soon) #FrugalComputing
@meatpuppet @leah und was ist das in DMark? 🤯
(sorry, I couldn’t resist)
@leah Eine ganze Batterieladung fuer mein Fahrrad... (~50km) :(
Kommt mir leider auch recht realistisch vor, der Wert...
@leah Hm, mal grob ueberschlagen: Also eine A100 braucht so 500W als SXM4, wenn da 8 Stück für eingesetzt werden, sind das 4kW (+ Supporttechnik).
So ne Anfrage dauert schlimmstenfalls mal ne Minute, 4000 / 60 * 1 = ~66Wh pro Minute
Hm, ich seh noch nicht ganz, wo die 10fache Menge Energie hingeht...
@jwalzer
hier gibts ne CPU & GPU implementation, die ziemlich effizient ist: https://bellard.org/ts_server/
Da gibts unten Vergleiche zwischen CPUs und GPUs (und dann kann man sich die Stromaufnahme ausrechnen)
@datacop @leah Moderne Datacenter haben ordentliche PUEs und diese AI Heinis lernen bestimmt von den Bitcoin-Heinis und haben das im Griff.
GPUs haben ordentliches Power-Management und brauachen die Energie nur unter Last (oder eben auch nicht). Im Idle sind die "relativ" effizient.
Virtualisierung verbraucht (quasi) keinen zusaetzlichen Strom mehr in 2023 (wird dort auch vermutlich gar nicht eingesetzt, das ist ein Engineering Nightmare ohne Grund)
@manawyrm
Keine Anfragen -> keine Kosten für Entwickung & Training. Natürlich muss man den Anschaffungspreis in die Gesamtkosten rein rechnen, egal ob Auto, Solar oder KI.
Meine Erfahrung ist, dass gerade im Cloud-Umfeld und vor allem am Anfang auf Effizienz absolut null geachtet wird. Probleme werden lieber mit Geld erschlagen, Hauptsache schnell skalieren.
Der ChatGPT Hype ist nicht mal ein Jahr alt und musste massiv skalieren, ich seh eine Effizienz von <10% definitiv realistisch.
@datacop Mh, Anschaffungspreis "magisch" reinrechnen geht halt nicht ohne separate Angabe des selbigen. Wird ja mit jeder Anfrage "besser".
Ich hab in der GPU-Cloud-Providerbranche gearbeitet und wenn ChatGPT sowas dort eingekauft hat, wäre die Effizienz _wesentlich_ besser.
Die Rechenzentren müssen dafür eh speziell gebaut werden, du kannst keine Racks mit jeweils 150kW Abwärme in nem normalen DC aufstellen -- die schmelzen (und haben auch nicht genug Strom).
@manawyrm @datacop was ihr meint sind Fixkosten nicht Anschaffungskosten. Und ja die legt man auf die Nutzungszeit um. Die Modelle werden ja auch permanent weiter trainiert. Ich denke das wird erst irgendwann vielleicht besser wenn bessere Technologien entwickelt wurden oder man eine so Solid foundation hat das man anders die Daten mitberücksichtigt (hybrid Ansätze).
Ist halt gerade sunrise phase. Der Vergleich mit Blockchains bricht imho weil die für nix nutze waren. Ausser zum scam
@esopriester @nahlinse @leah Die Hemmschwelle ist halt verdammt niedrig. Das Ding ist halt in jedem Microsoft-Programm automatisch verfügbar.
Ich versuche, meine Kolleginnen und Kollegen davon zu überzeugen, stattdessen GPT4All zu verwenden. Das würde auf dem eigenen Rechner laufen und gar keine Daten über das Internet kommunizieren. Aber da ist eben die Benutzung schwieriger.
Och die paar Watt
Für eine einzige Bitcoin-Transaktion werden 1.449 kWh benötigt, was ungefähr der Menge an Strom entspricht, die ein durchschnittlicher US-Haushalt in 50 Tagen verbraucht.
Auch interessant wie man Strom spart.
https://www.heise.de/news/Facebook-will-PHP-beschleunigen-920684.html
@leah Ein Wohnzimmer mit 20m² in einer Durchschnittswohnung kann man mit der Energie für daumen mal pi 2 bis 3 Stunden beheizen.
Oder ein modernes Passivhaus den halben Tag.
Training und Betrieb von Künstlicher Intelligenz verbrauchen mehr Energie als ganze Länder. Auch der Wasserverbrauch ist hoch. Was könnte KI effizienter machen?
@root42 @leah Aktuell werden Modelle in der Inferenz auch immer effizienter. Da wird extrem viel geforscht, die Dinger laufen schon auf Smartphones. Mit entsprechender Hardware ist da noch eine Menge Potenzial. Stichworte: pruning, distillation, quantization
Attached: 1 image @leah Das dürfte um Größenordnungen zu hoch sein. Bin gespannt, ob sich das ZDF meldet. Was wurde da rein gerechnet? Bau des RZ? Kleiner unwissenschaftlicher Test hier: Inferenz auf einem M2 mit Model mistral openorca 7B. Gedicht 264 Wörter, 53 Sekunden, ca. 22 Watt im Durchschnitt = 0,33Wh Selbst wenn die Modelle von OpenAI/StableDiffusion/etc. mehr bei der Inferenz brauchen würden, sind 581Wh maximal unglaubwürdig. Lesch lag auch bei anderen Sachen schon mal daneben.
Das kann nicht sein. Ich habe neulich erst ChatGPT gefragt, wie es funktioniert, und in der Antwort hat es, auch bei wiederholter Nachfrage, darauf bestanden, dass es ohne Strom funktioniere. ☝️
(Kein Witz, ich hab noch einen Screenshot von dieser Diskussion.)
@leah @hdvalentin das zweifele ich erstmal an solange keine genaue Aufstellung vorliegt wie das gerechnet wurde! Das klingt mir um Größenordnungen daneben - oder es ist ein 24/7 Verbrauch eines ganzen Rechenzentrums inkl. Personal mit drin - dann würden werte für ein Google Suche oder einen Webseitenaufruf aber ähnlich aussehen müssen.
ML/KI laufen lokal auf M1 und erkennen Sprache und erzeugen Bilder mit 5-15W - pro Stunde
@leah Das dürfte um Größenordnungen zu hoch sein. Bin gespannt, ob sich das ZDF meldet. Was wurde da rein gerechnet? Bau des RZ?
Kleiner unwissenschaftlicher Test hier: Inferenz auf einem M2 mit Model mistral openorca 7B. Gedicht 264 Wörter, 53 Sekunden, ca. 22 Watt im Durchschnitt = 0,33Wh
Selbst wenn die Modelle von OpenAI/StableDiffusion/etc. mehr bei der Inferenz brauchen würden, sind 581Wh maximal unglaubwürdig.
Lesch lag auch bei anderen Sachen schon mal daneben.
Nicht, wenn du ChatGPT local auf deinem Rechner / Homeserver betreibst...
Mit dem richtigen Prompt bestreitet ChatGPT das.