Macht mal bitte wer eine Website auf der es eine LLM für jeden CDU Abgeordneten gibt, die bekommen dann in Echtzeit Reden und dürfen Zwischenrufe, Klatschen, … zu Protokoll geben.
So als digitaler Zwilling des Bundestags.
[WIP] Add CDU behavior simulation for parliament debate by Copilot · Pull Request #1 · LilithWittmann/Zwillingstag

Create backend (Python/FastAPI) CDU/CSU member profiles (static JSON, ~40 members) Bundestag DIP API integration (with mock fallback) LLM service for reaction generation (OpenAI, configurable) ...

GitHub
@Lilith Muss die Resourcenverschwendung denn unbedingt mitkopiert werden?
@0x4261756D Die Resourcenverschwendung ist das Training; nicht wirklich die Inference.
@Lilith "As conversations with experts and AI companies made clear, inference, not training, represents an increasing majority of AI’s energy demands and will continue to do so in the near future. It’s now estimated that 80–90% of computing power for AI is used for inference." (https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/)
Aber selbst wenn, damit die Inferenz stattfinden kann muss doch das Training vorausgegangen sein.
We did the math on AI’s energy footprint. Here’s the story you haven’t heard.

The emissions from individual AI text, image, and video queries seem small—until you add up what the industry isn’t tracking and consider where it’s heading next.

MIT Technology Review

@0x4261756D Erstmal rechnen die da nicht mit den R&D Strom sondern mit dem reinen Trainingsstrom. Das teure ist aber R&D um herauszufinden, wie man das Model trainiert. Sie kommen dann auf die 0.3 watt hours, pro message. Die auch jede Google-Suche auslöst.

Das Ding ist halt, jedem Post die ich hier schreibe triggert garantiert ein AI-Model beim VS. Da finde ich es schon okay ab und zu meine free credits zu verballern - wenn ich stattdessen meinen Nachmittag nicht mit googlen verbracht hab 🤪.