Macht mal bitte wer eine Website auf der es eine LLM für jeden CDU Abgeordneten gibt, die bekommen dann in Echtzeit Reden und dürfen Zwischenrufe, Klatschen, … zu Protokoll geben.
So als digitaler Zwilling des Bundestags.
[WIP] Add CDU behavior simulation for parliament debate by Copilot · Pull Request #1 · LilithWittmann/Zwillingstag

Create backend (Python/FastAPI) CDU/CSU member profiles (static JSON, ~40 members) Bundestag DIP API integration (with mock fallback) LLM service for reaction generation (OpenAI, configurable) ...

GitHub
Besser als von SAP.
Leider hat github copilot gerade seinen Mittagsschlaf aber bald gehts weiter. Schreibt doch so lange gerne schonmal Tickets (die schlimmsten werden implementiert, versprochen).
@Lilith ich möchte, dass sie random “ich kann deine fresse nicht mehr sehen!” zu einem cdu-kollegen rufen
@blackspear @Lilith Und das gerade jetzt, wo die Tage wieder länger werden....
@Lilith Parlamentarier müssen zufällig etwas sagen wie: „Aber es darf doch niemand merken das wir uns bereichern“.
Aber danach unbedingt darauf beharren das niemals gesagt zu haben, und bei Beweisen springt ein Dritter bei und beschützt das Plappermaul mit einer klugen Aussage wie „Kollegin xy is mit der Maus ausgerutscht, das kann jedem mal passieren“
@Lilith parlagentarische demokratie
@Lilith
Kann ja gar nicht sein. Hat doch nicht mal 10 M€ gekostet

@Lilith

Den Output stelle ich mir extrem langweilig vor. ;)

@Lilith ~~ich dachte, Amtssprache ist deutsch, müsste es da dann nicht Eindrucksentwicklung heißen oder so?~~
@Lilith deutsches Pre-Crime Modell
@Lilith Wenn man da einen slider für „soziopathischer Drecksack“ dran macht, könnte man noch mehr Parteien im konservativen Spektrum abdecken.
@Lilith Muss die Resourcenverschwendung denn unbedingt mitkopiert werden?
@0x4261756D Die Resourcenverschwendung ist das Training; nicht wirklich die Inference.
@Lilith "As conversations with experts and AI companies made clear, inference, not training, represents an increasing majority of AI’s energy demands and will continue to do so in the near future. It’s now estimated that 80–90% of computing power for AI is used for inference." (https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/)
Aber selbst wenn, damit die Inferenz stattfinden kann muss doch das Training vorausgegangen sein.
We did the math on AI’s energy footprint. Here’s the story you haven’t heard.

The emissions from individual AI text, image, and video queries seem small—until you add up what the industry isn’t tracking and consider where it’s heading next.

MIT Technology Review

@0x4261756D Erstmal rechnen die da nicht mit den R&D Strom sondern mit dem reinen Trainingsstrom. Das teure ist aber R&D um herauszufinden, wie man das Model trainiert. Sie kommen dann auf die 0.3 watt hours, pro message. Die auch jede Google-Suche auslöst.

Das Ding ist halt, jedem Post die ich hier schreibe triggert garantiert ein AI-Model beim VS. Da finde ich es schon okay ab und zu meine free credits zu verballern - wenn ich stattdessen meinen Nachmittag nicht mit googlen verbracht hab 🤪.

@Lilith aber gibt es das nicht schon? Zum Neujahr habe ich im Fernsehen einen Bundestagsabgeordneten reden gesehen. Ich möchte schwören, der Text kam aus einem LLM.