@343max Ja das ist hübsch. Funktioniert aber nicht mehr mit ChatGPt 5.2
@rstockm Well.
@rstockm Abgesehen davon, dass ich so eine „aber dieses 0.0.1 Update ändert alles“ Argumentstion sehr dünn finde. ChatGPT 5.2 ist kaum mehr als ein marketing Update über 5.0, es ändert nichts daran wie diese Modelle funktionieren und ändern somit auch nichts an der fundamentalen Kritik selbst wenn die neue Version bei dem konkreten Beispiel vielleicht marginal besser abschneidet.

@343max Na ja, es ist aber halt andersrum: dieses „Beispiel" funktioniert bei exakt KEINEM der aktuellen Flagship-Modelle. Getestet: Mistral (lokal!), Gemini 3 Pro, ChatGPT 5.2, Claude Sonnet 4.5.
Keines fällt darauf rein, die Antwort von Gemini mal als hübsches Beispiel.
Und so läuft das seit 2 Jahren:

10 „haha, schaut was die GPTs alles nicht können"
20 ich setze mich 1 Minute dran und exakt das funktioniert in allen neuen Modellen
30 goto 10

🤷🏻‍♂️

@rstockm Aber ich habe dir doch eben einen Screenshot geschickt wie das aktuelle ChatGPT genau darauf reinfällt.

Für mich ist es exakt andersrum wie du beschreibst. Seit Jahren:

10 du und andere AI believer: “ja, noch vor ein paar Wochen war das Modell noch strunzdumm, aber heute können sie exakt dieses eine Beispiel lösen, darum sind sie perfekt”
20 jemand findet ein neues Beispiel wie ein "Flagship-Model" haarstäubend dumme weise auf die Fresse fällt… (1/2)

30 die AI Firmen bringen neue Modelle raus die auf exakt diesen Fall nicht mehr reinfallen
40 goto 10

le sigh

Wir haben exakt die selbe Diskussion schon diverse Male geführt. Was bringt dich auf die Idee das ChatGPT 5.2.4 Code Red Edition dieses mal aber wirklich all die Versprechen einlöst, die all die anderen Versionen nicht einlösen konnten? (2/2)

@343max Ich rede nicht von ChatGPT sondern generell von den rechts unten Modellen, auch der anderen Hersteller. Bei deinen Screenshot kann ich nicht sehen, welches das ist. Das mit Abstand beste Besispiel das du bisher hattest war das Zahlenraten-Spiel, weil es so hübsch die Schwäche von LLM (will alles könne) mit den Limitierungen (unfähig, eigene Grenzen zu erkennen) exploited hat. 1/2
@343max Aber auch dort habe ich in 20 Minuten einen Weg gefunden (dank KI) um dieses Spiel auf beliebigen LLMs zu 100% perfect „ready to ship“ laufen zu lassen.
Und darum geht es mir: mir gehen wirklich die Szenarien aus, wo LLMs mit etwas Tuning, RAG Modellen etc. _nicht_ zu "ready to ship" zu bringen sind. Da ist mir dann AGI ziemlich egal.
Gemini 3 Pro kann meine Handschrift lesen, und zwar perfekt. das schaffen 99% der Menschen um mich herum nicht - was für eine Basis für Automatisierung!
@rstockm Das Beispiel mit dem Zahlenratespiel gilt exakt so noch heute. Das eine LLM so ein Zahlenratespiel in Software gießen kann war nicht die Aufgabe, das ist trivial für eine LLM weil es dafür Millionen Codebeispiele gibt. “Ja, es kann das nicht aber dafür kann es was anderes” ist keine Lösung des Originalproblems.
@343max Oh das war ohne Software, nur über einen Prompt.
@343max Bitte schön:
@rstockm Exakt. Du lässt die AI ein anderes Problem lösen als das was ich ihr gegeben hatte. Was ist damit bewiesen außer das es andere Probleme möglicherweise lösen kann. (Ich bezweifle übrigens nach wie vor, dass dein Beispiel besser funktioniert als meins, du hast es einfach nur viel komplexer gemacht, was es mühseliger macht die Schwächen zu finden. Abgesehen davon, dass es ein komplett anderer Prompt ist)
@343max Das ist mir als Produktmanager aber doch völlig egal. Es ist "ready to ship“, das zählt. Und es kann ja ausprobiert werden - funktioniert wunderbar und 100% zuverlässig.
@rstockm Aber MIR ist es nicht egal. MIR ist es schon wichtig, dass eine AI ein sehr einfaches Problem das jeder Mensch problemlos lösen kann von dem die AI behauptet es lösen zu können dann auch lösen kann. Ich habe dieses Beispiel gewählt, weil es sehr anschaulich macht, wie die AI es einfach per Design nicht kann.
@rstockm Du sagt “aber es kann ein komplett anderes Problem lösen und das reicht mir”. Okay. Aber stimmst du mir zu, dass es das eigentliche von mir beschriebene Problem nach wie vor nicht lösen kann?
@343max Ich glaube in der Sache sind wir gar nicht weit auseinander, wir haben nur sehr unterschiedliche Perspektiven auf die Grundfrage. These:
1)
Ralf: zentral ist, dass ein Problem verlässlich mit LLM gelöst werden kann. Egal wie der Weg ist.
Max: zentral ist: dass auch der komplette Weg vom LLM perfekt gegangen wird ohne Begleitung
2)
Ralf: nutzt ausschließlich die besten für Geld verfügbaren Modelle, ignoriert den Rest
Max: nutzt was gerade da ist, auch die freien Versionen
@rstockm @343max Wollt ihr euch nicht mal zu einem Podcast zusammensetzen?
@lbenedix @rstockm Das ist auch müßig, weil Ralf dem eigentlichen Thema immer wieder ausweicht. Hier: ChatGPT 5.0 produziert plausibel klingenden Quatsch und fällt dabei wunderschön auf die Fresse. Damit setzt er sich nicht auseinander sondern produziert nur einen Strohmann nach dem anderen. (1/2)
Die prinzipiellen Schwächen dieser Systeme ignoriert er oder erzählt mir das wenn ich nur wohlhabender wäre und 200€/Monat Abos hätte alles total toll wäre (kann ich halt nicht überprüfen und scheint mir auch nicht glaubhaft) (2/2)

@343max Das Schöne ist ja, dass es Forschung gibt und die ist bisher ziemlich eindeutig. Man fühlt sich als Softwareentwickler mit LLM-"Unterstützung " deutlich produktiver als man tatsächlich ist.

https://metr.org/

METR

@lbenedix @343max Sehr schöne Seite, danke dafür. Direkt eine Studie darüber aber so:
@rstockm @343max Vorhersagen darüber, was in 10 Jahren ist, sind in der AI Welt bestimmt zuverlässig.
@lbenedix @343max Genau darum extra poliert diese Studie ja den Trend der letzten zehn Jahre. Aber klar, aus einem uns leider noch nicht bekannten Grund ist genau jetzt der Zeitpunkt erreicht, wo dieses exponentielle Wachstum schlagartig stoppen wird.
@rstockm @343max 2020 ist nicht ganz 10 Jahre her. Und ja, ich habe das Gefühl, dass es in den letzten 1-2 Jahren eher eine Stagnation gibt
@lbenedix @343max Also zumindest um den nächsten Datenpunkt mache ich mir keine Sorgen – Claude Sonet 4.5 ist dramatisch besser als hier das letzte 3.7

@rstockm @343max Bisher hat mich noch kein LLM für die Softwareentwicklung überzeugt. Ja, die kotzen schnell einen Prototypen raus, aber sobald die echte Welt damit in Verbindung kommt, explodiert alles.

Für kleine Nischenprobleme kann es vielleicht was taugen, aber da sind spezielle Lösungen sicher besser als LLMs.

@lbenedix @343max Tja, so unterschiedlich sind die Einschätzung. Ich habe in 2025 sechs Projekte publiziert, keines von denen hätte ich ohne LLM auch nur begonnen.
@rstockm @343max Kommt sicher immer auf die Komplexität des Projektes an. Kannst du die Projekte verlinken?

@lbenedix @343max Alles hier aus den letzten 2 Jahren dazu zwei nicht öffentliche die noch komplexer sind:

https://github.com/rstockm?tab=repositories

Es kommt halt auch darauf an ob man die LLMs beim Coden als Gegner sieht den man aufs Kreuz legen möchte oder als endlos geduldig motivierten Junior DEV den man ins eigene Projekt einarbeitet.

rstockm - Repositories

Universalamateur. Gründer von ultraschall.fm, sendegate.de, Mastowall und Mastothread. , beruflich Bibliotheks-IT. Crewmitglied im freakshow.fm Podcast - rstockm

GitHub
@rstockm @lbenedix Ein junior Dev den man ins eigene Projekt einarbeitet lernt dazu, eine LLM nicht. Wo ist denn in diesen ganzen Projekten mal ein gutes dabei, wo du ein größeres Feature geoneshottet hast? Hast du ein Beispiel für einen Prompt, der mir ein größeres Feature baut?

@343max @rstockm Bei der Beurteilung, ob ein LLM gute Arbeit macht, spielen viele psychologische Verzerrungen mit. Es fängt schon damit an, dass man selbst etwas tut, also einen Prompt formuliert und dann passiert etwas. Das ist natürlich toll.

Aber ja, es gibt glaub ich kein erfolgreiches Open Source Projekt, bei dem der überwiegende Anteil der Contributions von LLMs kommt. Oder?

@lbenedix @343max Schön, dass ihr euch einig seid, dass meine Apps alle unterkomplex sind. Was ich sagen kann:
1) ich habe keine Zeile davon selbst geschrieben
2) keines der Projekte hätte ich angefangen ohne LLMs (ich kann kein JavaScript)
3) die Oneshot Quote ist mit den Monaten kontinuierlich gestiegen, bei Testabend fast alles bis auf mobil CSS
4) Einigen der Tools würde ich doch gesellschaftlichen Nutzen zuschreiben wie Mastowall, Mastotags oder Fedipol.
@rstockm @lbenedix Na dann nenne doch mal ein konkretes Beispiel. “In Projekt X hat die LLM mit folgendem Prompt folgendes komplexeres Feature eingebaut…” Was soll ich denn so damit anfangen?
@343max @rstockm @lbenedix Aber bei komplexen Projekten arbeitet man doch nicht mit dem EINEN prompt. Man führt eine Unterhaltung mit dem LLM, beschreibt seine Ideen, das LLM fragt nach, schreibt die Specs auf , macht Designvorschlaege etc. und am Ende schreibt es auch noch den Code. Das ist durchaus ein iterativer Prozess. Das funktioniert nach meiner Erfahrung ziemlich gut. In diesem Prozess muss das LLM aber nichts Neues lernen. Nur vorhandenes "Wissen" über Software richtig anwenden. Und das können die Dinger ziemlich gut.

@maxheadroom @rstockm @lbenedix Ja, so nutze ich coding Assistants. So wie ich diese Tools nutze haue ich einen Prompt rein, schaue mir ein paar Sekunden oder Minuten später das Ergebnis an, werfe es weg, fixe es oder akzeptiere es.

Aber in diesem Strang ging es ja genau darum wie Ralf verlässlich Probleme von einer AI lösen lässt, also sie Code schreibt, Tests schreibt, Bugs fixt etc ohne das man ihr dabei ständig die Hand halten und neue Anweisungen geben muss.

@343max @rstockm @lbenedix Ich denke das würde gehen, wenn Du Spezifikationen im vornherein genau weißt und dem LLM sehr präzise Anweisungen gibst und es dann machen lässt. Ggf. braucht es Agenten die sich gegenseitig überwachen.

Aber genau das gleiche Problem hast du ja mit menschlichen Entwicklern auch. Am Anfang steht erstmal eine Produktidee und die musst entwickeln. Die wirfst du ja dem Entwickler auch nicht einfach hin und nach ein paar Stunden oder Tagen kommt es genau so raus wie du es dir vorgestellt hast.

@maxheadroom @rstockm @lbenedix Nach meiner Erfahrung geht das nicht wirklich, weil die LLM sich dann meistens irgendwann auf die Fresse packt oder der Kontext vollläuft und sie anfängt Amok zu laufen.

Außerdem klingt das für mich extrem nach Wasserfall.

Mit den menschlichen Entwicklern könnte man schnell iterieren, vielleicht sogar den eigenen Stolz überwinden und selbst ein wenig programmieren lernen auch wenn das natürlich eigentlich unter dem Niveau eines Managers ist.

@343max @rstockm @lbenedix ja, das ist "Wasserfall". Aber egal wie du es nennst, die Dinger sind dabei einfach zig mal schneller beim Schreiben von Code, beim lesen langer Fehlermeldungen, beim recherchieren in Dokumentation etc. Und das ist ein sehr großer Vorteil.

Es entsteht einfach viel Software die es so nicht geben würde weil jemand mit zu wenig skills oder Geduld/Zeit sich nicht an seine Idee rangetraut hat. Mit einem Coding Assistant kann so jemand solche Ideen komplett umsetzen.

Was glaube ich auch nicht zu verachten ist, ist die "Attitude" des LLM. Das ist immer nett und will dir helfen. Egal wie dumm du dich anstellst. Stellst Du menschlichen Enticklern eine Frage die dich als Anfänger outed bekommst du mit hoher Wahrscheinlichkeit eine anfällige oder sehr oberlehrerhafte Antwort. Das motiviert nicht immer dran zu bleiben.

@maxheadroom @rstockm @lbenedix Ich habe nicht bestritten das LLMs ihren Wert haben können. Wir reden hier aber von Autonom, Zuverlässig Qualitativ hochwertige Software auf dem Niveau eines junior Devs. Davon sind LLMs meiner Meinung nach weit entfernt. Ralf ist sehr Stolz darauf keine Ahnung von JS zu haben und ich finde das sieht man den Projekten auch an. Schon die Readme’s sind ausufernder AI Slop mit offensichtlichen Fehlern und Text nur um Text zu haben. (1/4)

@343max @maxheadroom @rstockm

Ein weiterer Blick zeigt, was mir bei AI generierten Code immer wieder auffällt: die Abhängigkeiten sind extrem veraltet.

In dem Fall der Mastowall wird eine 6 Jahre alte Version eines CSS Framework verwendet.
Bei den anderen Abhängigkeiten sieht es nicht viel besser aus...

https://github.com/twbs/bootstrap/releases/tag/v4.3.1

Release v4.3.1 · twbs/bootstrap

Security: Fixed an XSS vulnerability (CVE-2019-8331) in our tooltip and popover plugins by implementing a new HTML sanitizer Fixed a small issue with our RFS (responsive font sizes) mixins

GitHub

@lbenedix @343max @rstockm Ja, das stimmt alles. Und die Dinger machen auf doofe Fehler. Aber berichtigen sie dann auch einigermaßen. Sicher ist die Code Qualität nicht optimal. Aber es funktioniert. Und für die überwiegende Mehrheit der Projekte duerfte das ausreichen. Man überlege nur mit welcher Qualität sich Millionen Unternehmen bzgl. Microsoft Software "zufrieden " geben.

Ich vergleiche diese Coding LLMs gerne mit elektrischen Werkzeugen eines Handwerkers. Es erlaubt einem Profi die Arbeit viel viel schneller zu erledigen. Und auch ein Anfänger bekommt damit bestimmte Sachen hin, die er ohne gar nicht schaffen würde.

@maxheadroom @343max @rstockm In einer handwerklichen Ausbildung lernt man aber immer erst die Grundlage, damit man versteht, was passieren muss.

Man fängt nicht mit der CNC Fräse an.

@lbenedix @343max @rstockm Aber die Werkzeuge sind für jeden im Baumarkt zugänglich

@maxheadroom @343max @rstockm Damit wird man aber kein Haus bauen können, dass viele Jahrzehnte überdauert.

Wenn es nur darum geht, sich vor Regen zu schützen, reicht auch ne Plane und ein Seil.

@maxheadroom @lbenedix @rstockm Da gehe ich überhaupt nicht mit. Microsofts Softwarequalität hängt null damit zusammen ob sie gute Entwickler finden können. Das liegt an Prioritäten, Firmentielen, Organisationsproblemen, also Bereichen die weit oberhalb der Entwicklung sind und in denen niemand auch nur drüber nachdenkt LLMs einzusetzen. (1/3)
Wenn man mit LLMs Software baut, dann muss man die ganzen schweren Teile ja immer noch machen: Anforderungen, Architektur, Implementierung, Sicherheit, Deployment, Wartung… Da zu sagen, dass das am eigentlichen Coding scheitert ist wie zu sagen, dass man das man ein Hochhaus geplant, berechnet und genehmigt bekommen hat aber es nicht bauen kann, weil man leider keinen Hammer halten kann. (2/3)
Es mangelt nicht an Entwicklern, es mangelt an Bereitschaft und Willen Software zu bauen und da helfen LLMs null. (3/3)
@343max 💯 in großen Organisationen ist das Problem ganz sicher nicht der Mangel an (guten) Softwareentwicklern.
@lbenedix Wenn ich so drüber nachdenke: es ist schon irre wie lang jetzt schon die Idee nicht aussterben will das wenn man einfach nur den Entwicklern feste genug auf die Füße tritt Softwareentwicklung sich ja von alleine löst. Schon vor 15 Jahren habe ich von Firmen gehört, die für ihr egalo-Startup nur die besten 0,5% der Entwickler einstellen, weil die unteren 99,5% einfach nicht gut genug sind um zum 20. mal die Farbe für den Submit Button anzupassen. (1/2)
Und jetzt eben die LLMs die es uns endlich erlauben Softwareentwickler rauszuschmeißen und die Probleme unseres Prozesses nicht anzugehen. (2/2)

@343max man kann von AWS halten was man will, aber die keynotes von Werner Vogels sind eigentlich immer ganz gut.

In der Letzten zeigt er ganz pointiert auf, wie man 1970 schon mit Cobol der Meinung war, dass jetzt alle Menschen ohne Ahnung Software entwickeln können.

Man muss sich nicht die ganze Stunde geben, da kommt auch noch viel Quark.

https://youtu.be/3Y1G9najGiI

AWS re:Invent 2025 - Keynote with Dr. Werner Vogels

YouTube
@lbenedix Stimmt, die Friedhof der Softwaretools ist voll mit versuchen Development für jedermann zugänglich zu machen. No-Code Tools sind ja auch schon länger wieder in Mode. Die Leute liiieeeeben es irgendein grafisches Tool zu erlernen mit begrenzten Möglichkeiten um damit irgendwas zu bauen, obwohl sie in der gleichen Zeit eine Sprache lernen könnten mit der sie das selbe bauen und noch 1000 mal mehr. Auch Code Generatoren gibt es ja schon lange genug und praktisch keiner davon taugt was.
@343max hey hey hey... Ich setze im letzen Jahr sehr viel AWS Stepfunctions ein, weil man da sehr viel Monitoring, Updates, ... "geschenkt" bekommt. Mit dem Vorteil, dass man am Ende nicht 6 Jahre alte dependencies hat.
@lbenedix Ich bin gespannt auf den Tag an dem Amazon dir das nicht mehr schenkt und du den Preis des Lock-In Effekts kennenlernst.

@343max Ich weiß, was du meinst und hoffe, das mein Arbeitgeber mir dann Geld gibt, um das auf andere Infrastruktur umzuziehen.

Preislich kann aktuell kaum etwas mit AWS ApiGateway + Stepfunction+ DynamoDB mithalten

(wenn das Requestaufkommen moderat ist)

@343max

Benutzt du LLMs eigentlich auch an Stellen, an denen du ein Experte bist? @rstockm

@lbenedix @343max Geht die Frage an mich? Ich würde sagen ja:
- Ultraschall Entwicklung (LUA)
- Metadaten-Projekte an Bibliotheken (mein eigentlicher Job)
@rstockm @343max Und du lässt ein LLM das Projektmanagement machen?
@lbenedix @343max Nein warum sollte ich?
@rstockm @lbenedix Bist du etwa der Mönch der gegen die Druckerpresse anschreit!? In 5 Jahren wird es in jedem Haushalt eine Projekt-Manger-LLM geben die unsere Projekte managed. So wie Laserdrucker und Faxgeräte!
@343max @lbenedix Gut möglich: ich würde das keinesfalls ausschließen. Bisher ist noch jede meiner „das werden KIs so schnell nicht können“ Annahmen zusammengebrochen.
@rstockm @lbenedix Da hattest du mein Zahlenrstespiel nicht mit drauf auf der Liste?
@343max @lbenedix Jedem LLM einen internen Speicherbereich zur Seite zu stellen wäre ja technisch trivial. Wenn man etwas suchen würde, fände man vermutlich auch schon eines das das mitbringt. Kein Showstopper.
@rstockm @lbenedix Ein sehr simples Problem, relativ einfach zu erklären, vermutlich einfach zu implementieren. Und dennoch bereits seit langer Zeit ein Beispiel für eine Sache von der die LLM selbstbewusst behauptet sie zu können und es dann nicht kann. So wie Zehntausende andere Dinge auch. Und wenn die LLMs das können, dann werde ich mir eben ein neues Beispiel suchen das vermutlich nicht viel komplexer wird.
@rstockm @lbenedix Warum ich das tue? Weil ich einfache Beispiele mag die leicht nachvollziehbar aufzeigen wie LLMs funktionieren und wie offensichtlich beschränkt sie sind um den Menschen klar zu machen, dass es keine magischen Denkmaschinen sind. So wie mit dem Tic-Tac-Toe Artikel. Aber schon die Erwähnung der Möglichkeit das LLMs nicht alles können könnten versetzt dich ja schon in massives denial.
@rstockm @lbenedix Hier noch eine Sache die du auf deine Liste der Dinge die LLMs nicht können packen kannst: Verantwortung übernehmen. Für wie wahrscheinlich hältst du es, dass die AI Firmen das 2026 anbieten werden und warum nicht?
@343max @rstockm das schaffen ja nicht mal Autohersteller, die "autonomes Fahren" versprechen.
@rstockm @lbenedix Noch was für die Liste: „Nein“ sagen, wenn eine Idee die ein PM umgesetzt haben will Scheiße ist und keinen Sinn macht. Wobei ich mir auch gut vorstellen kann, dass das ein Grund ist warum gerade PMs LLMs so mögen.
@343max @rstockm Da war die KI damals™ noch besser: "I'm sorry, Dave. I'm afraid I can't do that" hört man von ChatGPT und Freunden nie.
@rstockm @343max um einen Eindruck davon zu bekommen, wie "gut" LLMs sind in Bereichen, in denen du dich sehr gut auskennst. Das kann man dann ganz gut auf Bereiche übertragen, in denen man sich nicht so gut auskennt.
@343max @lbenedix @rstockm Falsch. Auch in all diese Bereiche werden LLMs forciert. Ich sehe wie erste Product Managet anfangen MVPs und einfache Feature selbst mittels LLMs zu bauen.
Und die PMs interessiert nicht wie messy der Code oder die Commits aussehen wenn das Feature das tut was es soll (inkl. NFRs)
@maxheadroom @lbenedix @rstockm Sag ich ja, die Ursache für die Probleme in der Softwareentwicklung liegt nicht bei den Entwicklern sondern bei falschen Prioritäten. Wenn einen PM nicht interessiert ob der Code messy ist, dann hat man ja eine Ursache seines Problems erfolgreich erkannt und und kann es angehen.
@maxheadroom @lbenedix @rstockm Aber: Wenn PMs LLMs einsetzen um am Code rumzuschrauben wieso haben sie dann nicht schon vor 20 Jahren einfach ein wenig am Code rumgeschraubt? Warum hat Programmierung ein so schlechtes Image, dass PMs die jeden Tag damit zu tun haben sich dennoch konsequent weigern selbst Code anzufassen?
@343max @maxheadroom @rstockm Wenn mein PM mit einem LLM bei uns im Code herumfuhrwerkt, würde ich sehr traurig werden. Wir haben ja ausgebildete Softwareentwickler.
@maxheadroom @lbenedix @rstockm Diese Produktmanager, die mit LLMs Code bauen: übernehmen die dann auch Ownership für den Code wenn er kaputt geht oder neue Features braucht oder nicht wartbar ist? Machen dann andere Produktmanager den Code Review oder müssen das wieder Devs machen? Klingt für mich ein wenig als wäre das mal wieder ein Versuch die angenehmen Teile meines Jobs wegzuautomatisieren und nur die nervigen, unsichtbaren Teile dazulassen.
@maxheadroom @lbenedix @rstockm Ich glaube LLMs sind wie diese legendären 10x Developer, nach denen vor 15 Jahren alle gesucht haben. Auch da stellte sich raus, dass die 10x Developer einfach nur schlechte Code geshipt haben, der dann von 10 1x Developern mühsam wieder gefixt werden musste. Nur das eine LLM im Gegensatz zu einem 10x Dev garantiert extrem inkompetent ist, nicht mal theoretisch Verantwortung übernehemen kann und nebenbei den Planeten abfackelt und die Wirtschaft zerstört.
@343max @lbenedix @rstockm Wir können das alles Scheiße finden, aber Fakt ist, das Management das durchdrücken wird. Wenn die LLMs nicht massiv teurer werden, dann sind die trotz aller Defizite immer noch viel viel günstiger als selbst Junior-Devs. Und selbst wenn die schlechten Code produzieren… die reparieren den halt auch viel viel schneller. Ja, Du brauchst noch ein paar gute Devs, die den LLMs richtige Anweisungen geben können. Aber eben nicht Dutzende ...
@maxheadroom @lbenedix @rstockm LLMs werden massiv teurer werden, da alle AI Firmen nur am Geld verbrennen sind und an jedem Kunden massiv Geld verlieren. (und wenn jetzt jemand sagt: Inference wird massiv effizienter und dadurch billiger werden: ach ja? Warum sagt das niemand den AI Firmen die immer mehr Billionen in AI Datacenter stecken?) Und irgendwann kann selbst das schlechteste Management der Welt die Realität nicht mehr ignorieren. (1/2)
LLMs reparieren so lange ihre Fehler bis sie es nicht mehr tun und dieser Punkt ist sehr, sehr schnell erreicht. Und alles was man dann braucht ist ein Dev Team mit sehr viel Zeit der den unwartbaren, undokumentierten AI-slop irgendwie diesen Bug austreibt. (2/2)
Es war schon immer sehr viel billiger und schneller schlechten Code zu schreiben als guten Code. Dennoch haben die meisten Firmen deren überleben von Software abhängt irgendwann alle angefangen lieber den teuren Weg zu gehen. Ich verstehe nicht wieso jetzt drauf bestanden wird all dieses teuer erworbene Wissen wieder wegzuwerfen.
@343max Ich glaube, weil Produkte immer noch in Feature/Zeiteinheit gemessen werden. Nicht in Zeilen Code/Zeiteinheit. Wenn diese Dinger als mehr Feature/Zeiteinheit raushauen, selbst wenn Maintenance dann etwas höher ist… scheint das immer noch attraktiv. Und Long-Term Daten hat eben noch niemand.
@maxheadroom Aber das geht nur so lange gut bis es nicht mehr gut geht. Weil irgendwann (sehr schnell) sind die Anforderungen halt so komplex und vielfältig, dass die AI sie nicht mehr auf die Kette bekommt. Ich habe doch schon so oft erlebt wie eine AI wenn man sie alleine machen lässt innerhalb kürzester Zeit einfach nichts mehr schafft. Wie soll das bei echten Projekten mit echten Nutzern besser gehen?
@maxheadroom Und auch für die AI brauchst du eben noch jemanden der sie prompted und das Ergebnis tested und validiert und korrigiert. Diese Personen tauchen in deiner Rechnung überhaupt nicht auf. Wer soll das denn machen? Machen das dann die teuren PMs weil sie ja keine billigen (Junior) Devs mehr haben?
Das ist ja auch nicht mein erster Rodeo. Ich kann mich noch sehr gut an das "du kannst das scheiße finden, aber es wird durchgedrückt werden, der Zug ist bereits abgefahren" der letzten male erinnern. Damals als all die Blockchainprojekte bei der Zentralbank schon im Rollen waren und garantiert spätestens übernächstes Jahr kommen werden. Oder als big Data das große Ding der Zukunft war. Oder das Metaverse garantiert in 5 Jahren Milliarden Umsatz machen wird. (1/2)
Das waren in vielen Fällen die selben Menschen die mir jetzt AI als unvermeidbar verkaufen wollen. (2/2)
Aus welchen der großen Tech-Hypes der letzten Jahrzehnte auf die das Management so abfuhr ist denn überhaupt was geworden? Außer Cloud Computing fällt mir da ehrlich gesagt nichts ein.