Also die Bilderzeugung von Telli überzeugt mich noch nicht ganz.

#FediLZ

@TexJoachim Wieso? Die Zahlen stimmen doch.
@CSchwartz Ich bin da etwas pedantisch. Die müssten schon gleich vom Design her sein. Und nicht doppelt auftauchen. :)
@TexJoachim Danke, schönes Beispiel warum LLMs scheitern.
@TexJoachim was steckt denn für ein Bilderzeugungsmodell dahinter?
@uivens Das Modell ist: Imagen 4.
@uivens Aber bislang haben alle von mir getesteten Modelle solchen Stuss erzeugt.
@TexJoachim Tatsächlich ist es gar nicht so einfach gute Bildprompts zu schreiben.

Ich bin wirklich sehr positiv überascht, was das Bildmodell von #Google schafft (wir haben das etwas ältere #DSGVO-Konform in unserer #DeutschlandGPT Instanz). Ich lasse mir die Bildprompts gerne als Meta-Prompts durch Gemini 2.5 Pro (auch im DeutschlandGPT) schreiben. Das funktioniert wirklich gut. So kann man in natürlicher Sprache den Wunsch äußern, dann erstellt der einen passenden Bild-Prompt, den man nachschärfen kann, wenn man möchte.

Wie machst du deine Prompts?
Akkoma

@uivens Ich schreibe einfach, was ich brauche. Im Beispiel oben ist der Prompt sogar mit drin.
@TexJoachim Oh. Den hatte ich gar nicht wahrgenommen. Naja, shit in shit out 😜. Versuch es mal über den Metapromt Weg, den ich beschrieben hatte. Ergebnisse werden in der Regel besser nutzbar. Multimediales Prompting geht auch gut, wenn du in einem Stil bleiben möchtest. Also ein Beispielbild nutzen.

@uivens Ja. Shit in-shit Out.

Aber: Mit prompten einen Prompt zu erzeugen, um ein Bild generieren zu lassen, macht mehr Arbeit, als das Foto selbst zu machen.

Ist sozusagen mein Test-Case ab wann diese Dinger nutzbar werden.

@TexJoachim Ja, ok. Kann man so sehen.

Wenn ich (gerade mit Bildungsbezug) etwas generieren möchte habe ich eine Idee, die ich umsetzen will. In der Regel mit einem methodischen oder didaktischen Gedanken oder einer Idee zur Illustration.

Vielleicht ist das der Grund dafür das #Metaprompting bei mir exzellent funktioniert. Dann kann ich die Idee in natürlicher Sprache verfassen und die KI erstellt mir einen funktionalen #Bildprompt für das gewünschte Bildmodell. Klar dauert das etwas. Es ist aber auch kein Selbstläufer gute Bilder zu generieren (nicht fotografieren)!

Solche #Zeroshot-Prompts funktionieren bei mir mit Bildergenerierung fast nie wie gewünscht. Dafür ist mir persönlich dann einfach die Energie zu schade, die verbraucht wird für Datenmüll.

Zeroshots funktionieren m.E. nur gut bei Veränderung von Bildern oder passenden Kontextdateien. Farben tauschen von Objekten in bestehenden Bild oder sowas, dafür passt das prima!

Akkoma

@uivens @TexJoachim als erstes kommt es auf das Model an. Es ist ein Unterschied zwischen Stable Defusion, Flux und Z-Image Beispielsweise. Z-Image, womit ich Lokal Arbeite, hat eine andere Art des Prombt Schreibens. Hier geht es zuerst was willst du Darstellen, dann die Location und am Ende welcher Stil. Hiermit Schafe ich für mich Brauchbare Ergebnisse mit Z-Image-Turbo.
@JegCreativity @TexJoachim genau, letztlich eine planvolle Herangehensweise statt Zeroshot.