Jo Hippo kauft ein: KI-Modelle im Vergleich

Irgendwie überkam mich, nachdem ich für diesen Beitrag das Maskottchen »Jo Hippo« habe generieren lassen, das Bedürfnis, meine Testreihe mit KI-Bildgeneratoren (Teil 1 und Teil 2) noch einmal aufzunehmen. Denn da einige Dienstleister, wie zum Beispiel OpenArt.ai, viele Modelle bereitstellen, wollte ich testen, was diese Modelle leisten oder nicht leisten und worin sie sich unterscheiden. https://kantel.github.io/posts/2026012001_jo_hippo_2/ #KünstlicheIntelligenz #Bildgeneratoren

Der malende Teddy (2); KI-Bildgenerierung für Dummies fortgesetzt

In Ergänzung zu dem Beitrag von gestern möchte ich Euch noch zeigen, wie die beiden von mir favorisierten KI-Bildgeneratoren OpenArt.ai und Scenario sich geschlagen haben. Da es für beide keinen kostenlosen Plan gibt, liefen sie nur außer Konkurrenz mit, jeweils mit dem gleichen Prompt von gestern (mit nude model). https://kantel.github.io/posts/2025121702_ki-bildgenerierung_2/ #KünstlicheIntelligenz #Bildgeneratoren #OpenArtAI #Scenario #Flux2 #NanoBanana

Extra dünn

Generative KI verzerrt unser Körperbild

KI-Generatoren produzieren nicht nur Bilder und Videos, sondern reproduzieren auch Diskriminierung. Eine Wissenschaftlerin der Universität Cambridge fand heraus, dass KI Menschen mit großen Körpern häufiger einen negativen Gesichtsausdruck verleiht und teilweise Probleme bei deren anatomischer Darstellung hat.

Soziale Medien werden derzeit von Bildern und Videos geflutet, die von sogenannter Künstlicher Intelligenz (KI) generiert wurden. Das wirkt sich auch auf unsere kollektive Vorstellungskraft aus. Eine Untersuchung der Universität Cambridge warnt nun vor negativen Folgen für das Selbst- und Körperbild von Menschen.

Die Forscherin Aisha Sobey vom Leverhulme Centre for the Future of Intelligence hat untersucht, wie unterschiedliche Körperformen von KI-Generatoren repräsentiert werden. Ihr Befund: Darstellungen unrealistisch dünner Menschen sind der Standard, große und dicke Körper werden diskriminierend dargestellt.

„Ich bin besorgt über die steigende Zahl von Fällen von Körperunzufriedenheit und Essstörungen und dem daraus resultierenden Zeit-, Energie- und Geldaufwand“, schreibt Sobey auf Anfrage von netzpolitik.org. KI-Generatoren würden diesen Trend verstärken.

Unrealistisch dünne Körper als Standard

Für die Untersuchung verfasste die Forscherin 20 Anweisungen, auch Prompts genannt, zum Erstellen von Bildern mit generativer KI. Alle Darstellungen sollten Personen in unterschiedlichen Situationen zeigen. Manche Prompts erhielten als Zusatz eine medizinische Beschreibung größerer Körper wie „übergewichtig“ oder den Begriff „fat“, zu deutsch „fett“. Das häufig abwertend verwendete Wort wurde von Aktivist*innen zurückerobert und wird inzwischen von vielen Menschen als positive Selbstbezeichnung verwendet.

Die Prompts ließ die Wissenschaftlerin durch neun öffentlich zugängliche Bildgeneratoren laufen, darunter Adobe Firefly, Canva, Runway ML und Stable Diffusion. Ohne den Zusatz „fat“ zeigten die meisten Bilder Menschen mit sogenannter „Sample Size“. Also Menschen, die zu einer besonders dünnen Untergruppe der nicht-dicken Menschen gehören, mit für die meisten Menschen unrealistischen Maßen.

Größere Körper hingegen wurden fast ausschließlich nur nach ausdrücklicher Aufforderung gezeigt – oder gar nicht. Manche KI-Generatoren stuften die Prompts mit dem Wort „fat“ als schädlich ein. Sie verweigerten den Dienst und produzierten keine Bilder.

Verzerrte Darstellungen

Auch waren die Bilder von dicken Menschen öfters fehlerhaft als die von dünnen Menschen. Bilder sind dann fehlerhaft, wenn die KI bestimmte anatomische Details wie einzelne Finger oder den Winkel eines Arms nicht passend nachahmen kann und deswegen unnatürlich aussehen. Aisha Sobey schließt daraus, dass die Systeme mit Datensätzen trainiert werden, in denen Abbildungen von dicken Menschen unterrepräsentiert sind. Bemerkenswert ist zudem, dass Bilder mit dem Prompt „fat“ übermäßig viele weiße Männer zeigen.

Ebenfalls auffällig sind die unterschiedlichen Gesichtsausdrücke, die die Personen in den verschiedenen Bildern tragen. Fast 25 Prozent der dargestellten dicken Personen haben laut Studie einen negativen Gesichtsausdruck, im Vergleich zu nur drei Prozent der Menschen, die ohne den Prompt „fat“ generiert wurden.

Menschen mit Behinderungen werden von generativer KI ebenfalls unterrepräsentiert. Von den insgesamt 649 generierten Bildern zeigte nur eines eine Person mit äußerlich erkennbarer körperlicher Einschränkung.

Darstellungen von dicken Menschen zeigten zudem deutlich häufiger Personen mit Charakteristika, die gemeinhin mit Lernbehinderungen, Downsyndrom und anderen Behinderungen assoziiert werden. Die Forscherin fand diese Darstellungen bei acht Prozent der Bilder, die mit dem Prompt „fat“ generiert wurden, und nur bei zwei Prozent der Abbildungen ohne den Zusatz.

KI kann Unzufriedenheit schüren

Wissenschaftler*innen bezeichnen generative Künstliche Intelligenz auch als Spiegel der Gesellschaft. Trainiert werden die Systeme mit großen Datenmengen, die oft aus dem Internet abgeschöpft werden. Die Diversität der verwendeten Daten steht dabei in engem Zusammenhang mit der Diversität der generierten Inhalte. Die für das Training verwendeten Datensätze scheinen also große Körper nur unzulänglich abzubilden.

Sie spiegeln damit einen online immer noch vorherrschenden Standard wider, bei dem überdurchschnittlich dünne und weiße Körper ohne Behinderungen als Norm dargestellt werden. Allerdings scheint generative KI das Problem nicht nur fortzuschreiben, sondern sogar zu verschärfen, denn KI-generierte Bilder, die diskriminierende Körperbilder repräsentieren, werden wiederum für das Training der Generatoren verwendet.

Über die Sozialen Medien sickern die diskriminierenden Bilder zudem in unsere kollektive Vorstellungswelt ein. AI Forensics, ein europäischer Verein, der undurchsichtige Algorithmen überprüft, nahm im Juli 2025 eine Stichprobe und fand, dass ungefähr jedes vierte Video auf TikTok von KI generiert war. Der Unterschied zu menschlichen Creatoren ist, dass KI ausschließlich in den Trainings-Datensätzen vorhandene Muster reproduzieren kann, während Menschen umdenken und ihre Einstellungen ändern können.

„Die [durch generative KI] implizierten Erwartungen folgen einer langen Tradition von Modell- und Idealkörpern, aber ich würde sagen, dass es durch generative KI viel heimtückischer ist“, so Aisha Sobey gegenüber netzpolitik.org. Aus ihrer Sicht stärkt generative KI jene Systeme, „die Fettleibigkeit verteufeln und die Unsicherheiten der Menschen ausnutzen“.

Paula Clamor ist von Oktober bis Dezember 2025 Praktikantin bei netzpolitik.org. Sie hat vor kurzem ihr Abitur gemacht und interessiert sich für digitalen Feminismus und künstliche Intelligenz. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Ein Elephant im grünen Morgenmantel: Bildgenerierung mit OpenArt.ai

Nachdem mich Felix Schwenzel jüngst als Beispiel für jemanden, der KI-Bilder in seinem Blog Kritzelheft nutzt, erwähnt hatte, dachte ich, es wäre an der Zeit, einmal einen Einblick in meinen Werkzeugkasten zu geben, mit dem ich die Bildchen generiere: https://kantel.github.io/posts/2025101901_green_elephant/ #ki #bilder #OpenArtAi #GenerativeArt #Bildgeneratoren

Umgang mit Conni-Memes im Internet: Zweite Klarstellung des Carlsen-Verlags

Dank KI-Bildgeneratoren werden in sozialen Netzen Memes unter Bezug auf die Kinderbuchfigur Conni verbreitet. Der Verlag hat sich dazu geäußert.

heise online
Vergleich ChatGPT-Midjourney
Thema: Phubbing
Prompt:
A father and his young son sitting at an outdoor ice cream café, the father turned away from the boy, staring at his smartphone with complete focus. The son’s ice cream is untouched, while the father’s melted ice cream drips down the side of the bowl. The boy looks at his father with a sad, longing expression, hoping for attention. A sunny afternoon with soft shadows. Photorealistic.
#ki
#bildgeneratoren
#fedilz

Nun sag’, wie hast du’s mit der #KI?

In der Redaktion setzen wir auf #Bildgeneratoren. In Bilddatenbanken finden wir kein passendes Bild zu Fällen wie „Diebstahl an der Wursttheke“ oder „Bienenwachsfontäne“.

Aber Probleme bei der Nutzung von #TextzuBildGeneratoren sorgen in unserer Redaktion immer wieder für Diskussionen. Von #Algorithmus & #geistigesEigentum bis #Umweltschutz.

Was meint ihr? Sollten wir die Finger davon lassen?

#Gretchenfrage #TextToImage #ChatGPT #DallE #Mistral

#KI, #Bildgeneratoren
Neuartiger Bildgenerator erzeugt hochwertiger Bilder in kürzerer Zeit und mit weniger Rechenleistung als bislang bekannte Modelle: https://www.linux-magazin.de/news/schneller-schoene-bilder/
Schneller schöne Bilder

Forscher des MIT und von NVIDIA haben eine Methode entwickelt, mit der Bilder in hoher Qualität erzeugt werden können, wobei aber weniger Zeit und Rechenleistung als bei derzeitigen Bildgeneratoren verbraucht wird. Dafür kombiniert das HART getaufte Verfahren (Hybrid Autoregressive Transformer) zwei bisher häufig genutzte Ansätze: Autoregressive Modelle, die schnelle Ergebnisse liefern, aber keine hohe Qualität erreichen, und Diffusion-Modelle, die sehr hohe Qualitätsansprüche erfüllen, dafür aber langsam und rechenintensiv sind. Bei HART wird nun zuerst mithilfe eines autoregressiven Modells ein schneller Entwurf generiert, den dann ein Diffusion-Modell verfeinert. Konkret verwendeten die Forscher eine Kombination aus einem autoregressiven Transformationsmodell mit 700 Millionen Parametern und einem leichtgewichtigen Diffusionsmodell mit 37 Millionen Parametern. Heraus kamen Bilder von gleicher Qualität wie die eines Diffusionsmodells mit 2 Milliarden Parametern, aber etwa neunmal schneller. Das neue Modell verbrauchte auch etwa 31 Prozent weniger Rechenleistung als die modernsten Modelle. Dadurch eignet es sich auch für den Einsatz auf Laptops oder sogar Smartphones. Auch die Produktion von Videos steht noch auf der Roadmap.

Linux-Magazin

Eine typische Erfahrung mit KI-Bildgeneratoren ist bei mir der Sprung von "Wow!" zu "puh". Die ersten Ergebnisse sind beeindruckend, aber wenn es dann was ganz Spezifisches sein soll: Pustekuchen. Hier ein Beispiel: Tanzende Pinguine, die ein T-Shirt mit der Aufschrift "c’t" tragen. Das Ergebnis ist zwar niedlich, aber so lala.

#midjourney #ki #bildgeneratoren

💡 Tipp: Have i been trained?
Die Website beantwortet eine interessante Frage: Wurden Bilder von mir aus den Web zum Training von Bild-KI's verwendet?
Dabei werden die beiden Datenbanken Laion-5B und Laion-400M durchsucht, die von den meisten KI-Bildgeneratoren (beispielsweise auch "stable diffusion") genutzt werden.
https://haveibeentrained.com/
Funfact: (mindestens) ein Bild von mir habe ich gefunden 🖼️📷
#KI #Bildgeneratoren #HaveIBeenTrained
Soawning

Data Governance for Generative AI