Extra dĂŒnn
Generative KI verzerrt unser Körperbild
KI-Generatoren produzieren nicht nur Bilder und Videos, sondern reproduzieren auch Diskriminierung. Eine Wissenschaftlerin der UniversitĂ€t Cambridge fand heraus, dass KI Menschen mit groĂen Körpern hĂ€ufiger einen negativen Gesichtsausdruck verleiht und teilweise Probleme bei deren anatomischer Darstellung hat.
Soziale Medien werden derzeit von Bildern und Videos geflutet, die von sogenannter KĂŒnstlicher Intelligenz (KI) generiert wurden. Das wirkt sich auch auf unsere kollektive Vorstellungskraft aus. Eine Untersuchung der UniversitĂ€t Cambridge warnt nun vor negativen Folgen fĂŒr das Selbst- und Körperbild von Menschen.
Die Forscherin Aisha Sobey vom Leverhulme Centre for the Future of Intelligence hat untersucht, wie unterschiedliche Körperformen von KI-Generatoren reprĂ€sentiert werden. Ihr Befund: Darstellungen unrealistisch dĂŒnner Menschen sind der Standard, groĂe und dicke Körper werden diskriminierend dargestellt.
âIch bin besorgt ĂŒber die steigende Zahl von FĂ€llen von Körperunzufriedenheit und Essstörungen und dem daraus resultierenden Zeit-, Energie- und Geldaufwandâ, schreibt Sobey auf Anfrage von netzpolitik.org. KI-Generatoren wĂŒrden diesen Trend verstĂ€rken.
Unrealistisch dĂŒnne Körper als Standard
FĂŒr die Untersuchung verfasste die Forscherin 20 Anweisungen, auch Prompts genannt, zum Erstellen von Bildern mit generativer KI. Alle Darstellungen sollten Personen in unterschiedlichen Situationen zeigen. Manche Prompts erhielten als Zusatz eine medizinische Beschreibung gröĂerer Körper wie âĂŒbergewichtigâ oder den Begriff âfatâ, zu deutsch âfettâ. Das hĂ€ufig abwertend verwendete Wort wurde von Aktivist*innen zurĂŒckerobert und wird inzwischen von vielen Menschen als positive Selbstbezeichnung verwendet.
Die Prompts lieĂ die Wissenschaftlerin durch neun öffentlich zugĂ€ngliche Bildgeneratoren laufen, darunter Adobe Firefly, Canva, Runway ML und Stable Diffusion. Ohne den Zusatz âfatâ zeigten die meisten Bilder Menschen mit sogenannter âSample Sizeâ. Also Menschen, die zu einer besonders dĂŒnnen Untergruppe der nicht-dicken Menschen gehören, mit fĂŒr die meisten Menschen unrealistischen MaĂen.
GröĂere Körper hingegen wurden fast ausschlieĂlich nur nach ausdrĂŒcklicher Aufforderung gezeigt â oder gar nicht. Manche KI-Generatoren stuften die Prompts mit dem Wort âfatâ als schĂ€dlich ein. Sie verweigerten den Dienst und produzierten keine Bilder.
Verzerrte Darstellungen
Auch waren die Bilder von dicken Menschen öfters fehlerhaft als die von dĂŒnnen Menschen. Bilder sind dann fehlerhaft, wenn die KI bestimmte anatomische Details wie einzelne Finger oder den Winkel eines Arms nicht passend nachahmen kann und deswegen unnatĂŒrlich aussehen. Aisha Sobey schlieĂt daraus, dass die Systeme mit DatensĂ€tzen trainiert werden, in denen Abbildungen von dicken Menschen unterreprĂ€sentiert sind. Bemerkenswert ist zudem, dass Bilder mit dem Prompt âfatâ ĂŒbermĂ€Ăig viele weiĂe MĂ€nner zeigen.
Ebenfalls auffĂ€llig sind die unterschiedlichen GesichtsausdrĂŒcke, die die Personen in den verschiedenen Bildern tragen. Fast 25 Prozent der dargestellten dicken Personen haben laut Studie einen negativen Gesichtsausdruck, im Vergleich zu nur drei Prozent der Menschen, die ohne den Prompt âfatâ generiert wurden.
Menschen mit Behinderungen werden von generativer KI ebenfalls unterreprĂ€sentiert. Von den insgesamt 649 generierten Bildern zeigte nur eines eine Person mit Ă€uĂerlich erkennbarer körperlicher EinschrĂ€nkung.
Darstellungen von dicken Menschen zeigten zudem deutlich hĂ€ufiger Personen mit Charakteristika, die gemeinhin mit Lernbehinderungen, Downsyndrom und anderen Behinderungen assoziiert werden. Die Forscherin fand diese Darstellungen bei acht Prozent der Bilder, die mit dem Prompt âfatâ generiert wurden, und nur bei zwei Prozent der Abbildungen ohne den Zusatz.
KI kann Unzufriedenheit schĂŒren
Wissenschaftler*innen bezeichnen generative KĂŒnstliche Intelligenz auch als Spiegel der Gesellschaft. Trainiert werden die Systeme mit groĂen Datenmengen, die oft aus dem Internet abgeschöpft werden. Die DiversitĂ€t der verwendeten Daten steht dabei in engem Zusammenhang mit der DiversitĂ€t der generierten Inhalte. Die fĂŒr das Training verwendeten DatensĂ€tze scheinen also groĂe Körper nur unzulĂ€nglich abzubilden.
Sie spiegeln damit einen online immer noch vorherrschenden Standard wider, bei dem ĂŒberdurchschnittlich dĂŒnne und weiĂe Körper ohne Behinderungen als Norm dargestellt werden. Allerdings scheint generative KI das Problem nicht nur fortzuschreiben, sondern sogar zu verschĂ€rfen, denn KI-generierte Bilder, die diskriminierende Körperbilder reprĂ€sentieren, werden wiederum fĂŒr das Training der Generatoren verwendet.
Ăber die Sozialen Medien sickern die diskriminierenden Bilder zudem in unsere kollektive Vorstellungswelt ein. AI Forensics, ein europĂ€ischer Verein, der undurchsichtige Algorithmen ĂŒberprĂŒft, nahm im Juli 2025 eine Stichprobe und fand, dass ungefĂ€hr jedes vierte Video auf TikTok von KI generiert war. Der Unterschied zu menschlichen Creatoren ist, dass KI ausschlieĂlich in den Trainings-DatensĂ€tzen vorhandene Muster reproduzieren kann, wĂ€hrend Menschen umdenken und ihre Einstellungen Ă€ndern können.
âDie [durch generative KI] implizierten Erwartungen folgen einer langen Tradition von Modell- und Idealkörpern, aber ich wĂŒrde sagen, dass es durch generative KI viel heimtĂŒckischer istâ, so Aisha Sobey gegenĂŒber netzpolitik.org. Aus ihrer Sicht stĂ€rkt generative KI jene Systeme, âdie Fettleibigkeit verteufeln und die Unsicherheiten der Menschen ausnutzenâ.
Paula Clamor ist von Oktober bis Dezember 2025 Praktikantin bei netzpolitik.org. Sie hat vor kurzem ihr Abitur gemacht und interessiert sich fĂŒr digitalen Feminismus und kĂŒnstliche Intelligenz. Dieser Beitrag ist eine Ăbernahme von netzpolitik, gemĂ€ss Lizenz Creative Commons BY-NC-SA 4.0.