KI-Charaktere erstellen leicht gemacht – und die Schattenseiten der „AI Slop“-Flut

Ok, ich liebe es, neue Dinge aus der bunten Welt der Künstlichen Intelligenz auszuprobieren. Regelmäßige Leserinnen und Leser meines Blogs kennen ja die Titelbilder, die ich seit geraumer Zeit mit der Bild-KI Ideogram.ai erstelle. Sie sind eindeutig als KI-generierte Illustrationen zu erkennen.

Nun hat Ideogram eine neue Funktion hinzugefügt: Ideogram.AI präsentiert mit „Ideogram Character“ ein Feature, das es ermöglicht, aus einem Referenzbild konsistente und vielfältige Charaktervariationen zu erzeugen. Egal ob reale oder erfundene Figuren – die KI rendert unendlich viele Varianten mit hoher Detailtreue und passt sie stilistisch flexibel an verschiedene Szenen, Ausdrücke und Lichtverhältnisse an.

Mit einer Bild-KI herumspielen macht Spaß …

Klar musste ich sofort damit herumspielen. Hier sind einige der Ergebnisse. Ideogram hat ein Bild von mir als „Character“ bekommen, und ich habe Anweisungen gegeben …

  • Stefan mit seiner gefürchteten beidhändigen Rückhand (gelogen).
  • … als Coach von Borussia Mönchengladbach – beim Vereinslogo hat ideogram geschlurt.
  • … als James Bond, der gerade aus dem Meer steigt. Das muskelbepackte Oben-Ohne-Bild habe ich vernichtet.
  • … als Kämpfer der Rebellen-Union in Star Wars mit Chewbacca im Hintergrund.
  • .. als Steve-Jobs-alike Keynote Speaker auf dem Mobile World Congress.
  • … als Bösewicht Blofeld bei James Bond.
  • … als einer der Blues Brothers live on stage

KI-generierte Bilder (und auch) Videos eröffnen faszinierende kreative Möglichkeiten, indem sie eine schier unendliche Vielfalt an Charakteren, Szenen und Stilen schnell und kostengünstig erzeugen können. Diese Technologien ermöglichen innovative Anwendungen von Social-Media-Content bis hin zu personalisierten Designs. Man kann sich hier regelrecht austoben und Spaß haben.

… doch Fake-Bilder und -Videos fluten Social Media

Aber gleichzeitig lauern erhebliche Risiken: In sozialen Netzwerken fluten sogenannte „AI Slop“–Massenproduktionen von billigen, oft irreführenden oder surrealen KI-Inhalten die Feeds. Diese Inhalte wirken oft fotorealistisch, können Desinformation verbreiten und werden häufig undurchsichtig gekennzeichnet oder gar nicht als KI-generiert ausgewiesen.

Der Trend führt zu einer Überflutung mit irrelevanten oder manipulativ gestalteten Medien, die öffentliche Diskurse verzerren und die Vertrauenswürdigkeit digitaler Plattformen stark beeinträchtigen können. Um diesen Gefahren zu begegnen, sind strengere Regulierungen zur Kennzeichnungspflicht, bessere technische Erkennungsmethoden und eine Regulierung automatisierter Verbreitungsmechanismen auf Social Media dringend notwendig – wogegen sich die großen Plattformen ja gerade wehren.

Für Fälschungen sensibilisieren

KI kann unheimlich viel Spaß machen, helfen und Nutzen generieren, aber sie kann genauso einfach missbraucht werden. Die Risiken sind immens, und wir werden wohl regulieren müssen, auch wenn es schwierig sein dürfte, die Flut an Fake-News, -Bildern und -Videos noch einmal einzufangen. Der Geist ist aus der Flasche. Wichtig ist aber, dass eine breite Öffentlichkeit über die Möglichkeiten und Gefahren aufgeklärt wird, damit möglichst wenig auf die Lügen und Manipulationen hereinfallen.

#FakeBilder #FakeNews #FakeVideos #Fälschungen #Ideogram #KI #SocialMedia

Damit hätte #Trump rechnen müssen. Er selbst, bzw. seine Handlanger, nutzen doch schon länger #AI #Fakebilder um u.a. gegen die politische Konkurrenz Stimmung zu machen und Lügen zu verbreiten.

Warum sollte der faschistische, senile Opa davor verschont bleiben?

Abgesehen davon, ist seine Rolle im #Epstein Skandal bisher nicht restlos aufgeklärt. Also muss er damit wohl leben

https://www.zdfheute.de/politik/ausland/trump-epstein-ki-deepfake-videos-100.html

Trump und Epstein - Deepfake-Clips gehen viral

KI-Clips mit Trump und Epstein beim Umgang mit minderjährigen Mädchen gehen viral. Zu echten Fotos, die die Männer-Freundschaft belegen, kommen Fakes - die Millionen erreichen.

ZDFheute
@matzeschmidt Könnten wenigstens "wir" das mit diesen #Fakebilder n sein lassen?
That'd be great. 😒

Der Komplex Fake News ist kein neues Thema bei #9vor9. Wir haben darüber schon gesprochen. Doch angesichts der anstehenden Wahlen in den USA, dem Auftritt von Donald „Trumpeltier“ Trump und seines Unterstützers Elon „Murks“ Musk beim erneuten Auftritt in Butler, nach den schon üblichen Fake News und Lügen, die verbreitet werden, und angesichts immer mehr inszenierter und teilweise gefälschter Bilder und Videos ist es einmal wieder an der Zeit, über das Thema zu sprechen.

https://youtube.com/live/N-sYuzEGA1A

Das Niveau der politischen Diskussion gerade jetzt in den USA bereitet uns große Sorgen. Auf der Seite der Republikaner, korrekter bei den Trump-Anhängern, geht es nicht mehr um eine emotionale, aber immer noch auf Fakten und Respekt basierende politische Auseinandersetzung. Offensichtlich will Trump mit allen Mitteln gewinnen, und zu viele folgen ihm, mal aus Dummheit, mal aus Eigennutz und Profitgier wie besagter Herr Musk.

Rückkehr nach Butler: Eine Messe für Trump. FAZ, 6. Oktober 2024

Moral kennen sich auch angesichts von Katastrophen nicht

Persönlichkeiten wie Elon Musk und Donald Trump streuen gezielt Falschinformationen, um ihre politische Agenda zu unterstützen. Dabei machen sie auch vor Katastrophen und den Bedrohungen von Menschen nicht halt und verbreiten beispielsweise nach dem Hurrikan Helene Fake News und Verschwörungstheorien über unterlassene Katastrophenhilfe der Biden-Regierung.

Solche Desinformationskampagnen gefährden die Fähigkeit der Menschen, fundierte Entscheidungen zu treffen, was insbesondere bei der so wichtigen, anstehenden Wahlentscheidung problematisch ist. Wenn ein Elon Musk dabei die Meinungsfreiheit vorschiebt, um von ihm, Trump und Konsortien verbreitete Fake News und Lügen zu rechtfertigen, ist das der Gipfel des Zynismus und der Menschenverachtung.

Erklärtes russisches Ziel: Deutschland und USA destabilisieren

Das Phänomen der Fake News, falscher Textnachrichten, die verbreitet werden, ist uns länger bekannt. Auch dass Länder wie Russland ganze Bot-Netzwerke einsetzen, um beispielsweise auch Deutschland zu destabilisieren, ist mittlerweile an die Öffentlichkeit gekommen. Ein zentrales Ziel der russischen Social Design Agency ist es, Zukunftsängste in der deutschen Bevölkerung zu schüren. Sie wollen der AfD über 20 Prozent bei den Wahlen verhelfen und das Misstrauen gegenüber etablierten Parteien, insbesondere den Grünen, schüren.

Dies geschieht durch die Verbreitung von Informationen, die Unsicherheit und Misstrauen hervorrufen. Sogenannte Doppelgängerseiten – echt aussehende Kopien bekannter Medienseiten – kommen ebenso zum Einsatz wie Bot-Netzwerke, die die Nachrichten lawinenartig streuen, oder manipulierte Bilder und Videos. Werkzeuge der Künstlichen Intelligenz kommen dabei nahezu überall zum Einsatz.

Mal schnell „geile“ Bilder und Videos generieren lassen

Besonders alarmierend ist die Leichtigkeit, mit der heute manipulative visuelle Inhalte erstellt werden können. KI-Technologie ermöglicht es auch Laien, täuschend echte Bilder und Videos zu generieren, was die Verbreitung von Falschinformationen beschleunigt. Plattformen wie TikTok und YouTube dienen dabei als wichtige Verbreitungskanäle.

Die emotionale Wirkung von Bildern, ob gefälscht oder nicht, darf hierbei nicht unterschätzt werden. Denken wir an das Bild des angeschossenen Trump mit dem blutenden Ohr. Inszenierte oder manipulierte Aufnahmen können durch ihre Ästhetik das Vertrauen der Menschen gewinnen und deren Meinungen nachhaltig beeinflussen.

Politische Edits mit der ganz besonderen Heile-Welt-Ästhetik

Trump verbreitet in seinen Wahlkampfkampagnen ikonische Bilder von sich, die sowohl inszeniert als auch real sein können. Diese visuelle Propaganda wird häufig missbraucht, um Desinformation zu stützen und die Öffentlichkeit gezielt zu manipulieren. Vincenz Först arbeitet in seinem Beitrag auf netzpolitik.org hervorragend heraus, wie bei solchen politischen Edits modernste Konzepte der Werbung zum Einsatz kommen, um letztendlich zu manipulieren.

Schnelle Schnitte, bestimmte Kamerawinkel, einprägsame Musik und professionelle Aufnahmen wirken und können eine bestimmte Ästhetik erzeugen, die durchaus der einen oder anderen gefällt. Das wissen und nutzen die Rechtsextremen. Die demokratisch, sachlich argumentierenden Kräfte haben es da schwer:

In der überreizten Atmosphäre der sozialen Medien gewinnt die Politik der Gefühle, nicht der Sachlichkeit und wertvollen Inhalte. Ruhige und überlegte Stimmen haben in Zukunft noch weniger Chancen, gehört zu werden – und auch hierzulande flimmern bereits die ersten Edits von Björn Höcke und Co. über die Bildschirme.

Politische Edits auf TikTok: Inszenierung mit gefährlichen Nebenwirkungen

Die AfD setzt schon gezielt Bilder ein, die die heile Welt suggerieren und frappierend an eine bestimmte Ideologie erinnern, die wir in Deutschland schon einmal erleiden mussten: blonde Frau vor blauem Himmel mit gescheiteltem Mann und Kindern.

Schnell werden mit einer KI „schöne“ Bilder einer perfekten Welt erstellt: Mit lockigem Haar positiv lächelnde Frauen vor deutschen Monumenten und deutscher Fahne. Vorsicht! Hatten wir schon mal.

Wie gefälschte Bilder und Videos erkennen?

Natürlich erkennt man heutzutage noch oft, wenn Bilder mit KI manipuliert wurden. Oft sind die Hände zu groß, die Proportionen der Gliedmaßen stimmen oft nicht, Details sind merkwürdig. Dieser Beitrag des BSI erklärt, wie man derzeit Deepfakes identifizieren kann. Doch machen wir uns nichts vor: Die Fähigkeiten der KI-Werkzeuge werden immer besser und es wird bald der Punkt kommen, an dem wir solche Fehler nicht mehr erkennen können.

Die wohl vielversprechendste Antwort auf diese Herausforderungen ist eine verbesserte Medien- und Digitalkompetenz (und umfassendere politische Informationen). Diese muss bereits in der Schule gefördert werden, um Jugendliche und Bürgerinnen und Bürger besser gegen die Flut an manipulativen Inhalten zu wappnen. Ein kritischer Umgang mit Medien und ein gesunder Menschenverstand sind auch künftig unerlässlich, um Desinformationen zu erkennen und nicht auf Nepper, Schlepper und Bauernfänger hereinzufallen.

Wie klar ersichtlich ist, wurde das Titelbild mit einer KI, der künstlichen Intelligenz idoegram.ai, erstellt. Der Prompt lautete: A heroic Donald Trump with a crown is seated on a throne. The image is generated from the bottom up. Trump has a bloodstain on his ear. The background contains the American flag and the text „The real X Social Truth“. Elon Musk is seen in the background, dressed as a court jester, and is smirking. The Proud Boys are also in the background, looking up at Trump. The overall image is in a red-orange hue and is over-the-top.

Bei fotorealistischen Bildern ist es meist wesentlich schwieriger, künstlich generierte Bilder zu erkennen.

https://stefanpfeiffer.blog/2024/10/09/fake-news-bilder-videos-das-neue-normal-9vor9/

#9vor9 #AI #DeepFakes #FakeBilder #FakeNews #FakeVideos #KI #Musk #NoAfD #Trump

Before you continue to YouTube

Die Tage habe ich den KI-Newsletter von Zeit Online gelesen. Nicolas Killian beschäftigt sich dort mit KI-Werkzeugen, mit denen man rasend schnell Bilder fälschen und damit das Netz danach fluten kann. Es gibt unterdessen ja genug Beispiele, wie und wer das tut, von Trump bis Musk. Und dass autoritäre Staaten davor auch nicht zurückschrecken, ist selbst bekannt.

Auch ich selbst nutze verscheinde KI-Tools m Alltag. Mit ideogram.ai illustriere ich meine Beiträge, habe aber auch schon herumexperimentiert und Herrn Murks oder Herrn Trump „verschönert“. Die Grenze zwischen dieser „Verschönerung“, Satire und der Verbreitung manipulativer Inhalte ist ehrlich gesagt fließend.

Wann haben wir es verkackt?

Hier musste ich an den Beitrag von Christian Spanik auf den Digisauriern denken, wo er fragt, wann wir das Internet eigentlich verkackt haben, wann wir falsch abgebogen sind. Die Älteren erinnern sich noch daran, als viele auf Facebook enthusiastisch Farmville gespielt haben und viele auch begeistert waren, wie die sozialen Medien den arabischen Frühling gefördert haben. Oder wie viele Jahre habe ich Twitter mit Freude täglich genutzt?

Die vielleicht naive Freude und Begeisterung ist dann deutlich abgeflaut, und wir sehen heute, wie Telegram, TikTok und viele andere Kanäle für Propaganda, Schund, zur Radikalisierung und auch für kriminelle sowie terroristische Zwecke genutzt und missbraucht werden. Gleichzeitig wird beispielsweise Telegram auch heute noch genutzt, um sich in bestimmten Ländern gegen Unterdrückung zu organisieren. Doch andererseits ist es unbestreitbar, dass dort mit Drogen gehandelt wird, dass Nutzer radikalisiert werden, sich Terroristen absprechen und vieles mehr. David Schafbruch und andere dröseln diese Ambivalenz auf.

Nicht per se gut oder schlecht

Technologien wie Social Media oder auch Generative AI sind nicht per se schlecht, aber sie können für „schlechte Zwecke“ verwendet werden. Habe ich eine Antwort darauf, was wir tun sollten? Nein, nicht wirklich. Ich finde, wir können wo nur irgend möglich Content Moderation fordern, regulieren und diejenigen, die sich nicht an Gesetze halten, Hass, Hetze, Fake News und Gewalt verbreiten, bestrafen. Unter anderem deshalb haben Lars und ich auch die Festnahme von Durow begrüßt. Auch die Tech-Mogule dürfen nicht über dem Gesetz stehen.

Von diesem aus Thema ist es nicht weit zur AfD, die ja gerade TikTok dominiert und dort ihre Propaganda streut, und meinen Gedanken zu den gerade vergangenen Landtagswahlen in Sachsen und Thüringen und dem damit einhergehenden Rechtsruck, dem anderen Thema der dieswöchigen Wochenschau.

https://stefanpfeiffer.blog/2024/09/08/das-netz-euphorie-damals-ernuchterung-durch-fake-bilder-und-news-heute/

#FakeBilder #FakeNews #GenAI #Manipulation #Wochenschau

Ich konnte nicht widerstehen und musste mit Flux.1 einige Fake-Bilder "Prominenter" erstellen, u.a. von Donald und Herrn #murks
Ein mit der KI Flux.1 erstelltes Fake-Bild von Elon Musk im T-Shirt mit der Aufschrift "I don't like Donald Trump"
#Wochenschau #GenAI #FakeBilder

Meine Wochenschau: Olympia in Paris, seht beeindruckend. Auch beeindruckend: KI-Bilder aus dem Schwarzwald. Weltkatzentag, "weird", das Trump-eltier und einiges mehr. Ich konnte nicht widerstehen und musste mit Flux.1 einige Fake-Bilder "Prominenter" erstellen, u.a. von Donald und Herrn Murks.

#Wochenschau #GenAI #FakeBilder #Olympia #weird

http://stefanpfeiffer.blog/2024/08/11/epische-bilder-nur-die-adler-sind-nicht-gekommen-wochenschau/

Epische Bilder: Nur die Adler sind nicht gekommen #Wochenschau

Meine Wochenschau: Olympia in Paris, seht beeindruckend. Auch beeindruckend: KI-Bilder aus dem Schwarzwald. Weltkatzentag, „weird“, das Trump-eltier und einiges mehr.

StefanPfeiffer.Blog
falls ihr mal #Fake-Bilder erkennen wollt: Ich habe dazu einen kleinen Beitrag auf unserer Website geschrieben, wie das einfach geht... - Danke für die Hinweise, #Mimikama und #Andre #Wolf!
https://www.familie-zwoelfer.de/web/index.php/de/fakebilder?language_content_entity=de
#Desinformation #erkennen
@parents4future
Desinformation etc... aufspüren und blockieren | Familie Zwölfers Blog 4.0

HAW entwickelt Wasserzeichen gegen Deepfakes

Mit "SaM-fake" werden unsichtbare Wasserzeichen bereits während der Aufnahme in die Dateien von Fotos, Videos und Audiodateien eingebrannt.

https://www.ndr.de/fernsehen/sendungen/hamburg_journal/HAW-entwickelt-Wasserzeichen-gegen-Deepfakes,hamj144244.html

#Hamburg #HAW #WasserzeichengegenDeepfakes #Forschung #Universität #KI #Manipulation #Fakebilder #CyberSicherheit #Echtheit #HamburgJournal

HAW entwickelt Wasserzeichen gegen Deepfakes

Mit "SaM-fake" werden unsichtbare Wasserzeichen bereits während der Aufnahme in die Dateien von Fotos, Videos und Audiodateien eingebrannt.

NDR Mediathek

Wie #Faktenchecker arbeiten, darüber berichtet #Zeitonline: Bilder aus dem Krieg: Kästchen für Kästchen in die Nähe der Wahrheit

Angesichts der #FakeBilder und #FakeNews
wird die Arbeit von Menschen wichtiger, die Behauptungen überprüfen und Informationen minutiös hinterher recherchieren. Faktenchecker und Investigativjournalistinnen arbeiten nicht nur nach den Vorfällen in Israel daran, Bilder und Videos zu verifizieren.

https://www.zeit.de/digital/2023-10/krieg-bilder-israel-faktenchecker-bellingcat-social-media

Bilder aus dem Krieg: Kästchen für Kästchen in die Nähe der Wahrheit

Woher kam die Rakete, die neben dem Al-Ahli-Arabi-Krankenhaus explodierte? Weil solche Fragen im Zentrum des Krieges stehen, sind Faktenchecker wichtig. Wie arbeiten sie?

ZEIT ONLINE