Können KIs böse sein?

Forschung zu KI-Persönlichkeiten 🧠 #Anthropic untersucht, wie #Trainingsdaten das #Verhalten von #KI-Modellen formen und sogar „böse“ #Persönlichkeiten auslösen können.

Daten beeinflussen Charakter 😈 Falsche oder #fehlerhafteAntworten in Trainingsdaten können dazu führen, dass ein Modell unerwartet #aggressiv|e oder #extremistisch|e Antworten gibt. (1/2)

@hanhaiwen

Überraschung.

Was die wenigsten begriffen haben:
#KI hat abgesehen vom Begriff #Intelligenz in seiner Namensgebung nichts, aber auch gar nichts mit Intelligenz zu tun.

Was eine so genannte
#künstlicheIntelligenz ausspuckt ist am Ende ausschließlich Resultat von #Trainingsdaten, also #Informationen, die man dem System zur Verfügung gestellt hat, kombiniert mit einem #Algorithmus, der auf Anfragen #Daten aus seiner Datenbank raussucht, von denen der Algorithmus eine hohe Relevanz errechnet hat.

#zdf #zdfheute
Was für ein schwachsinniger Titel und auch teilweise Inhalt.
Als ich den Titel las, „#EU-KI-Verordnung verlangt Daten-Offenheit“ dachte ich, es geht um #Trainingsdaten und darum, dass die Anbieter offenlegen müssen, woher die Daten kommen.

1. Absatz:
„Die EU möchte Betreiber von #KI-Modellen zu mehr Offenheit zwingen. Ab jetzt müssen die Firmen dahinter offenlegen, welche Trainingsdaten für die Systeme verwendet werden.“

Dazu ein Bild von #DeepSeek, dessen Modell offener ist als ChatGPT, Gemini oder Claude.
Und dann geht es nur um China und DeepSeek.
Erst viel später geht es dann tatsächlich um Trainingsdaten.

https://www.zdfheute.de/wirtschaft/kuenstliche-intelligenz-datenschutz-urheberrecht-eu-100.html

Künstliche Intelligenz: EU-Verordnung verlangt Daten-Offenheit

Die EU möchte Betreiber von KI-Modellen zu mehr Offenheit zwingen. Ab jetzt müssen die Firmen dahinter offenlegen, welche Trainingsdaten für die Systeme verwendet werden.

ZDFheute

#Entwickler aufgepasst:

#BSI warnt vor #Bias in #KI- Systemen

Das #BSI hat eine #Analyse zu #Bias in #KI_Systemen veröffentlicht und warnt davor, die Risiken zu unterschätzen.

Nach Angaben des #BSI können selbst sorgfältig entwickelte KI-Systeme von #Bias betroffen sein. Die #Verzerrungen entstehen häufig bereits in den #Trainingsdaten und können zu #diskriminierenden #Entscheidungen führen.

https://www.golem.de/news/entwickler-aufgepasst-bsi-warnt-vor-bias-in-ki-systemen-2507-198546.html

Entwickler aufgepasst: BSI warnt vor Bias in KI-Systemen - Golem.de

Das BSI hat eine Analyse zu Bias in KI-Systemen veröffentlicht und warnt davor, die Risiken zu unterschätzen.

Golem.de

#SteadyCommunityContent #KINews #Retröt

Nach einigen Monaten Wartezeit habe ich nochmals DALL-E via #ChatGPT mit einigen Stichproben geprüft, wie es mit dem #Bias in der KI-#Bildgenerierung von Personen und Berufsbildern aussieht. Ich habe wieder dieselben Beispiele wie Ende des Jahres 2023 genommen, erweitert um zusätzliche Berufe.

#KI #Stereotype #Klischees #Geschlechtersterotype #Geschlechterklischees #Trainingsdaten #KIModelle

https://tino-eberl.de/ki-news/chatgpt-4-vs-4o-geschlechterklischees-in-der-bildgenerierung/

ChatGPT 4 vs. 4o: Geschlechterklischees in der Bildgenerierung

Wie beeinflussen Bias und Stereotype die KI-Bildgenerierung? Eine Analyse von DALLE und seinen Stereotypen zu Geschlechtern und Berufen.

Tino Eberl

Reddit ist mittlerweile 20 Jahre alt.

#Reddit verteidigt seine #Daten 🛡️ Zum 20. Jubiläum positioniert sich Reddit als #Schutzschild gegen die Datennutzung durch #KIModelle und geht juristisch gegen #Anthropic vor.

User-Kommentare als Schatz 💬 Die riesige Menge an nutzergenerierten #Diskussionen ist ein wertvoller Rohstoff für #KI-#Trainingsdaten, den Reddit gezielt vermarkten und schützen will. (1/2)

#KI ist nicht gleich KI: Ohne qualitative #Trainingsdaten gibt es keine qualitativen Ergebnisse. Wo Anbieter von #LLMs nun planen, Social Media-Posts als Trainingsdaten für maschinelles Lernen zu verwenden, weil gute Datensätze rar sind, definiert das #BSI dankenswerterweise einen Kriterienkatalog zur #Qualitätssicherung von Trainingsdaten in KI-Anwendungen.

Ziel des Katalogs ist die systematische Überführung von abstrakten Qualitätsanforderungen in konkrete Bausteine:

https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/kuenstliche-intelligenz_node.html

Eine KI, die unendlich lernt? Genau das hat das MIT entwickelt.

Neues #Lernverfahren für #KI 🧠 Forscher am #MIT haben eine Methode entwickelt, mit der KI-Modelle kontinuierlich aus neuen Erfahrungen lernen können.

#SEAL macht’s möglich 🔄 Das System “Self Adapting Language Models” (SEAL) lässt Sprachmodelle eigene #Trainingsdaten generieren und ihre Parameter selbst anpassen. (1/2)

Training Künstlicher Intelligenz: Strukturwandel des Öffentlichen?

https://netzpolitik.org/2025/training-kuenstlicher-intelligenz-strukturwandel-des-oeffentlichen/

Wie dürfen Daten für das Training von KI-Modellen genutzt werden? Diese Frage beschäftigt gerade Gesellschaft und Gerichte gleichermaßen. Dabei geht es sowohl um Urheber- als auch Datenschutzrecht – und die Frage, ob die aktuellen Regeln ausreichen.

+++

#ausnahmenimurheberrecht #datenschutzgrundverordnung #dsgvo #ki #künstlicheintelligenz #laion #meta #trainingsdaten #netzpolitik

Credits: Alle Rechte vorbehalten Roboter: IMAGO / Westend61, Netz: Conny Schneider, Bearbeitung: netzpolitik.org