Europa ist bei Sprachmodellen wieder im Spiel - Handelsblatt Live https://share.google/2YPvjSXtbYjfaL3NM
#Erfundene #Quellen: Wie #Chatbots die #Wikipedia #vergiften
Manche #NutzerInnen lassen sich #WikipediaArtikel von #Sprachmodellen #generieren, #inklusive #erfundener #Referenzen. Ein #WikipediaUrgestein #stolperte zufällig über die #halluzinierten #Artikel – ausgerechnet mit der Hilfe von einem #Sprachmodell.
https://netzpolitik.org/2025/erfundene-quellen-wie-chatbots-die-wikipedia-vergiften/#netzpolitik-pw

Manche Nutzer:innen lassen sich Wikipedia-Artikel von Sprachmodellen generieren, inklusive erfundener Referenzen. Ein Wikipedia-Urgestein stolperte zufällig über die halluzinierten Artikel – ausgerechnet mit der Hilfe von einem Sprachmodell.
Mehrere französische #Medienhäuser protestieren gegen die unautorisierte Nutzung ihrer Inhalte durch #KI-Systeme.
Besonders im Fokus stehen frei zugängliche Datenbanken wie #CommonCrawl, deren Inhalte zum Training von #Sprachmodellen genutzt werden.
Die #Verlage fordern die Entfernung urheberrechtlich geschützter Inhalte und kündigen rechtliche Schritte an.
#Urheberrecht #KünstlicheIntelligenz #Frankreich #Verwertungsrechte
#Zoomposium mit Dr. #Gabriele #Scheler: "Die #Sprache des #Gehirns - oder wie #KI von #biologischen #Sprachmodellen lernen kann"
Es gibt einen #Paradigmenwechsel weg vom rein informationstechnologischen-mechanistischen, rein daten-getriebenen #Big #Data-Konzept der #LLMs hin zu immer stärker informationsbiologische-polykontexturalen, struktur-getriebenen #Künstliche, #Neuronale #Netzwerke (#KNN)-Konzepten.
Mehr auf: https://philosophies.de/index.php/2024/11/18/sprache-des-gehirns/
#Zoomposium mit Dr. #Gabriele #Scheler: "Die #Sprache des #Gehirns - oder wie #KI von #biologischen #Sprachmodellen lernen kann"
Es gibt einen #Paradigmenwechsel weg vom rein informationstechnologischen-mechanistischen, rein daten-getriebenen #Big #Data-Konzept der #LLMs hin zu immer stärker informationsbiologische-polykontexturalen, struktur-getriebenen #Künstliche, #Neuronale #Netzwerke (#KNN)-Konzepten.
Mehr auf: https://philosophies.de/index.php/2024/11/18/sprache-des-gehirns/
#ChatGPT hinterlässt #unsichtbare #Zeichen im #Text
In den neueren #Sprachmodellen von #OpenAI hinterlässt die KI offenbar absichtlich unsichtbare Zeichen.
Dem Bericht nach hinterlassen die Modelle #GPT- #o3 und #o4-mini unsichtbare #Unicode-Zeichen in dem generierten Text. #OpenAI kündigte diese Maßnahme bisher nicht an.
Vielleicht sollte man mit den zahllosen #Sprachmodellen, die bereits am #Markt sind, einen #Klon von #SteveJobs erstellen und ihn dann fragen, was zu tun ist. Wenn der ehemalige #Vorreiter plötzlich nicht liefern kann in Sachen #KI, ist das schon bedenklich, denn mit seiner #VR-Brille Vision Pro haben sie ja auch innovatives #Neuland betreten.
#Apple in der Kritik: „Etwas ist faul im Staat #Cupertino“
https://www.mobiflip.de/shortnews/apple-in-der-kritik-etwas-ist-faul-im-staat-cupertino/
Außerdem freuen uns auf den Abendvortrag von Katharina Zweig zu #Sprachmodellen.
Die Vorträge können von Interessierten besucht werden, der Vortrag von Katharina Zweig findet im Foyer im Erdgeschoss des InformatiKOM (KIT) statt.
Alle weiteren Infos zu den Vorträgen gibt es hier: https://rhet.ai/2025/02/20/gal-research-school-27-28-02-2025-vortraege/
#News 📢 aus der #KI-#Forschung 🤖: „Wie #ChatGPT 📱 von menschlichen #Gehirnen 🧠 profitieren kann – oder wie wir #Maschinen 💻 das #Denken 🤓 beibringen“
Ein „Highlight“ war zum Beispiel das sehr spannende Interview „Zoomposium mit Dr. #Patrick #Krauß: „Bauanleitung Künstliches Bewusstsein“, in dem wir ihn zu den Möglichkeiten befragt haben, „wie man die #Theorien des #Bewusstseins – insbesondere jene von #Antonio #Damasio – nutzen könnte, um künstliche Systeme zu entwickeln, die auf "#gefühlten" #Informationen basieren. Diese Grundlage könnte dazu dienen, um #maschinelles #Lernen und #Deep #Learning so zu gestalten, dass KI-Systeme lernen, ähnlich wie #biologische #Organismen auf #Emotionen und #Veränderungen in ihrer #Umgebung zu reagieren.
In diesem Zusamenhang war #Patrick #Krauß auch aktuell vom 03. bis 05. Oktober 2024 auf der #Embodied and #Situated #Language #Processing (#ESLP2024) conference, die von Mitgliedern des #Brain #Language #Lab der #FreienUniversitätBerlin organisiert worden war. Dort hatte er zuammen mit seinem Team von der #FAU die Möglichkeit die neuesten Forschungsergebnisse vorzustellen.
In dem Vortrag von #Patrick #Krauß ging es um eine Studie „Analyzing Narrative Processing in Large Language Models“, die er in Zusammenarbeit mit seinem Kollegen #Achim #Schilling erstellt hatte. Die Ergebnisse dieser Studie basieren zum Teil auf einen Artikel „Leaky-Integrate-and-Fire Neuron-Like Long-Short-Term-Memory Units as Model System in Computational Biology“, für den er und sein Team auf der „International Jount Conference on Neural Networks #IJCNN2023“, der weltweit größten interdisziplinären Konferenz für #künstliche und #biologische #neuronale #Netze zusammen mit seinem Team mit dem #BestPaperAward ausgezeichnet worden ist.
Es geht bei der aktuellen KI-Forschung von Herrn #Krauß folglich um ein echtes „jointventure“ zwischen #KI und #Neurowissenschaft, da die Daten und Methoden direkt zur Verbesserung von großen #Sprachmodellen (#Large #Language #Model #LLM), wie z. B. #ChatGPT beitragen können und im Gegenzug die #kognitiven #Neurowissenschaften aus der #Implementierung und #Simulation von #kognitiven #Prozessen auf #Maschinen ebenfalls wieder etwas über die #Verwendung und #Bildung von #Sprache im #Gehirn erfahren können.
Wer mehr zu #Patrick #Krauß ' sehr interessanten #Forschungsergebnissen erfahren möchte, kann sich hier informieren:
https://www.ai.fau.digital/speakers/dr-patrick-kraus/
oder auf: https://philosophies.de/index.php/2023/10/24/bauanleitung-kuenstliches-bewusstsein/