Der Umstand, dass Software wie ChatGPT gar nicht intelligent ist, sondern Intelligenz nur recht überzeugend vortäuscht, aber dennoch ganze Berufszweige ersetzen wird, müsste eigentlich eine Debatte darüber auslösen, ob nicht womöglich vorgetäuschte Intelligenz für dieses Arbeits- und Wirtschaftssystem viel essenzieller ist als echte.
@sixtus Und wie viel Prozent der Menschheit auch nur Intelligenz vortäuschen. Wer sagt denn das "menschliche Intelligenz" sich signifikant von dem unterscheidet was die großen ML Modelle machen ?
@ulli
Das, was wir aktuell an ML-Systemen haben, sind immer für einen spezifischen Zweck trainierte Systeme (z.B. zur Generierung von Sprache). Das unterscheidet sich signifikant von Menschen, die problemlos mehrere Aspekte ihrer Intelligenz kombinieren können.
@sixtus

@denki @sixtus Jain, sicher fallen da einige Sensorverarbeitungen weg, aber auch die großen ML Systeme können Eingaben von mehreren Quellen (Text,Grafiken,Audio) verarbeiten die entsprechend zusammenhängend und erzeugen unterschiedliche Ausgaben (zumindest Text,Grafiken)

Der Zustand das man nur Systeme hatte die das einzeln konnten ist schon 1-2 Jahre alt (ChatGPT 3.5 kann das z.b. nicht ChatGPT 4 kann Grafiken zumindest als Eingabe verarbeiten)

@denki @sixtus Stable Diffustion verarbeitet ja z.b. auch Primär Text zu Bildern, oder Text. Kann aber auch Bilder+Text zu Bildern oder Text verarbeiten, von Google und Nvidia gabs glaub ich auch jewails Paper zu Systemen die das können, teils auch Audio und bei Nvidia auch 3D Daten
@denki @sixtus OpenAI's CLIP-Modell, zum Beispiel, ist ein einzelnes Modell, das "aus einem Guss" trainiert wurde. Es wurde gleichzeitig auf Text- und Bild-Daten trainiert, um Beziehungen zwischen den beiden zu lernen. CLIP verwendet eine Technik namens "Contrastive Learning", bei der das Modell dazu trainiert wird, einen gegebenen Text mit einem zugehörigen Bild zu vergleichen und den Unterschied zwischen diesem Bild-Text-Paar und anderen Bild-Text-Paaren zu maximieren.
@ulli
In diesem Fall lernt man ja dann auf Paaren von Bild und Text; das ist ja auch wieder homogen (genau genommen eine homogene Sequenz von Tupeln aus jeweils Bild und Text) und somit wieder eine spezielle Art von Sprache die speziell trainiert wird.
@sixtus
@denki @sixtus ChatGPT sagt "Self-Supervised Learning" ist z.b. eine Technolgie mit der man das erreichen kann da bin ich aber raus.
@ulli
Naja, das ist auch wieder nichts besonderes. Du machst einmal unsupervised learning, um die Labels zu deinen Daten zu lernen und dann mit diesen Labels wieder supervised learning.
@sixtus