Der Umstand, dass Software wie ChatGPT gar nicht intelligent ist, sondern Intelligenz nur recht überzeugend vortäuscht, aber dennoch ganze Berufszweige ersetzen wird, müsste eigentlich eine Debatte darüber auslösen, ob nicht womöglich vorgetäuschte Intelligenz für dieses Arbeits- und Wirtschaftssystem viel essenzieller ist als echte.
@sixtus Und wie viel Prozent der Menschheit auch nur Intelligenz vortäuschen. Wer sagt denn das "menschliche Intelligenz" sich signifikant von dem unterscheidet was die großen ML Modelle machen ?
@ulli
Das, was wir aktuell an ML-Systemen haben, sind immer für einen spezifischen Zweck trainierte Systeme (z.B. zur Generierung von Sprache). Das unterscheidet sich signifikant von Menschen, die problemlos mehrere Aspekte ihrer Intelligenz kombinieren können.
@sixtus

@denki @sixtus Jain, sicher fallen da einige Sensorverarbeitungen weg, aber auch die großen ML Systeme können Eingaben von mehreren Quellen (Text,Grafiken,Audio) verarbeiten die entsprechend zusammenhängend und erzeugen unterschiedliche Ausgaben (zumindest Text,Grafiken)

Der Zustand das man nur Systeme hatte die das einzeln konnten ist schon 1-2 Jahre alt (ChatGPT 3.5 kann das z.b. nicht ChatGPT 4 kann Grafiken zumindest als Eingabe verarbeiten)

@ulli
Mein Kommentar war leider nicht besonders präzise.

Man muss natürlich verschiedene Stufen unterscheiden. Das Produkt (z.B. ChatGPT) besteht aus mehreren mit ML trainierten Modellen, die (wie auch immer) miteinander verknüpft werden. Die einzelnen Modelle (aus denen das Produkt besteht) werden separat voneinander trainiert, oder? Dann wären diese Modelle (die ich ungenauerweise als ML-Systeme bezeichnet hatte) wieder sehr spezifisch.
@sixtus

@denki @sixtus Das wär mal interessant, soweit ich das bisher verstanden habe ist dem aber genau nicht so.
Bei Stable Diffusion bin ich mir da halbwegs sicher, LLMA ist auch ein Modell aber ich weiss nicht ob das überhaupt was ausser Text kann.

Was Google und NVIDIA intern machen...

@ulli
Klassisch ist es so, dass große Tech-Firmen zwar sehr innovativ in der Anwendung von vorhandenem Grundlagenwissen sind, aber kaum selbst Grundlagenforschung betreiben.

Soweit ich das verstanden habe, ist fragwürdig, ob man mit den aktuell beliebten neuronalen Netzen überhaupt eine AGI trainieren kann. Neues Grundlagenwissen ist höchstwahrscheinlich nötig. Und sowas erwarte ich eher nicht von Tech-Firmen, sondern von regulärer Forschung.
@sixtus