@denki @sixtus Jain, sicher fallen da einige Sensorverarbeitungen weg, aber auch die großen ML Systeme können Eingaben von mehreren Quellen (Text,Grafiken,Audio) verarbeiten die entsprechend zusammenhängend und erzeugen unterschiedliche Ausgaben (zumindest Text,Grafiken)
Der Zustand das man nur Systeme hatte die das einzeln konnten ist schon 1-2 Jahre alt (ChatGPT 3.5 kann das z.b. nicht ChatGPT 4 kann Grafiken zumindest als Eingabe verarbeiten)
@ulli
Mein Kommentar war leider nicht besonders präzise.
Man muss natürlich verschiedene Stufen unterscheiden. Das Produkt (z.B. ChatGPT) besteht aus mehreren mit ML trainierten Modellen, die (wie auch immer) miteinander verknüpft werden. Die einzelnen Modelle (aus denen das Produkt besteht) werden separat voneinander trainiert, oder? Dann wären diese Modelle (die ich ungenauerweise als ML-Systeme bezeichnet hatte) wieder sehr spezifisch.
@sixtus
@ulli
Klassisch ist es so, dass große Tech-Firmen zwar sehr innovativ in der Anwendung von vorhandenem Grundlagenwissen sind, aber kaum selbst Grundlagenforschung betreiben.
Soweit ich das verstanden habe, ist fragwürdig, ob man mit den aktuell beliebten neuronalen Netzen überhaupt eine AGI trainieren kann. Neues Grundlagenwissen ist höchstwahrscheinlich nötig. Und sowas erwarte ich eher nicht von Tech-Firmen, sondern von regulärer Forschung.
@sixtus