@diekehrseite Ersten gilt, wie gesagt, daß KI nur die Bezeichnung für alles ist, wo man mithilfe von Computern komplexe Aufgaben löst, für welche Menschen ihre Intelligenz benutzen. KI muß überhaupt nicht intelligent sein, um als solche zu gelten, sondern nur Ergebnisse liefern, die intelligent aussehen.
Zweitens sind die Beschränkungen heutiger KI-Anwendungen keine ewigen, endgültigen Grenzen, sondern nur die Grenzen der momentan verwendeten technologischen Ansätze. Gerade die extreme Verengung, zuerst fast ausschließlich auf Deep Learning, dann noch zusätzlich auf Transformer-basierte LLMs innerhalb des DL-Paradigmas, ist eine Fehlentwicklung und absolut nicht zielführend, wenn man mich fragt. Die Architektur gegenwärtiger KI-Systeme kommt längst an ihre Grenzen; wir haben überhaupt nicht genug Computerkapazitäten auf diesem Planeten, um auch nur die Leistung eines einzelnen menschlichen Gehirns zu erreichen, geschweige denn zu übertreffen, und werden sie mit der heute üblichen Hardware auch nicht erreichen, weil uns vorher die Ressourcen ausgehen.
Das heißt nicht, daß die KI-Forschung aufgegeben werden müßte; es heißt vielmehr, daß es Blödsinn ist, alles auf einen einzigen technischen Ansatz zu setzen und allein diesen mit aller Gewalt voranzutreiben, bis nichts mehr geht.
Es gibt auch noch andere Ansätze. Der uralte klassische Ansatz war symbolische KI, also regelbasierte, menschenlesbare Systeme -- Expertensysteme, semantische Netze, all sowas. Da kommt man schnell an ein Ende, weil es einfach unmöglich ist, alle Regeln zu finden und aufzuschreiben, nach denen die Welt funktioniert. Sich aber fast völlig von diesem Ansatz abzuwenden und allein auf Maschinenlernen zu setzen, war auch ein Fehler.
Dann gibt es noch Ansätze wie evolutionäre Algorithmen, künstliches Leben (KL/AL) und sowas. Beispielsweise kann man Zufalls-Software generieren, diese dann danach bewerten, wie nah sie an das kommt, was man gerne hätte, von den nicht ausselektierten Kandidaten "Mutanten" erzeugen mit zufälligen Veränderungen, bis man irgendwann eine Software hat, die die Aufgabe erfüllt.
Das Problem mit KI ist, daß da ständig irgendwelche Leute den Stein der Weise gefunden haben wollen, wenn mal irgendwas besser funktioniert als erwartet, und dann plötzlich irrsinnige Summen in das Feld gesteckt werden, bis die Investoren irgendwann merken, daß 99% von allem, worin sie investiert haben, nicht funktioniert, und dann wird für die nächsten 20 Jahre die gesamte KI-Forschung massiv unterfinanziert. Was wir da wirklich brauchen, ist Grundlagenforschung. LLMs sind aus Sicht der KI-Forschung hochinteressant, aber untauglich für ernsthafte Anwendungen. Wir sollten LLMs als Experimente betrachten und gucken, wie sie genau funktionieren, sollten sie sezieren und durchleuchten, um daraus für zukünftige weiterführende Experimente zu lernen. Stattdessen werden diese experimentellen Textgeneratoren überall reingestopft, wo sie überhaupt nichts zu suchen haben.
Ein meiner Ansicht nach in der KI immer wieder auftauchendes Problem ist, daß man versucht, das Haus von oben her zu bauen. Man versucht, den abstrakten logischen Verstand des Menschen nachzubauen, bevor man die viel fundamentaleren Formen von Intelligenz hinbekommen hat. Wir sollten uns erst einmal darauf konzentrieren, die Intelligenz von Arthropoden wie Krebsen oder Insekten nachzubilden. Wir überschätzen, wie hart es ist, Texte zu formulieren oder im Schach zu gewinnen, und wir unterschätzen, wie schwer die geistigen Herausforderungen sind, die jeder Gecko zwei Sekunden nach dem Aufwachen mit links bewältigt.