https://www.linux-magazin.de/news/forscher-ki-systeme-muessen-lernen-autonom-zu-lernen/?mc_cid=a40919e782&mc_eid=53157800ee#

Forscher: KI-Systeme müssen lernen, autonom zu lernen
Die führenden KI-Forscher Yann LeCun (Universität New York), Emmanuel Dupoux und Jitendra Malik (beide unter anderem Facebook Artificial Intelligence Research (FAIR) bei Meta AI) haben ein Forschungspapier veröffentlicht, das einen Weg zu starker KI (AGI) vorschlägt, der sich von dem heute dominierenden Ansatz gravierend unterscheidet, das Ziel lediglich durch stetige Skalierung der Rechenleistung zu erreichen. Stattdessen glauben die von der Biologie inspirierten Forscher, dass der Schlüssel zum Erfolg autonomes Lernen aus der Interaktion mit der Umwelt ist. Einleitend vergleichen sie eine KI mit einem Kleinkind, das ein neues Spielzeug erhalten hat. Das Kind lernt durch Ausprobieren, durch Beobachtung von Gleichaltrigen, durch die Hinweise seiner Eltern, oder durch Vorstellung, indem es sich erträumt, was sich mit dem Spielzeug anstellen ließe. Die KI lernt nach Abschluss ihres Trainings gar nichts mehr und wenn ihr Verhalten nicht zu ihrer Umgebung passt, dann muss sie von menschlichen Experten neu trainiert werden. Außerdem sind die verschiedenen Lernmethoden, zwischen denen das Kind hin und her wechselt, bei ihr in starren Paradigmen verkapselt (überwachtes Lernen, unüberwachtes Lernen, Reinforcement-Lernen), die jeweils eine speziell darauf zugeschnittene Datenaufbereitung und Trainingsrezepte brauchen. Kurz: Bei der KI ist das Lernen auf die menschlichen Experten ausgelagert, statt wie beim Kind aus eigenem Antrieb (intrinsisch) zu erfolgen. In ihrem Beitrag gehen die Forscher von der Überlegung aus, dass autonomes Lernen als eine Kernkompetenz betrachtet werden sollte, die für die Entwicklung zuverlässiger KI-Systeme, die in der realen Welt eingesetzt werden können, unerlässlich ist. Umgekehrt gehen sie davon aus, dass die Entwicklung anpassungsfähiger KI-Systeme der Kognitionswissenschaft zugutekommen kann, indem sie quantitative Modelle liefert, mit denen sich langjährige Debatten über das Wesen und die Ursprünge der menschlichen Intelligenz angehen lassen. Dafür identifizieren die Studienautoren drei konzeptionelle und technische Hindernisse, die die Entwicklung des autonomen Lernens bislang eingeschränkt haben, und schlagen mögliche Lösungsansätze vor, um sie zu überwinden. Das erste Hindernis ist die Zerplitterung der Lernansätze in verschiedene Gebiete, die eine Integration in ein übergreifendes Framework erschwert. Abhilfe soll hier die Erkenntnis schaffen, dass es mit dem Lernen durch Beobachtung und dem Lernen durch Probieren zwei grundlegende Verfahren gibt, deren Zusammenspiel es zu untersuchen gilt. Das zweite Hindernis ist die Externalisierung des Lernens in der heutigen KI. Um diesem Problem zu begegnen, schlagen die Autoren eine Metasteuerungsarchitektur vor, die den Informationsfluss zwischen den Lernkomponenten koordiniert und es ermöglicht, die üblicherweise manuell durchgeführten Lern- und Datenfilterungsvorgänge automatisch zu reproduzieren. Das soll den Weg zu höherstufigen Lernmethoden eröffnen wie dem Lernen durch Kommunikation oder dem Lernen durch Vorstellung. Das dritte Hindernis ist das Fehlen effektiver und skalierbarer Methoden für den Aufbau einer solchen Architektur. Hier wird ein evolutionär inspirierter zweistufiger Optimierungsansatz vorgeschlagen, bei der die erwähnte Metasteuerung (System M), das Lernen durch Beobachtung (System A) und das Lernen durch Ausprobieren (System B) koordiniert und den im Moment jeweils passendsten Ansatz auswählt.








