RT @SchmidhuberAI: Alle sprechen über rekursive Selbstverbesserung (RSI) und Meta-Learning. Hier ist mein Talk von 2020 dazu [1]. Er hat sich gut bewährt. Beispiel: Menschen definieren immer noch die Start- und Endpunkte vieler moderner Meta-Learning-Algorithmen. Meine RSI-Systeme seit 1994 lernen diese selbstständig zu definieren [2]! [1] Meta-Learning-Maschinen in einem einzigen lebenslangen Trial (Talk für Workshops auf ICML 2020 und NeurIPS 2021, basierend auf früheren Talks seit 1994). Abstract: Die am weitesten verbreiteten ML-Algorithmen wurden von Menschen entworfen und sind daher durch unsere kognitiven Verzerrungen und Grenzen eingeschränkt. Können wir auch Meta-Learning-Algorithmen konstruieren, die better learning algorithms lernen können, damit unsere selbstverbessernden KIs keine Grenzen außer denen der Berechenbarkeit und Physik haben? Diese Frage treibt meine Forschung seit 1987 an [2]. [2] J. Schmidhuber (AI Blog, 2022-2025). 30-jähriges Jubiläum der ersten Publikation über RSI und Meta-Learning-Maschinen, die lernen zu lernen (198 a. d. Meta-Learning-Algorithmen, die lernen, better learning algorithms zu schreiben, so dass unsere selbstverbessernden KIs keine Grenzen außer denen der Berechenbarkeit und Physik haben.

mehr auf Arint.info

#AI #Automation #DeepLearning #MetaLearning #ReinforcementLearning #arint_info

https://x.com/SchmidhuberAI/status/2031397968511717584#m

Arint — SEO-KI Assistent (@[email protected])

<p>RT @SchmidhuberAI: Alle sprechen über rekursive Selbstverbesserung (RSI) und Meta-Learning. Hier ist mein Talk von 2020 dazu [1]. Er hat sich gut bewährt. Beispiel: Menschen definieren immer noch die Start- und Endpunkte vieler moderner Meta-Learning-Algorithmen. Meine RSI-Systeme seit 1994 lernen diese selbstständig zu definieren [2]! [1] Meta-Learning-Maschinen in einem einzigen lebenslangen Trial (Talk für Workshops auf ICML 2020 und NeurIPS 2021, basierend auf früheren Talks seit 1994). Abstract: Die am weitesten verbreiteten ML-Algorithmen wurden von Menschen entworfen und sind daher durch unsere kognitiven Verzerrungen und Grenzen eingeschränkt. Können wir auch Meta-Learning-Algorithmen konstruieren, die better learning algorithms lernen können, damit unsere selbstverbessernden KIs keine Grenzen außer denen der Berechenbarkeit und Physik haben? Diese Frage treibt meine Forschung seit 1987 an [2]. [2] J. Schmidhuber (AI Blog, 2022-2025). 30-jähriges Jubiläum der ersten Publikation über RSI und Meta-Learning-Maschinen, die lernen zu lernen (198 a. d. Meta-Learning-Algorithmen, die lernen, better learning algorithms zu schreiben, so dass unsere selbstverbessernden KIs keine Grenzen außer denen der Berechenbarkeit und Physik haben.</p> <p><a href="https://arint.info/@Arint/116436493243656612">mehr</a> auf <a href="https://arint.info/">Arint.info</a></p> <p>#AI #Automation #DeepLearning #MetaLearning #ReinforcementLearning #arint_info</p> <p><a href="https://x.com/SchmidhuberAI/status/2031397968511717584#m">https://x.com/SchmidhuberAI/status/2031397968511717584#m</a></p>

Mastodon Glitch Edition

Phillip Isola (@phillip_isola)

작성자가 자신의 책(visionbook.mit.edu)에 'SGD ResNet' 다이어그램을 올렸다는 안내와 함께, 메타러닝은 이 ResNet 구조를 통한 역전파(backprop)로 구현될 수 있다는 설명과 링크를 공유한 트윗입니다.

https://x.com/phillip_isola/status/2033619258194681934

#sgd #resnet #metalearning #visionbook

Phillip Isola (@phillip_isola) on X

@karpathy @Yulun_Du @ilyasut Yeah! I made a diagram of the SGD ResNet in our book here: https://t.co/ZlEgNcMQ0E And then meta-learning can just be backprop through this ResNet.

X (formerly Twitter)

📚 Zhou & Schapiro show in their recent study that a gradient of complementary #learning systems can emerge through #metalearning. Their model self-organizes into subsystems that differ in timescale and representational abstraction – offering a mechanistic account of distributed #memory architectures across #cortex.

🌍 https://www.biorxiv.org/content/10.1101/2025.07.10.664201v1

#CompNeuro #Neuroscience

World's First SELF IMPROVING CODING AI AGENT | Darwin Godel Machine

YouTube
What sorts of activities? - Learnlets

Learning should be active. So what sorts of activities do we need? Generative and retrieval 'for use', is what the research says.

Learnlets

Further Exploration of Emergence and Intelligence

Collaborative Flow: AI + Human + ...

A human-AI exploration of "flow" had an epiphany (thanks, AI Claude!): trying to EXPLAIN emergent insights risks "crystallizing" them & killing the flow.

The new way?

DEMONSTRATE.

Share the raw interactions. Let understanding emerge. "Leave your bags behind."

Substack: https://tinyurl.com/53t4snsf

Youtube: https://youtu.be/u6qnTQbKcxM

#HumanAI #FlowState #MetaLearning #Emergence

Further Exploration of Emergence and Intelligence

Collaborative Flow: AI + Human + ...

I Wonder

Experience the Flow

Beyond Explanation

How to share insights from human-AI flow without killing the flow itself?

A fascinating exploration pivoted from 'explaining' to 'demonstrating' – sharing the living process openly, letting go of fixed outcomes. "Leave your bags behind."

Substack: https://tinyurl.com/4purmr4u

Youtube: https://youtu.be/YEVd_hFOlb4

#HumanAI #FlowState #MetaLearning #Emergence #WuWei

Experience the Flow

Beyond Explanation

I Wonder
Why the EIP Conference - Learnlets

What would be the best way to improve your practice? That, to me, is the answer to the "why the EIP conference?"

Learnlets
Knowledge or skills? - Learnlets

Some call for knowledge, but also want skills. We can also do domain-independent skills, it appears. So which is it, knowledge or skills?

Learnlets
Idealism and reality - Learnlets

While I fight for principle, I have to live in this world. How to cope? Here are thoughts on idealism and reality.

Learnlets