NoProp: Training Neural Networks without Back-propagation or Forward-propagation

https://arxiv.org/abs/2503.24322

#HackerNews #NoProp #Neural #Networks #Training #Backpropagation #Innovation #AI

NoProp: Training Neural Networks without Back-propagation or Forward-propagation

The canonical deep learning approach for learning requires computing a gradient term at each layer by back-propagating the error signal from the output towards each learnable parameter. Given the stacked structure of neural networks, where each layer builds on the representation of the layer below, this approach leads to hierarchical representations. More abstract features live on the top layers of the model, while features on lower layers are expected to be less abstract. In contrast to this, we introduce a new learning method named NoProp, which does not rely on either forward or backwards propagation. Instead, NoProp takes inspiration from diffusion and flow matching methods, where each layer independently learns to denoise a noisy target. We believe this work takes a first step towards introducing a new family of gradient-free learning methods, that does not learn hierarchical representations -- at least not in the usual sense. NoProp needs to fix the representation at each layer beforehand to a noised version of the target, learning a local denoising process that can then be exploited at inference. We demonstrate the effectiveness of our method on MNIST, CIFAR-10, and CIFAR-100 image classification benchmarks. Our results show that NoProp is a viable learning algorithm which achieves superior accuracy, is easier to use and computationally more efficient compared to other existing back-propagation-free methods. By departing from the traditional gradient based learning paradigm, NoProp alters how credit assignment is done within the network, enabling more efficient distributed learning as well as potentially impacting other characteristics of the learning process.

arXiv.org

NoProp: Реальный опыт обучения без Backprop – от провала к 99% на MNIST

Всем привет! Обучение нейронных сетей с помощью обратного распространения ошибки (backpropagation) — это стандарт де‑факто. Но у него есть ограничения: память, последовательные вычисления, биологическая неправдоподобность. Недавно я наткнулся на интересную статью « NOPROP: TRAINING NEURAL NETWORKS WITHOUT BACK‑PROPAGATION OR FORWARD‑PROPAGATION » (Li, Teh, Pascanu, arXiv:2403.13 502), которая обещает обучение вообще без сквозного backprop и даже без полного прямого прохода во время обучения ! Идея показалась захватывающей, и мы (я и ИИ‑ассистент Gemini) решили попробовать ее реализовать на PyTorch для MNIST. В этой статье я хочу поделиться нашим путешествием: как мы пытались следовать описанию из статьи, с какими трудностями столкнулись, как анализ связанных работ помог найти решение (которое, правда, отличается от оригинала) и каких впечатляющих результатов удалось достичь в итоге. Спойлер: получилось интересно, совсем не так, как ожидалось, но результат превзошел ожидания от процесса отладки. Дисклеймер 1: Это рассказ об учебном эксперименте. Результаты и выводы основаны на нашем опыте и могут не полностью отражать возможности оригинального метода при наличии всех деталей реализации.)

https://habr.com/ru/articles/900186/

#нейронные_сети #нейронные_сети_и_машинное_обучение #машинное_обучение #deep_learning #noprop #DDPM #backpropagation #research #искусственный_интеллект

NoProp: Реальный опыт обучения без Backprop – от провала к 99% на MNIST

Всем привет! Обучение нейронных сетей с помощью обратного распространения ошибки (backpropagation) — это стандарт де‑факто. Но у него есть ограничения: память, последовательные...

Хабр
Снял очередной фильм года:
https://www.youtube.com/watch?v=3-6fHy4W7jw

И немного бэка/мыслей:
https://mitrich.me/ru/posts/movie-2023/

#noprop
2023 in 2 seconds

YouTube
Поменял favicon на сайте и на akkoma-инстансе — увеличил размер space invader'а, инвертировал цвета. Стало более читаемым и больше подходящим под тёмную тему, которой я пользуюсь.

P.S. Старая всё ещё может быть в кэше.

#noprop
Akkoma

Повторяю #introduction

Всем привет!
Я Дима, в интернете можно найти практически всегда как @mitrichius.
Беженец с mastodon.online, а изначально из твиттера.
Бэкенд-разработчик, немного тимлид, бывший QA.
Автор темы Anubis для #hugo.
Живу в Сербии, в Нови-Саде.

Из интересов: #videogames, #boardgames, #ttrpg, всякий сай-фай, люблю искать и слушать новую музыку, может зайти любая, но предпочитаю кантри/бюз рок, метал и синтвейв.

Есть блог: https://mitrich.me/
Веду с переменным успехом личный тг-канал: https://t.me/enjoythelittlethings32 , чуть позже хочу интегрировать его, мастодон и блог.

Архив записей всегда можно посмотреть здесь: https://mitrich.me/notes/

#noprop
Akkoma