Hila Chefer (@hila_chefer)

bfl_ml의 새로운 연구 'Self-Flow'는 이미지·오디오·비디오·월드 모델을 아우르는 자기지도 프레임워크입니다. 저자들은 생성 모델이 강한 표현 학습을 위해 DINO 같은 별도 기법을 반드시 필요로 하지 않다고 보고, 생성 모델을 공동 프레임워크로 직접 가르치는 접근을 제안합니다.

https://x.com/hila_chefer/status/2029212708797661327

#selfflow #selfsupervised #multimodal #generativemodels #bfl

Hila Chefer (@hila_chefer) on X

New research from @bfl_ml 🥳 Meet Self-Flow: our self-supervised framework for image, audio, video & world models 🤖 https://t.co/AshY8IkSEe Do generative models really need DINO to learn strong representations? We propose teaching them directly via a joint framework instead 🧵

X (formerly Twitter)
Cập nhật JEPA của LeCun: chuyển từ mô hình định determinist sang probabilistic. Giới thiệu Variational JEPA (VJEPA) học phân phối dự đoán latent, kết hợp PSR và lọc Bayesian, tránh collapse và hỗ trợ điều khiển tối ưu không cần tái tạo pixel. Bayesian JEPA (BJEPA) tách belief thành expert dynamics + prior, cho zero‑shot transfer và tuân ràng buộc. Thử nghiệm môi trường nhiễu chứng minh lọc nhiễu hiệu quả và ước lượng không chắc chắn. #MachineLearning #AI #SelfSupervised #Uncertainty #JEPA #VJEPA

Как заставить модель учиться, если мы сами ничего не знаем: введение в self-supervised обучение

Разбираем 3 метода self-supervised обучения, которые помогут превратить хаотичные представления данных в структурированные.

https://habr.com/ru/articles/983768/

#selfsupervised #tripletloss #selfprediction #ntxent

Как заставить модель учиться, если мы сами ничего не знаем: введение в self-supervised обучение

Всем привет, я бы хотел вам кое‑что рассказать. Когда я однажды наткнулся на тему, связанную с self‑supervised learning, меня удивила мысль о том, что для обучения...

Хабр

Универсальные модели в видеоаналитике: единый фундамент для множества задач

Привет! С вами Кирилл Тузов, Data Scientist в команде видеоаналитики бэк-офиса Wildberries & Russ. Камеры видят всё. Вопрос в том, распознают ли наши алгоритмы, что именно они видят, — и насколько быстро, надёжно и без тонны ручной работы это происходит. В этой статье я расскажу, как мы используем Self-Supervised, Zero-Shot и мультимодальные модели, чтобы приблизиться к максимально возможной эффективности.

https://habr.com/ru/companies/wildberries/articles/940530/

#видеоаналитика #selfsupervised #llm #computer_vision

Универсальные модели в видеоаналитике: единый фундамент для множества задач

Привет! С вами Кирилл Тузов, Data Scientist в команде видеоаналитики бэк-офиса Wildberries & Russ. Камеры видят всё. Вопрос в том, распознают ли наши алгоритмы, что именно они видят, — и насколько...

Хабр

Как обучают ИИ: без формул, но с котами

В этой статье — без воды, трюизмов, академизмов и формул — разберёмся, в чём принципиальное отличие машинного обучения (ML) от до-ИИ программирования, а затем генеративного ИИ от классических моделей машинного обучения (ML). Поговорим о типах генеративных моделей, их архитектуре и областях применения. Заодно затронем важный вопрос: где проходит граница между классическим программированием и вероятностным творчеством, на котором построены современные нейросети. Статья ориентирована прежде всего на тех, кто делает первые шаги в ИИ, но если ты начинающий ML-инженер, архитектор ИИ-приложений, основатель стартапа или просто хочешь разобраться, что на самом деле происходит под капотом у ChatGPT и Midjourney — ты, скорее всего, найдёшь здесь для себя что-то полезное.

https://habr.com/ru/articles/919296/

#машинное+обучение #искусственный_интеллект #generative_models #generative_art #ml #научпоп #обучение_нейронных_сетей #генеративные_модели #парадигмы #selfsupervised

Как обучают ИИ: без формул, но с котами

Четыре кота, на которых стоит ML Что такое машинное обучение и как оно вообще «учится»? Чем это отличается от обычного программирования с if, for и «всё работает, пока...

Хабр

📢 What if AI models could teach themselves — no labels, no limits?
Meet the 5 foundation models rewriting the rules of machine learning in 2025. From DINO v2 to AZR, these systems learn by reconstructing, contrasting, and evolving — just like humans.

📊 Zero supervision. 90%+ accuracy. Real-world impact.
🧠 This article is a must-read for data scientists, tech leaders, and AI enthusiasts.

🔗 Read now:
https://medium.com/@rogt.x1997/top-5-foundation-models-that-learn-without-labels-and-beat-supervised-ai-8669ccb5cb0f

#AI #FoundationModels #SelfSupervised #MachineL
https://medium.com/@rogt.x1997/top-5-foundation-models-that-learn-without-labels-and-beat-supervised-ai-8669ccb5cb0f

Top 5 Foundation Models That Learn Without Labels — And Beat Supervised AI

The machines have learned to teach themselves — and it’s changing the future of artificial intelligence. Imagine an AI system learning to recognize faces by playing a complex game of hide-and-seek…

Medium

Мэтчинг персонажей. Level Hard

Интро Для всех, кто знаком со свертками, задача мэтчинга персонажейне кажется сверхсложной. На Kaggle есть даже соревнования с подобной задачей и размеченный датасет с персонажами мультсериала Симпсоны . Но здесь ключевое слово — «размеченный». Что делать, если датасет не размеченный и на каждом изображении несколько персонажей, а размечать все это очень не хочется? Тут на помощь приходят алгоритмы сегментации и контрастивное обучение, но обо всем по порядку. Какие данные Мы работали с коллекцией гравюр Британского музея. Все гравюры находятся в открытом доступе , поэтому мы их спарсили (исключительно в исследовательских целях) для дальнейших манипуляций. Итого, у нас в датасете оказалось около 25 тысяч гравюр. Да-да, это только гравюры, о количестве персонажей пока речи не идет. А учитывая любовь граверов 18-19 веков к изображению сцен с массовыми скоплениями людей, можем утверждать сразу, что персонажей будет намного больше.

https://habr.com/ru/articles/868742/

#image_segmentation #image_classification #selfsupervised #computer_vision #detection

Мэтчинг персонажей. Level Hard

Интро Для всех, кто знаком со свертками, задача мэтчинга персонажейне кажется сверхсложной. На Kaggle есть даже соревнования с подобной задачей и размеченный датасет с персонажами...

Хабр

Update on my joint work with @JulianTachella on "#Learning to Reconstruct Signals From Binary Measurements" on arXiv. #RandomProjection #onebit #SelfSupervisedLearning https://arxiv.org/abs/2303.08691

We brought several improvements on the proofs and the bounds allowing us to determine from how many binarized (random) projections, only, one can learn, up to a controlled identification error, a low-complexity space (with small box dimemsion). Moreover, a practical #selfsupervised scheme, SSBM, run over real datasets of images, enables to learn a reconstruction algorithm from those same binary observations (without access to the original images and on par with supervised alternatives), implicitly confirming the encoding of a good estimate of the image set.

Learning to Reconstruct Signals From Binary Measurements

Recent advances in unsupervised learning have highlighted the possibility of learning to reconstruct signals from noisy and incomplete linear measurements alone. These methods play a key role in medical and scientific imaging and sensing, where ground truth data is often scarce or difficult to obtain. However, in practice, measurements are not only noisy and incomplete but also quantized. Here we explore the extreme case of learning from binary observations and provide necessary and sufficient conditions on the number of measurements required for identifying a set of signals from incomplete binary data. Our results are complementary to existing bounds on signal recovery from binary measurements. Furthermore, we introduce a novel self-supervised learning approach, which we name SSBM, that only requires binary data for training. We demonstrate in a series of experiments with real datasets that SSBM performs on par with supervised learning and outperforms sparse reconstruction methods with a fixed wavelet basis by a large margin.

arXiv.org

From Julián Tachella @JulianTachella, posted on "Chi":

📰""Learning to reconstruct signals from binary measurements alone"📰

We present theory + a #selfsupervised approach for learning to reconstruct incomplete (!) and binary (!) measurements using the binary data itself. See the first figure and its alt-text.

https://arxiv.org/abs/2303.08691
with @lowrankjack
---

The theory characterizes

- the best approximation of a set of signals from incomplete binary observations
- its sample complexity
- complements existing theory for signal recovery from binary measurements

See the third figure and its alt-text.
---

The proposed self-supervised algorithm obtains performances on par with supervised learning and outperforms standard reconstruction techniques (such as binary iterative hard thresholding)

See the second figure and its alt-text.

---

Code based on the deepinverse library is available at https://github.com/tachella/ssbm

Check out the paper for more details!

#SelfSupervisedLearning #CompressiveSensing #Quantization #InverseProblem #1bitcamera

Learning to Reconstruct Signals From Binary Measurements

Recent advances in unsupervised learning have highlighted the possibility of learning to reconstruct signals from noisy and incomplete linear measurements alone. These methods play a key role in medical and scientific imaging and sensing, where ground truth data is often scarce or difficult to obtain. However, in practice, measurements are not only noisy and incomplete but also quantized. Here we explore the extreme case of learning from binary observations and provide necessary and sufficient conditions on the number of measurements required for identifying a set of signals from incomplete binary data. Our results are complementary to existing bounds on signal recovery from binary measurements. Furthermore, we introduce a novel self-supervised learning approach, which we name SSBM, that only requires binary data for training. We demonstrate in a series of experiments with real datasets that SSBM performs on par with supervised learning and outperforms sparse reconstruction methods with a fixed wavelet basis by a large margin.

arXiv.org

Check out our new work on weighted #generative neural #network models! 🧠🤖

Recently, we’ve seen tons of work using generative models to elucidate candidate principles of neural connectivity.

Our v2: Inspired by redundancy reduction, our new model can generate both the topology & weights of the #connectome

We envision this will help us understand #brain development and also impact structural #selfsupervised learning in ANNs in the future! 📚🧑‍🏫

https://www.biorxiv.org/content/10.1101/2023.06.23.546237v1

#neuroscience #AI #ANN