TAPe‑дневник, день 8: сегментация по границам, 77% классификации и первые бенчмарки против YOLO

В этом посте продолжаем дневник TAPe‑детекции на COCO: добавляем сегментацию по контрастным патчам на границе объектов, дорабатываем классификацию, избавляемся от learning rate и смотрим, как ведёт себя YOLO на нашем маленьком датасете. А уже завтра покажем базовые и COCO‑бенчмарки, сравнения с YOLO и RF‑DETR по точности (mAP50/mAP50‑95), скорости, числу параметров и требованиям к данным, а заодно чуть подробнее поговорим про аннотацию и то, почему нам хватает десятков изображений на класс там, где другим нужны сотни тысяч. Вникнуть

https://habr.com/ru/articles/1021546/

#tape+ml #компьютерное_зрение #детекция_объектов #сегментация_изображений #COCO #selfsupervised #yolo #detr #learning_rate #embeddings

TAPe‑дневник, день 8: сегментация по границам, 77% классификации и первые бенчмарки против YOLO

В этом посте продолжаем дневник TAPe‑детекции на COCO: добавляем сегментацию по контрастным патчам на границе объектов, дорабатываем классификацию, избавляемся от learning rate и смотрим, как ведёт...

Хабр

Умный Learning Rate Scheduler: Управляем скоростью обучения, анализируя ускорение

Классический ReduceLROnPlateau снижает скорость обучения, когда уже поздно модель упёрлась в плато. Я покажу, как сделать шедулер, который замечает замедление заранее, анализируя ускорение улучшений.

https://habr.com/ru/articles/960340/

#deep_learning #pytorch #machine_learning #learning_rate #optimization #ai

Умный Learning Rate Scheduler: Управляем скоростью обучения, анализируя ускорение

Мы привыкли использовать ReduceLROnPlateau если val_loss не улучшается N эпох подряд - режем learning_rate. Это работает. Мы ждем, пока обучение врежется в стену, и только...

Хабр