[Перевод] Аугментация ограничивающих боксов в детекции: форматы, `BboxParams` и типичные ошибки

Когда аугментации в детекции «не работают», проблема часто не в модели, а в bbox после преобразований. Неверный coord_format , перепутанные нормализованные и абсолютные координаты, агрессивные кропы, пустые боксы после фильтрации — всё это не ломает код, но quietly ломает обучение. В статье разбираю: — какие форматы bbox поддерживает Albumentations — как правильно настраивать A.BboxParams — когда использовать min_area и min_visibility — почему обычный RandomCrop часто плохая идея для detection — и где пайплайн чаще всего ломается на практике Если вы работаете с COCO , YOLO , pascal_voc или просто хотите перестать обучать модель на испорченной разметке — этот материал для вас.

https://habr.com/ru/articles/1020618/

#albumentations #bounding_boxes #object_detection #computer_vision #data_augmentation #bbox #coco #yolo #python #deep_learning

Аугментация ограничивающих боксов в детекции: форматы, `BboxParams` и типичные ошибки

Когда в пайплайне детекции всё вроде настроено правильно, а mAP упорно не растёт, проблема нередко оказывается не в модели и не в оптимизаторе, а в разметке после аугментации. Вы отразили изображение,...

Хабр

[Перевод] Как подбирать аугментации: гипотезы, протокол и метрики

Новый пайплайн аугментаций редко собирается за один раз: базовые кропы и отражения, потом куски из старых проектов, статей и соревнований — и в какой-то момент уже много трансформаций, а ясной логики выбора нет. Статья про то, как к этому подойти системно: зачем конкретная трансформация, что она симулирует, насколько сильно её включать и какое допущение о данных она закладывает. Ключевая мысль: аугментация — явное утверждение о том, какие вариации не должны менять смысл метки. Отсюда проще решать, что оставить и что убрать, и отличить реальную пользу от ситуации, когда обучение просто стало шумнее. Без «волшебной таблетки»: не готовая формула, а интуиция, ментальная модель и пошаговый протокол для реальных систем. Внутри — инженерный взгляд, два уровня, пайплайн в семь шагов, настройка силы и бюджета, продвинутые приёмы, диагностика и метрики, признаки вреда, автопоиск, выкат и примеры. Исходный гайд в документации . (Документация)[ https://albumentations.ai/docs/ ] Репозиторий Albumentations — открытая библиотека аугментаций изображений (15k+ звёзд на GitHub, 140M+ загрузок).

https://habr.com/ru/articles/1016172/

#computer_vision #deep_learning #machine_learning #albumentations #нейронные_сети #data_augmentation #image_augmentation #аугментация_изображений #машинное_обучение #компьютерное_зрение

Welcome to Albumentations Documentation!

Albumentations is a fast and flexible library for image augmentation. Install with `pip install albumentationsx`. See the [License Guide](./license.md) for licensing (AGPL/Commercial). Whether you're working on classification, segmentation, object detection, or other computer vision tasks, Albumentations provides a comprehensive set of transforms and a powerful pipeline framework.

[Перевод] Аугментации изображений: как улучшить качество моделей без новых данных

Аугментация данных — один из самых мощных инструментов улучшения качества моделей машинного обучения. В компьютерном зрении она почти всегда критична: без неё модели быстро переобучаются и плохо обобщаются. Но на практике её часто используют поверхностно: «добавим флип, поворот и color jitter». В этой статье разбираем аугментации глубже: — два режима аугментаций (in-distribution и out-of-distribution) — почему нереалистичные трансформации могут улучшать обобщающую способность — когда аугментации начинают вредить — как строить устойчивый пайплайн аугментаций Материал основан на ~10 годах практики обучения моделей компьютерного зрения (на работе, при написании научных статей, в ML соревнованиях) и ~7 годах разработки библиотеки Albumentations.

https://habr.com/ru/articles/1008560/

#computer_vision #deep_learning #machine_learning #albumentations #нейронные_сети #data_augmentation #image_augmentation #аугментации_изображений #машинное_обучение #компьютерное_зрение

Аугментации изображений: как улучшить качество моделей без новых данных

Примечание: эта статья — перевод страницы документации библиотеки Albumentations . Написана на основе 10 лет опыта в Computer Vision (работа, статьи, ML соревнования), 7 лет из которых я работал над...

Хабр

[Перевод] Маршрутизация LLM: оптимизация путей обработки языка

В стремительно развивающемся мире искусственного интеллекта большие языковые модели (LLM) стали мощными инструментами, способными понимать и генерировать текст, близкий к человеческому. По мере роста их сложности и масштаба критичной становится эффективная организация путей обработки. Маршрутизация LLM — это стратегическое распределение и оптимизация вычислительных ресурсов внутри таких систем. По сути, это выбор того, каким путём проходит входной текст через различные компоненты/ветки, чтобы получить максимально точный и релевантный результат. Умно направляя промпты и балансируя нагрузку, маршрутизация повышает эффективность, отзывчивость и общую производительность языковых моделей.

https://habr.com/ru/articles/963700/

#llm #ai #llmмодели #mtbench #latency #artificial_intelligence #data_augmentation #маршрутизация_запросов

Маршрутизация LLM: оптимизация путей обработки языка

Повышение эффективности и производительности через инновационные стратегии маршрутизации. Источник Что такое LLM Routing? В стремительно развивающемся мире искусственного интеллекта большие языковые...

Хабр