Как я обучал LoRA на стиле South Park для Flux: сбор кадров через MPV, особенности FluxGym и эксперименты с рангами

Генеративные нейросети уже изменили мир цифрового искусства, но настоящая магия начинается, когда ты сам берешь их под контроль. Сегодня расскажу о своем эксперименте по обучению LoRA на стиле South Park — от сбора датасета до финальной модели. Поделюсь реальным опытом, техническими нюансами и самое главное — что конкретно сработало, а что оказалось пустой тратой времени. Меня зовут Илья, я основатель онлайн-нейросети для создания изображений ArtGeneration.me , техноблогер и нейро-евангелист. Идея обучить LoRA на стиле мультсериала пришла ко мне случайно. На глаза попался новый анимационный сериал "Ваш дружелюбный сосед Человек-паук", и я подумал: "Было бы классно обучить LoRA именно на этом стиле!" Я уже обучал LoRA на отдельных персонажах и простых стилях, но на таких сложных и комплексных особо ещё не тренировал. Но стиль человека-паука показался мне слишком сложным для первого эксперимента такого рода. Решил сначала потренироваться на чем-то попроще. И тут удачно подвернулась спешл-серия South Park! Стиль South Park простой, узнаваемый, многие его любят (включая меня). На Civitai уже была одна LoRA South Park, так что я подумал — если смог кто-то другой, то и я смогу! Спойлер: всё оказалось гораздо сложнее, чем я думал. Но обо всём по порядку.

https://habr.com/ru/companies/timeweb/articles/902902/

#lora #flux #FluxGym #обучение_моделей #тренировка_LoRa #Копирование_стиля #stablediffusion #ии_и_машинное_обучение #timeweb_статьи

Как я обучал LoRA на стиле South Park для Flux: сбор кадров через MPV, особенности FluxGym и эксперименты с рангами

Генеративные нейросети уже изменили мир цифрового искусства, но настоящая магия начинается, когда ты сам берешь их под контроль. Сегодня расскажу о своем эксперименте по обучению LoRA на стиле South...

Хабр

Для каких типов обучений нейросетевых моделей подходят ускорители AMD

Привет, Хабр! В прошлом материале мы рассказывали про графические ускорители для ЦОД , пытаясь разобраться, какие альтернативы NVIDIA доступны на нынешнем рынке GPU/xPU, и что потенциально интересного стоит ожидать в ближайшее время. Среди комментариев, которыми откликнулись читатели Хабра был весьма интересный вопрос , заслуживающий отдельной темы для его раскрытия. А звучит он так: «Как сейчас обстоят дела с обучением transformers моделей на GPU от AMD? Есть ли такой опыт? Есть ли смысл брать AMD для обучения?» . Что ж…, давайте попробуем копнуть поглубже и получить исчерпывающий ответ, ведь решения AMD действительно являются потенциально интересной альтернативой монополии NVIDIA.

https://habr.com/ru/companies/fplus_tech/articles/905110/

#amd #видеокарты #видеокарты_AMD #nvidia #обучение_нейросетевых_моделей #fplus #обучение_моделей #gpu #ускорители_AMD #сравнение_видеокарт

Для каких типов обучений нейросетевых моделей подходят ускорители AMD

Введение Привет, Хабр! В прошлом материале мы рассказывали про графические ускорители для ЦОД , пытаясь разобраться, какие альтернативы NVIDIA доступны на нынешнем рынке GPU/xPU, и что потенциально...

Хабр

Когда ИИ сбоит: кто виноват и как минимизировать риски

В 2018 году беспилотник Uber в Аризоне насмерть сбил женщину — система не распознала пешехода.

https://habr.com/ru/companies/netologyru/articles/902078/

#обучение_моделей #ошибки_ИИ #AI_Act #регулирование_ии #стандарты_iso #ответственность_за_ошибки #мониторинг #переобучение_нейросети #человеческий_фактор #работа_с_ии

Когда ИИ сбоит: кто виноват и как минимизировать риски

В 2018 году беспилотник Uber в Аризоне насмерть сбил женщину — система не распознала пешехода. В 2020-м алгоритм распознавания лиц в США стал причиной ареста невиновного — модель ошиблась с...

Хабр

[Перевод] Человеческий мозг против ML-модели: сходства и различия между психикой и машинным обучением

Адаптировали статью Marina Tosic, в которой автор выясняет, в чём сходства и различия между устройством человеческого мозга и моделей машинного обучения. Разобраться в теме нам помогли: кандидат технических наук Василий Борисов и архитектор ML-решений в РБК Кирилл Думнов.

https://habr.com/ru/companies/netologyru/articles/888212/

#ИИ #человеческий_разум #мозгкомпьютер #mlмодель #обучение_моделей #машинное_обучение #agi #инженерия #алгоритмы_машинного_обучения #кластеризация

Человеческий мозг против ML-модели: сходства и различия между психикой и машинным обучением

Адаптировали статью Marina Tosic, в которой автор выясняет, в чём сходства и различия между устройством человеческого мозга и моделей машинного обучения. Разобраться в теме нам помогли: кандидат...

Хабр

Как эффективно бороться с галлюцинациями нейросетей

Привет, я — Олег Рогов , руководитель фронтенд-разработки. В статье рассмотрю, почему искусственный интеллект (ИИ) галлюцинирует и как с этим бороться. С развитием ИИ больших языковых моделей перед пользователями встает вопрос о достоверности информации, которую они предоставляют. Иногда ИИ может выдавать ответы, которые выглядят убедительно, но на самом деле являются вымышленными или неточными. Явление, при котором языковая модель генерирует ложную информацию, получило название «галлюцинация».

https://habr.com/ru/companies/beeline_cloud/articles/886706/

#нейросети #генеративный_ии #llm #обучение_моделей #проверка_фактов #автоматизация #оптимизация_нейросетей

Как эффективно бороться с галлюцинациями нейросетей

Привет, я — Олег Рогов , руководитель фронтенд-разработки. В статье рассмотрю, почему искусственный интеллект (ИИ) галлюцинирует и как с этим бороться. С развитием ИИ больших языковых моделей...

Хабр

[Перевод] LIMO: Меньше — значит больше для рассуждающих LLM

"Мы представляем фундаментальное открытие, которое бросает вызов нашему пониманию того, как сложные рассуждения возникают в больших языковых моделях" - так нескромно начинается аннотация к свежей статье от 5 февраля 2025 года. Авторы приводят результаты эксперимента, в котором небольшое количество хорошо подобранных задач с ответами может "всколыхнуть и заставить работать" весь "спящий" внутри LLM объем знаний, которые она накопила, перелопатив гигатонны текста. Возможно, данная работа войдет в список обязательных к прочтению статей по теории нейросетей.

https://habr.com/ru/articles/881974/

#LLM #qwen25 #рассуждения #обучение_моделей

LIMO: Меньше — значит больше для рассуждающих LLM

Мизерный объем задач с ответами может разбудить спящего LLM-льва... "Мы представляем фундаментальное открытие, которое бросает вызов нашему пониманию того, как сложные рассуждения возникают в больших...

Хабр

[Перевод] Теперь ИИ может заменить любого актера в фильме

Свет, камера... алгоритм? Теперь экран перестал быть уделом исключительно актеров из плоти и крови - все благодаря недавним достижениям в области искусственного интеллекта. В наши дни очень легко создать видео, в котором актеры делают или говорят то, чего на самом деле никогда не делали, или взять фрагмент из фильма и заменить лицо актера на другое. В ИИ-генератор видео с открытым исходным кодом Hunyuan от Tencent недавно была интегрирована поддержка технологии Low-Rank Adaptation (LoRA), что означает, что теперь вы можете обучать пользовательские стили, персонажей и движения, делая ваши ИИ-видео по-настоящему уникальными и персонализированными.

https://habr.com/ru/articles/878432/

#генерация_видео #ии #ai #civitai #j #обучение_модели #обучение_моделей

Теперь ИИ может заменить любого актера в фильме

Теперь ИИ может заменить любого актера в фильме Свет, камера... алгоритм? Теперь экран перестал быть уделом исключительно актеров из плоти и крови - все благодаря недавним достижениям в области...

Хабр

[Перевод] Платформа для генерации 3D-данных от Bifrost помогает промышленности ускорить обучение моделей

Привет, на связи Юлия Рогозина, бизнес-аналитик Шерпа Роботикс. Сегодня я перевела для вас статью, посвященную стартапу, который создал платформу для 3D-генерации данных без команды 3D-специалистов. Приглашаю ознакомиться с возможной идеей для бизнеса, ведь основным рынком компания считает США, но в России есть точно такие же потребности.

https://habr.com/ru/companies/sherpa_rpa/articles/861582/

#обучение_моделей #3dгенерация_данных

Платформа для генерации 3D-данных от Bifrost помогает промышленности ускорить обучение моделей

Привет, на связи Юлия Рогозина, бизнес-аналитик Шерпа Роботикс. Сегодня я перевела для вас статью, посвященную стартапу, который создал платформу для 3D-генерации данных без команды 3D-специалистов....

Хабр

Как работает поисковое ранжирование для миллионов объявлений Авито

Привет! Меня зовут Илья Валяев, я data science team lead поискового ранжирования в Авито. В статье расскажу, как у нас всё устроена система ранжирования, какие технологии используем и как именно улучшаем поисковые выдачи. Статья будет интересна ML-инженерам, которые владеют базовой теорией машинного обучения и хотят разобраться в том, как устроено поисковое ранжирование.

https://habr.com/ru/companies/avito/articles/846832/

#sphinx #поисковые_технологии #mlмодели #обучение_моделей #высокая_нагрузка #поисковые_системы #поисковые_алгоритмы #ранжирование_поиска #авито #объявления

Как работает поисковое ранжирование для миллионов объявлений Авито

Привет! Меня зовут Илья Валяев, я data science team lead поискового ранжирования в Авито . В этой статье рассказываю, как у нас всё устроена система ранжирования, какие технологии используем и как...

Хабр

[Перевод] Опыт тюнинга Llama3 405B на AMD MI300x

Опенсорсные модели становятся всё объёмнее, поэтому потребность в надёжной инфраструктуре для выполнения крупномасштабного обучения ИИ сегодня как никогда высока. Недавно наша компания выполнила fine-tuning модели LLaMA 3.1 405B на GPU AMD, доказав их способность эффективно справляться с крупномасштабными задачами ИИ. Наш опыт был крайне положительным, и мы с радостью выложили всю свою работу на GitHub в опенсорс. GPU AMD, и в особенности серия MI300X — это серьёзная альтернатива ИИ-оборудованию NVIDIA, обеспечивающая больше производительности на вложенный доллар. Наша система состояла из одного узла с 8 GPU AMD MI300x , а для fine-tuning мы использовали JAX . В этой статье мы расскажем всю историю fine-tuning LLaMA 405B, в том числе и подробности шардинга параметров и реализации LoRA.

https://habr.com/ru/articles/845674/

#llama #amd #nvidia #обучение_моделей #jax #pytorch

Опыт тюнинга Llama3 405B на AMD MI300x

Введение Опенсорсные модели становятся всё объёмнее, поэтому потребность в надёжной инфраструктуре для выполнения крупномасштабного обучения ИИ сегодня как никогда высока. Недавно наша компания...

Хабр