Приветики, котятки!
Хочу натренировать свой датасет под Stable Diffusion. Я уже умею проводить тренировку под некоторые другие нейронки, но там всё просто: подготовил сорцы и прогнал на видюхе недельку-другую. А вот с тренировкой, конкретно, графических нейронок мне, прям, вообще мало что известно. Как, например, указывать нейронкам, что красивое, а что уродливое? Как настроить модель, чтобы уродств было меньше? Можно ли мешать на входе анимешные и фотографичные сорцы?
Надеюсь на помощь!!
(и, да: нейронка чисто "для себя", публиковать не буду, ибо в ней будет много коммерческих \ авторских материалов)
#нейронки #StableDiffusion #датасет #тренировка #картинки #рисунки #фотографии #видеокарта

@curvylover Я не спец по обучению, но, как правило, там нужно железо пожирнее, чем для генерации картинок.

Для начала можно покопать в сторону подстройки (finetuning) или LoRA (Low-Ranking Adapter) (https://stable-diffusion-art.com/train-lora/)

How to train Lora models - Stable Diffusion Art

Train Lora models for for Stable Diffusion 1.5 and Stable Diffusion XL models.

Stable Diffusion Art
@curvylover В обоих случаях нужна базовая модель, для которого будет собираться дополнение. Ну, и картинки с закреплёнными за ними токенами.