Нейронавт | Нейросети в творчестве
NeuroSandboxWebUI "Простой и удобный интерфейс для использования различных нейросетевых моделей" Для работы с текстом, картинками, видео, 3D, звуком. Легкая установка #GUI #tool
NeuroTrainerWebUI
И комбайн для обучения от того же автора.
Спасибо @asleephidden
#GUI #tool #finetuning
И комбайн для обучения от того же автора.
Спасибо @asleephidden
#GUI #tool #finetuning
❤9👍2
Stable Diffusion 3 Medium Fine-tuning Tutorial
StabilityAI опубликовали инструкцию по обучению LoRa SD3 Medium
Ну молодцы, чё. Все уже научились обучать флюкс, даже я почти.
Спасибо @asleephidden
#finetuning #tutorial #sd3 #LORA
StabilityAI опубликовали инструкцию по обучению LoRa SD3 Medium
Ну молодцы, чё. Все уже научились обучать флюкс, даже я почти.
Спасибо @asleephidden
#finetuning #tutorial #sd3 #LORA
😁19👍5👎5
Нейронавт | Нейросети в творчестве
Tost.ai Flux Lora training На tost.ai завезли ostris ai toolkit Получится ли обучить на бесплатном лимите - не знаю. [update] Благодаря смелым подписчикам-первопроходцам, удалось выяснить что да, на бесплатном лимите можно натренить одну лору в день Еще…
Бесплатное обучение лоры на tost.ai снова в деле (платное тоже есть)
Выбираем [Train Lora] Flux.1 Train Lora with URL
Пишем триггер-слово. Заливаем до 12 картинок (или закидываем ссылки). Жмем кнопку, ждем.
Я ждал часа 2.
Еще потом и проверить лору дали, вот тут:
[Text to Image] Flux.1 Dev Custom Lora
Benius - это гениально (Bender+genius)
#lora #flux #finetuning
Выбираем [Train Lora] Flux.1 Train Lora with URL
Пишем триггер-слово. Заливаем до 12 картинок (или закидываем ссылки). Жмем кнопку, ждем.
Я ждал часа 2.
Еще потом и проверить лору дали, вот тут:
[Text to Image] Flux.1 Dev Custom Lora
Benius - это гениально (Bender+genius)
#lora #flux #finetuning
🔥3
CtrLoRA: An Extensible and Efficient Framework for Controllable Image Generation
Какой-то гибрид лоры и контролнет. Они обучили базовый контролнет на базовые знания всех видов управляющих изображений. И чтобы дообучить на что-то конкретное надо всего 1000 пар картинок. И объем дообученного CtrLoRA в 10 раз меньше чем контролнет
На данный момент сделано под SD 1.5. Требует от 9Гб VRAM для 512*512
Код
#finetuning #conditioning #lora #controlnet
Какой-то гибрид лоры и контролнет. Они обучили базовый контролнет на базовые знания всех видов управляющих изображений. И чтобы дообучить на что-то конкретное надо всего 1000 пар картинок. И объем дообученного CtrLoRA в 10 раз меньше чем контролнет
На данный момент сделано под SD 1.5. Требует от 9Гб VRAM для 512*512
Код
#finetuning #conditioning #lora #controlnet
👍5🔥2
Итак, кастомизация SD3.5
Для обучения лоры SD3.5 Large запаситесь 24Gb VRAM
Официальный гайд
готовые лоры:
раз
два
три
———————————
Примеры ComfyUI
———————————
SD3.5-fp8 (пожатая модель)
Спионерил у @SergeyTsyptsyn
#lora #text2image #comfyui #finetuning
Для обучения лоры SD3.5 Large запаситесь 24Gb VRAM
Официальный гайд
готовые лоры:
раз
два
три
———————————
Примеры ComfyUI
———————————
SD3.5-fp8 (пожатая модель)
Спионерил у @SergeyTsyptsyn
#lora #text2image #comfyui #finetuning
🔥5👍2❤1
OneTrainer
В утилите для дообучения генераторов картинок важное обновление для владельцев слабого железа
- Обучение Flux LoRa на 6 ГБ VRAM (с разрешением 512 пикселей)
- Дообучение Flux на 16 ГБ VRAM (или даже меньше) + 64 ГБ оперативной памяти
- Дообучение SD3.5-M на 4 ГБ VRAM (с разрешением 1024 пикселя)
Lля параметра "Gradient checkpointing" устанавливаем значение CPU_OFFLOADED, затем для параметра "Layer offload fraction" - значение от 0 до 1. При более высоких значениях будет использоваться больше системной оперативной памяти вместо видеопамяти.
Использование VRAM неоптимально при обучении Flux или SD3.5-M и Layer offload fraction близком к 0,5
#finetuning #SD35 #flux #tools
В утилите для дообучения генераторов картинок важное обновление для владельцев слабого железа
- Обучение Flux LoRa на 6 ГБ VRAM (с разрешением 512 пикселей)
- Дообучение Flux на 16 ГБ VRAM (или даже меньше) + 64 ГБ оперативной памяти
- Дообучение SD3.5-M на 4 ГБ VRAM (с разрешением 1024 пикселя)
Lля параметра "Gradient checkpointing" устанавливаем значение CPU_OFFLOADED, затем для параметра "Layer offload fraction" - значение от 0 до 1. При более высоких значениях будет использоваться больше системной оперативной памяти вместо видеопамяти.
Использование VRAM неоптимально при обучении Flux или SD3.5-M и Layer offload fraction близком к 0,5
#finetuning #SD35 #flux #tools
GitHub
GitHub - Nerogar/OneTrainer: OneTrainer is a one-stop solution for all your stable diffusion training needs.
OneTrainer is a one-stop solution for all your stable diffusion training needs. - Nerogar/OneTrainer
👍16❤1
diffusion-pipe
Экспериментальный тренер диффузных моделей.
Поддерживает #Flux (лоры, полный файнтюн), LTX-Video, HunyuanVideo (лоры)
Реализовано распараллеливание для моделей которые не влезают в GPU
На Винде завелось только у одного юзера, но это неточно
Лору HunyuanVideo можно тренить на картинках на 24GB VRAM
LTX-Video с таким богатым VRAM можно тренить и на видео
#lora #finetuning
Экспериментальный тренер диффузных моделей.
Поддерживает #Flux (лоры, полный файнтюн), LTX-Video, HunyuanVideo (лоры)
Реализовано распараллеливание для моделей которые не влезают в GPU
На Винде завелось только у одного юзера, но это неточно
Лору HunyuanVideo можно тренить на картинках на 24GB VRAM
LTX-Video с таким богатым VRAM можно тренить и на видео
#lora #finetuning
GitHub
GitHub - tdrussell/diffusion-pipe: A pipeline parallel training script for diffusion models.
A pipeline parallel training script for diffusion models. - tdrussell/diffusion-pipe
🔥12
SimpleTuner v1.2.2
Обновился инструмент для дообучения диффузных генераторов.
Добавлена поддержка Sana и исправлены баги с обучением SD3.5 (Large + Medium)
реддит
#finetuning
Обновился инструмент для дообучения диффузных генераторов.
Добавлена поддержка Sana и исправлены баги с обучением SD3.5 (Large + Medium)
реддит
#finetuning
🔥8
OminiControl Training
Опубликован код обучения универсального управляемого генератора изображений OminiControl
Можете обучить свой собственный OminiControl на базе #flux с любым управлением - примерка, 3D, поза или что-либо еще что придумаете.
Только запаситесь двумя NVIDIA H100, 80GB VRAM. Непонятно почему двумя, ведь столько памяти у одной H100, но по ссылке написано именно так
#finetuning #training #conditioning #text2image
Опубликован код обучения универсального управляемого генератора изображений OminiControl
Можете обучить свой собственный OminiControl на базе #flux с любым управлением - примерка, 3D, поза или что-либо еще что придумаете.
Только запаситесь двумя NVIDIA H100, 80GB VRAM. Непонятно почему двумя, ведь столько памяти у одной H100, но по ссылке написано именно так
#finetuning #training #conditioning #text2image
👍5
FLUX Pro Finetuning API
BlackForest Labs выпустили API для дообучения #FLUX
Уверяют что результат файнтюна будет работать со всеми официальными вариантами FLUX и совместим с FLUX Tools
FLUX Finetuning Beta Guide
#finetuning #lora #api
BlackForest Labs выпустили API для дообучения #FLUX
Уверяют что результат файнтюна будет работать со всеми официальными вариантами FLUX и совместим с FLUX Tools
FLUX Finetuning Beta Guide
#finetuning #lora #api
🔥8👍2