Нейронавт | Нейросети в творчестве
9.45K subscribers
3.67K photos
3.17K videos
40 files
4.12K links
Канал про нейросети в компьютерной графике, в кино и вообще

В папках не участвую

для связи @Neuronauticus
加入频道
Stable Diffusion 3 Medium Fine-tuning Tutorial

StabilityAI опубликовали инструкцию по обучению LoRa SD3 Medium

Ну молодцы, чё. Все уже научились обучать флюкс, даже я почти.

Спасибо @asleephidden

#finetuning #tutorial #sd3 #LORA
😁19👍5👎5
Нейронавт | Нейросети в творчестве
Tost.ai Flux Lora training На tost.ai завезли ostris ai toolkit Получится ли обучить на бесплатном лимите - не знаю. [update] Благодаря смелым подписчикам-первопроходцам, удалось выяснить что да, на бесплатном лимите можно натренить одну лору в день Еще…
Бесплатное обучение лоры на tost.ai снова в деле (платное тоже есть)

Выбираем [Train Lora] Flux.1 Train Lora with URL
Пишем триггер-слово. Заливаем до 12 картинок (или закидываем ссылки). Жмем кнопку, ждем.
Я ждал часа 2.

Еще потом и проверить лору дали, вот тут:
[Text to Image] Flux.1 Dev Custom Lora

Benius - это гениально (Bender+genius)

#lora #flux #finetuning
🔥3
CtrLoRA: An Extensible and Efficient Framework for Controllable Image Generation

Какой-то гибрид лоры и контролнет. Они обучили базовый контролнет на базовые знания всех видов управляющих изображений. И чтобы дообучить на что-то конкретное надо всего 1000 пар картинок. И объем дообученного CtrLoRA в 10 раз меньше чем контролнет

На данный момент сделано под SD 1.5. Требует от 9Гб VRAM для 512*512

Код

#finetuning #conditioning #lora #controlnet
👍5🔥2
Итак, кастомизация SD3.5

Для обучения лоры SD3.5 Large запаситесь 24Gb VRAM

Официальный гайд

готовые лоры:
раз
два
три
———————————
Примеры ComfyUI

———————————
SD3.5-fp8 (пожатая модель)

Спионерил у @SergeyTsyptsyn

#lora #text2image #comfyui #finetuning
🔥5👍21
OneTrainer

В утилите для дообучения генераторов картинок важное обновление для владельцев слабого железа

- Обучение Flux LoRa на 6 ГБ VRAM (с разрешением 512 пикселей)

- Дообучение Flux на 16 ГБ VRAM (или даже меньше) + 64 ГБ оперативной памяти

- Дообучение SD3.5-M на 4 ГБ VRAM (с разрешением 1024 пикселя)

Lля параметра "Gradient checkpointing" устанавливаем значение CPU_OFFLOADED, затем для параметра "Layer offload fraction" - значение от 0 до 1. При более высоких значениях будет использоваться больше системной оперативной памяти вместо видеопамяти.

Использование VRAM неоптимально при обучении Flux или SD3.5-M и Layer offload fraction близком к 0,5

#finetuning #SD35 #flux #tools
👍161
diffusion-pipe

Экспериментальный тренер диффузных моделей.
Поддерживает #Flux (лоры, полный файнтюн), LTX-Video, HunyuanVideo (лоры)

Реализовано распараллеливание для моделей которые не влезают в GPU

На Винде завелось только у одного юзера, но это неточно

Лору HunyuanVideo можно тренить на картинках на 24GB VRAM

LTX-Video с таким богатым VRAM можно тренить и на видео

#lora #finetuning
🔥12
SimpleTuner v1.2.2

Обновился инструмент для дообучения диффузных генераторов.

Добавлена поддержка Sana и исправлены баги с обучением SD3.5 (Large + Medium)

реддит

#finetuning
🔥8
OminiControl Training

Опубликован код обучения универсального управляемого генератора изображений OminiControl

Можете обучить свой собственный OminiControl на базе #flux с любым управлением - примерка, 3D, поза или что-либо еще что придумаете.

Только запаситесь двумя NVIDIA H100, 80GB VRAM. Непонятно почему двумя, ведь столько памяти у одной H100, но по ссылке написано именно так

#finetuning #training #conditioning #text2image
👍5
FLUX Pro Finetuning API

BlackForest Labs выпустили API для дообучения #FLUX

Уверяют что результат файнтюна будет работать со всеми официальными вариантами FLUX и совместим с FLUX Tools

FLUX Finetuning Beta Guide

#finetuning #lora #api
🔥8👍2