Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 526 125 144
Stable Diffusion технотред #12 /tech/ Аноним 06/09/23 Срд 00:18:10 478081 1
.png 979Кб, 3510x2910
3510x2910
.png 358Кб, 2546x1822
2546x1822
.png 271Кб, 1853x624
1853x624
.png 441Кб, 3904x1120
3904x1120
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем
Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>399707 (OP)

➤ Софт для обучения

https://github.com/kohya-ss/sd-scripts
Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах.
Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss

➤ GUI-обёртки для kohya-ss

https://github.com/bmaltais/kohya_ss
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts
https://github.com/anon-1337/LoRA-train-GUI

➤ Обучение SDXL

Если вы используете скрипты https://github.com/kohya-ss/sd-scripts напрямую, то, для обучения SDXL, вам необходимо переключиться на ветку "sdxl" и обновить зависимости. Эта операция может привести к проблемам совместимости, так что, желательно, делать отдельную установку для обучения SDXL и использовать отдельную venv-среду. Скрипты для тренировки SDXL имеют в имени файла префикс sdxl_.

Подробнее про обучение SDXL через kohya-ss можно почитать тут: https://github.com/kohya-ss/sd-scripts/tree/sdxl#about-sdxl-training

Для GUI https://github.com/bmaltais/kohya_ss и https://github.com/derrian-distro/LoRA_Easy_Training_Scripts/tree/SDXL так же вышли обновления, позволяющее делать файнтьюны для SDXL. Кроме полноценного файнтьюна и обучения лор, для bmaltais/kohya_ss так же доступны пресеты для обучения LoRA/LoHa/LoKr, в том числе и для SDXL, требующие больше VRAM.

Всё пока сырое и имеет проблемы с совместимостью, только для самых нетерпеливых. Требования к системе для обучения SDXL выше, чем для обучения SD 1.x.

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.

Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)

Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)

Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)

LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_easy_LORA_guide - гайд по подготовке датасета и обучению LoRA для неофитов
https://rentry.org/2chAI_LoRA_Dreambooth_guide - ещё один гайд по использованию и обучению LoRA
https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)

LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - это проект по созданию алгоритма для более эффективного дообучения SD. Ранее носил название LoCon. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr и DyLoRA:
https://github.com/KohakuBlueleaf/LyCORIS

LoCon (LoRA for Convolution layer) - тренирует дополнительные слои в UNet. Теоретически должен давать лучший результат тренировки по сравнению с LoRA, меньше вероятность перетренировки и большая вариативность при генерации. Тренируется примерно в два раза медленнее чистой LoRA, требует меньший параметр network_dim, поэтому размер выходного файла меньше.

LoHa (LoRA with Hadamard Product representation) - тренировка с использованием алгоритма произведения Адамара. Теоретически должен давать лучший результат при тренировках с датасетом в котором будет и персонаж и стилистика одновременно.

LoKr (LoRA with Kronecker product representation) - тренировка с использованием алгоритма произведения Кронекера. Алгоритм довольно чувствителен к learning_rate, так что требуется его тонкая подгонка. Из плюсов - очень маленький размер выходного файла (auto factor: 900~2500KB), из минусов - слабая переносимость между моделями.

DyLoRA (Dynamic Search-Free LoRA) - по сути та же LoRA, только теперь в выходном файле размер ранга (network_dim) не фиксирован максимальным, а может принимать кратные промежуточные значения. После обучения на выходе будет один многоранговый файл модели, который можно разбить на отдельные одноранговые. Количество рангов указывается параметром --network_args "unit=x", т.е. допустим если network_dim=128, network_args "unit=4", то в выходном файле будут ранги 32,64,96,128. По заявлению разработчиков алгоритма, обучение одного многорангового файла в 4-7 раз быстрее, чем учить их по отдельности.

Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion (англ.)

Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Тренировка YOLO-моделей для ADetailer
YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.

Гайд: https://civitai.com/articles/1224/training-a-custom-adetailer-model
Тулза для датасета: https://github.com/vietanhdev/anylabeling
Больше про параметры: https://docs.ultralytics.com/modes/train

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное

Гайд по фиксу сломанных моделей: https://rentry.org/clipfix (англ.)
Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.)

Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
https://rentry.org/2ch_nai_guide#апскейл
https://rentry.org/UpscaleByControl

Ручная сборка и установка последней версии xformers и torch в venv автоматика:
Windows: https://rentry.org/sd_performance
Linux: https://rentry.org/SD_torch2_linux_guide

Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA

Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn

Шапка: https://rentry.org/catb8

Прошлые треды:
№1 https://arhivach.top/thread/859827/
№2 https://arhivach.top/thread/860317/
№3 https://arhivach.top/thread/861387/
№4 https://arhivach.top/thread/863252/
№5 https://arhivach.top/thread/863834/
№6 https://arhivach.top/thread/864377/
№7 https://arhivach.top/thread/868143/
№8 https://arhivach.top/thread/873010/
№9 https://arhivach.top/thread/878287/
№10 https://arhivach.top/thread/893334/
№11 https://arhivach.top/thread/908751/
Аноним 06/09/23 Срд 11:30:22 478305 2
>>478081 (OP)
Анонче, подскажи, можно ли как-то с помощью SD сменить стиль уже готовой картинки? Гайды, которые я находил, подразумевают что ты уже до этого генерил её, и чтобы не проебывать рисовку нужно копировать промпт и сид.
А если это вообще левая картинка? Попытаться описать что на ней и просто надеяться что с низкими Denoising strength и CFG он не напридумывает лишнего?
Аноним 06/09/23 Срд 12:04:29 478319 3
>>478305
Да, там даже описалка BLIP встроена для такого. Ну и контролнетом можно обмазаться, от канни до тайлового, в зависимости от того, как близки стили визуально.
Аноним 06/09/23 Срд 12:10:24 478329 4
>>478319
Понял, благодарю
Аноним 06/09/23 Срд 18:06:43 478739 5
aZvoya00018.png 381Кб, 448x640
448x640
image.png 288Кб, 1650x439
1650x439
>>478081 (OP)
Помогите пожалуйста, поиск ничего не выдает.
Аноним 06/09/23 Срд 18:07:24 478743 6
Как вообще гуглить артефакты тренировок?
Аноним 06/09/23 Срд 18:25:12 478782 7
IMG1317.jpeg 118Кб, 854x1280
854x1280
Сап, аноны. Обоссыте мне ебало, выебите мать, но только подскажите как мне генерить в заданной палитре цветов? Мне нужны только конкретные цвета в txt2pic, но я вообще не понимаю как добиться этого. HALP
Аноним 06/09/23 Срд 20:10:51 478975 8
>>478739
Ты эмбед тренируешь? Лучше смотри на финальный результат, в каком то старом гайде читал что на пробные сэмплы во время тренировки эмбеда лучше не смотреть, там наверное нужно как то настроить генерацию, а то оно скорее всего генерит с пустым промптом.
Аноним 06/09/23 Срд 20:45:35 479051 9
Аноним 06/09/23 Срд 21:22:44 479146 10
Без имени-1.jpg 742Кб, 1780x614
1780x614
>>478975
Ты эмбед тренируешь?
Да.
>Лучше смотри на финальный результат, в каком то старом гайде читал что на пробные сэмплы во время тренировки эмбеда лучше не смотреть, там наверное нужно как то настроить генерацию, а то оно скорее всего генерит с пустым промптом.
Пик1 результат шаг 1000. (слева промпт (без эмбедда), с права с эмбеддом). В этот раз тренировал на своем ПК.
Аноним 06/09/23 Срд 21:25:42 479149 11
>>479146
А скинь его, буду использовать для розовых волос. Не баг а фича так сказать.
Подсказать правда нечего.
Аноним 06/09/23 Срд 21:45:22 479177 12
>>479146
Что ты от него получить то в итоге хочешь? Ты же в курсе что он просто те тренит?
Аноним 06/09/23 Срд 22:32:06 479246 13
image.png 199Кб, 1169x128
1169x128
image.png 1260Кб, 1088x846
1088x846
>>479149
https://dropmefiles.com/gQN3Q
>>479177
>Что ты от него получить то в итоге хочешь?
Стиль одежды и приблизительную внешность.
>Ты же в курсе что он просто те тренит?
Вы смысле не тренит? Нет, не в курсе. Но в пустом промпте он всегда генерирует тянок - чему-то он научился.
Пробовал с черно-белого фотографа треннировать вроде стиль понимает. (у фотографа очень мыльные фотки с сильным DOF что заметно.)Пик1

Вообще нет никаких туториалов про то как нужно интерпретировать результаты тренировки. Еще хоть как понятно с overtrained - это когда оно пихает определенные детали ко всем или большинству генерируемых пикч, а undertrained это когда эмбеддинг оказывает слишком слабое влияние. А все остальное это просто дикий лес.

1 Текущий датасет:
Пик2
2 Embedding Learning rate:
0.05:10, 0.02:20, 0.01:60, 0.005:200, 0.002:500, 0.001:3000, 0.0005
3 Steps:
1000
Аноним 06/09/23 Срд 22:46:13 479266 14
>>479246
> Вы смысле не тренит?
Всмысле TE - text encoder тренит, посмотри в пик1 в шапке, это не замена полноценному файнтюну или лоре с новой инфой, просто как лазерная указка что генерить.
> Стиль одежды и приблизительную внешность.
У тебя же там датасет просто рандомных тянок, понятия не имею как ты из такого хочешь стиль одежды или внешность вытянуть, но получится просто что то среднее.
> Вообще нет никаких туториалов про то как нужно интерпретировать результаты тренировки. Еще хоть как понятно с overtrained - это когда оно пихает определенные детали ко всем или большинству генерируемых пикч, а undertrained это когда эмбеддинг оказывает слишком слабое влияние. А все остальное это просто дикий лес.
В гайдах по лорам есть. Вкратце овертрейн отлично будет отличим по артефактам на итоговой картинке, а андертрейн недостаточностью результата на дефолтном весе лоры.
Аноним 06/09/23 Срд 23:13:59 479298 15
изображение.png 850Кб, 1708x1398
1708x1398
Аноним 07/09/23 Чтв 15:20:23 480047 16
>>479266
>просто как лазерная указка что генерить.
Это то что мне нужно.
>В гайдах по лорам есть. Вкратце овертрейн отлично будет отличим по артефактам на итоговой картинке, а андертрейн недостаточностью результата на дефолтном весе лоры.
Про овертрейн и андертрейн я понимаю, а как свою проблему загуглить, да и вообщем-то любые с проблемы с тренировкой особенно эмбеддов очень проблемно. В основном "embedding is not woriking" пишут что выходит ошибка в консоли, а у меня цвета добавляются. "Embedding training pink colors" вообще никаких релевантных результатов не выдает.
Аноним 07/09/23 Чтв 18:46:53 480190 17
image 125Кб, 768x768
768x768
Аноним 07/09/23 Чтв 18:54:45 480195 18
sdxl.PNG 5Кб, 970x42
970x42
решил попробовать sdxl, обновил SD, кинул базовую модель и еще какую-то на пробу. При переключении периодически получаю ошибку как на скрине. Чего ему надо? Модельки ведь лежат
Аноним 08/09/23 Птн 13:24:58 480949 19
>>480195
Модель не загружается, поэтому webui сбрасывается на предыдущую модель aresmix.

Попробуй перезагрузить автоматик.
Аноним 08/09/23 Птн 23:03:36 481617 20
Аноны, что лучше при тренировке лоры: 50 изображений и 10 повторений или 100 изображений и 5 повторений?
Аноним 08/09/23 Птн 23:09:06 481621 21
>>481617
20-30 изображений и 100 повторений
Аноним 08/09/23 Птн 23:12:36 481623 22
>>481621
Оно же пережарится, лол
Аноним 08/09/23 Птн 23:12:56 481624 23
>>481617
1 изображение 500 повторений
Аноним 08/09/23 Птн 23:35:05 481646 24
>>481624
А если 500 изображений и одно повторение?
Аноним 09/09/23 Суб 00:44:04 481713 25
>>481617
Зависит от изображений.
Если у тебя получилось 100 собрать, на которых именно то, что тебе надо, да еще и протэгать всё правильно - будет лучше 100.
Аноним 09/09/23 Суб 01:21:40 481759 26
Кто-нибудь может сказать, какого черта автоматик генерит разную картинку на одном и том же сиде, если генерить не по одной, а батчами по несколько?
Типа, при Batch count = 4 и Batch size = 1 получаем 4 картинки, потом ставим на том же сиде Batch count = 1 и Batch size = 4 - и получаем уже другие картинки. Похожие, да, но не идентичные.
Как его заставить выдать одну и ту же картинку независимо от этих настроек?
Аноним 09/09/23 Суб 02:09:12 481799 27
>>481759
Не подтверждаю, у меня абсолютно одинаковые картинки генерятся.
Version: v1.6.0-78-gd39440bf, xformers: 0.0.21
Аноним 09/09/23 Суб 02:31:47 481807 28
>>481617
В итоге первый вариант оказался лучше
Аноним 09/09/23 Суб 04:17:51 481855 29
grid-0800.png 1931Кб, 1200x1600
1200x1600
grid-0801.png 1929Кб, 1200x1600
1200x1600
>>481799
1girl, solo focus
Одна батчем в 4, вторая последовательно по 1-й картинке 4 раза.
SDE-карась.
Версия автоматика, правда, старая была.
Обновился - и оно перестало запускаться.
Ожидаемо.
Перекачиваю всё заново, напишу по результатам.
Аноним 09/09/23 Суб 04:24:32 481857 30
>>481855
У тебя старые иксформерсы, в которых выходные изображения недетерминированы. В версии 0.0.19 это пофиксили. Либо ты использовал SDP-attention.
Аноним 09/09/23 Суб 04:26:07 481858 31
изображение.png 11Кб, 630x49
630x49
>>481857
Всю папку убил, заново качнул - одна фигня.
>Либо ты использовал SDP-attention.
Где смотреть?
Аноним 09/09/23 Суб 04:28:38 481859 32
>>481858
Settings — Optimizations — Cross attention optimization
Аноним 09/09/23 Суб 04:30:37 481860 33
>>481859
Стояло на automatic, переставил на x-formers.
Сохраняется.
Отключить надо чтоль? На производительности не скажется?
Аноним 09/09/23 Суб 04:36:45 481861 34
>>481860
Отключил - вообще ппц.
Всё медленно, батч 4 не влез в память =)
Что-то фигня какая-то нездоровая.
Аноним 09/09/23 Суб 04:36:54 481862 35
>>481860
Попробуй поставить None и посмотреть, что получится.
Аноним 09/09/23 Суб 04:38:33 481863 36
>>481862
Смотри выше.
Картинки в батче 2-2 получились заметно более различными, чем с auto\x-formres, кстати.
Аноним 09/09/23 Суб 05:16:03 481865 37
>>481863
Странная хуйня, с отключенными оптимизаторами картинки по определению должны быть одинаковыми. А с другими семплерами пробовал, DPM++ 2M Karras например?
Аноним 09/09/23 Суб 05:20:59 481866 38
>>481863
Так же проверь не стоит ли галочка "Do not make DPM++ SDE deterministic across different batch sizes" в Settings — Compatibility
Аноним 09/09/23 Суб 11:15:34 481991 39
1643091008329.jpg 1207Кб, 3072x3072
3072x3072
1548895186175.jpg 1194Кб, 3072x3072
3072x3072
1663817359809.jpg 1644Кб, 3072x3072
3072x3072
1545939663444.jpg 1644Кб, 3072x3072
3072x3072
>>481759
В последней версии были затронуты батчи, что позволило гонять по 8 768х768х2 пикч сразу и умещаться в 16гб врам. У меня тоже не генерит идентичные, причём степень отличий ещё и зависит от сэмплера. Пик 1-2 эйлер а, сначала batch size 8, потом batch count 8. 3-4 тоже самое с 2м каррасом. Xformers достаточной версии, чтобы был детерменистик xformers: 0.0.21+c853040.d20230624
Аноним 09/09/23 Суб 19:40:44 482626 40
>>481866
Нет, не стояла.
ЧСХ эта галка меняет аутпут даже без батча, в одной картинке, и очень серьезно.
Аноним 09/09/23 Суб 19:42:11 482630 41
>>481991
Я это вообще на 1.5.6. чтоль заметил, до того, как обновился.
Т.е. оно давно началось.
Заметил, главное, чисто случайно - никогда раньше батчами не генерил, только последовательно. А тут решил попробовать, и офигел с того, что картинки разные начали вылезать.
Аноним 09/09/23 Суб 19:51:02 482649 42
>>481865
На нем тоже.
И на DDIM различия тоже есть, но гораздо менее заметные.
Одна из четырех так вообще идентичная сгенерилась.
Аноним 09/09/23 Суб 20:09:41 482680 43
Надеюсь в той теме спрашиваю.
Хочу примерно оценить сколько времени /мощности может понадобится для обучения своей модели с нуля под узкоспециализированую не широкую тему изображений
На 11 гигах врам 1 видяхи это совсем космическое время или там неделя/месяц/полгода
Наверно есть ориентиры на других анонов которые себе чот обучали типо аниме тян
Аноним 09/09/23 Суб 20:43:38 482766 44
>>482680
>обучения своей модели с нуля
>На 11 гигах врам 1 видяхи
Ебать шиза. Годы чувак, годы, отлетит твоя 1080Ti за это время.
Аноним 10/09/23 Вск 06:38:37 483265 45
>>482766
А на 4090 получается полугоды?
Аноним 10/09/23 Вск 07:26:26 483287 46
1608328570861.png 27Кб, 729x217
729x217
>>482680
> с нуля
Советую передумать, если ты не глава какой-либо мегакорпорации с крупными бюджетами. Представитель StabilityAI говорил, что для обучения SD1 они использовали кластер из 256 видеокарт A100, суммарная длительность обучения была 150k часов (17 лет, если делать на одной A100).

Существующие модели можно дообучать на домашней ПеКе (Dreambooth, надо 24GB VRAM для дообучения SD1.X моделей). Так же возможно обучать свои микромодели под названием Lora и LyCORIS, которые будут взаимодействовать в паре с другой крупной моделью. Подавляющее большинство тех, кто тренирует нейронки для рисования картинок на этой доске, выбирают этот вариант. На твоей видюхе это без проблем можно сделать; обучение лор, как правило, идёт меньше часа.
Аноним 10/09/23 Вск 09:04:59 483350 47
>>483287
> для обучения SD1 они использовали кластер из 256 видеокарт A100, суммарная длительность обучения была 150k часов
Индус пиздит как дышит, пытаясь наебать дурачков-инвесторов. CompVis за 3 месяца допилили модель и обучили её. Там даже 1000 часов не было, в просто 150 я ещё поверил бы. Я уж молчу про то что если взять в руки калькулятор и посчитать сколько займёт обучение всего датасета LION Aesthetics на 256хА100 - там меньше трёх суток получится. Даже языковые модели с размером 13В в 20 раз больше параметров чем у первой SD и датасетом под лярд токенов столько не обучают - в пределах нескольких недель на таком количестве А100.
Аноним 10/09/23 Вск 12:41:06 483515 48
Анонасы, кто-нибудь юзал вундервафлю LoRA_Easy_Training_Scripts?
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts

UI выглядит охуенно удобно, но туториала по тому что именно делают те или иные опции и как вообще использовать это вот всё я не нашёл. Я так понимаю что это всё делалось для людей которые уже пилили лоры, просто собрано в более удобный вид, а я только-только решил вкатиться
Если у кого есть ссыль или время на написание поста с объясненим как юзать, был бы благодарен.
Ну или хз, можете посоветовать альтернативу
Аноним 10/09/23 Вск 15:13:35 483651 49
>>483515
Там вообще всплывающие подсказки есть почти на всё, довольно круто сделано.
По поводу чего и куда - в шапке есть туториалы для тренировки лор, там параметры описаны. Названия везде одни и те же, так что прочитай - и понятно будет (почти всё).
Аноним 10/09/23 Вск 16:41:39 483718 50
>>483515
я как-то тренировал для себя на фотках одной девушки. по итогу въебал почти сутки на это. больше как-то не хочется самому этим заниматься
Аноним 10/09/23 Вск 20:08:05 483895 51
>>483350
А они обучали с нуля или дообучали?
Аноним 11/09/23 Пнд 15:10:33 484511 52
notcursednat (5[...].jpg 180Кб, 1080x1080
1080x1080
Анончики, как эта одежда называется? Пилю лору на Наточку, скоро с вами поделюсь.
Аноним 11/09/23 Пнд 16:24:25 484572 53
Если ошибка несколько эпох не уменьшается, значит ли, что датасет или тэги плохо подобраны? lr 1e-4, количество эпох 10, всего шагов 2100.
Аноним 13/09/23 Срд 17:59:48 487384 54
>>484511
long sleeve
Куда выложишь?
Аноним 13/09/23 Срд 21:01:03 487628 55
>>487384
Спасибо.
На обменник залью. Но пока так себе выходит, положил в долгий ящик. Будет настроение, вернусь.
Аноним 14/09/23 Чтв 17:00:41 488414 56
Аноны, скажите пожалуйста, если я пдросто возьму и перекину папку с SD с одного харда на другой, оно будет работать?
Просто место на диске С заканчивается, а второй хард пустой стоит.
Аноним 14/09/23 Чтв 19:46:15 488539 57
Аноним 14/09/23 Чтв 20:13:18 488562 58
>>484511
На нее хороших фоток хуй да маленько.
мимо тоже пробовал тренить
Аноним 14/09/23 Чтв 22:10:23 488688 59
2779863.jpg 750Кб, 1196x1792
1196x1792
>>487628
Тебе нужны фотки с acursednat-исты или с модельного агенства?
Аноним 14/09/23 Чтв 22:33:55 488724 60
Как генерировать нюдсы бывшей?
Аноним 14/09/23 Чтв 22:47:03 488737 61
9C766150-1D15-4[...].jpeg 107Кб, 1847x1106
1847x1106
Хватит на коллаб заходить и пытаться в нем что то запустить.
Аноним 14/09/23 Чтв 22:47:48 488739 62
И да, я вижу, если вы пытаетесь запустить «мой» код в своем блокноте
Аноним 14/09/23 Чтв 22:53:09 488746 63
Аноним 15/09/23 Птн 03:41:24 488906 64
>>488688
Неплохо, если скинешь пак, будет полезно.
>>488562
Да хуй знает, иногда выходит нормально, но только меняешь модель или промт, выходит говно.
Аноним 15/09/23 Птн 13:49:56 489283 65
Аноним 15/09/23 Птн 14:53:48 489345 66
Аноним 16/09/23 Суб 12:26:13 490418 67
297c9b0b0c76977[...].jpg 14Кб, 564x564
564x564
Аноны, на мой взгляд существующие 3д модели одежды и волос обычно выглядят всрато, особенно лоупольные. Поэтому генерации с ControlNet Depth получаются крутыми только для порно-картинок без одежды.
А что если начать генерировать голого и лысого персонажа с ControlNet, а потом отключить его и генерировать одежду/волосы уже без? Это вообще в Автоматике1111 возможно сделать?

Алсо, может кто-нибудь видел хорошие туторы по эффективному использованию Depth модели? На ютубе одно говно с персонажами подозрительно похожими на примитивную болванку. Я бы за хороший тутор даже денег не пожалел бы. Хотелось бы научиться ставить своего персонажа в самые разные и сложные позы с помощью 3д модели.
Аноним 16/09/23 Суб 13:17:26 490452 68
изображение.png 9Кб, 880x62
880x62
>>490418
На каждый отдельный модуль можно задать начальный и конечный процент от общих шагов, где контролнет будет работать.
Плюс то, насколько сильно этот модуль влияет.
Плюс можно подключать больше одного модуля.
Например, задать позу, подключить сверху depth, чтоб он на первых 15% шагов поработал, а потом пусть нейронка сама рисует. Только с болванкой тут врядли что получится, а вот одетого перса - уже нормально может обработать.
Экспериментируй, вообщем.
Аноним 16/09/23 Суб 15:37:23 490553 69
D9k6KTM.jpg 1353Кб, 3995x2304
3995x2304
>>490452
Спасибо, анон, я и забыл про этот ползунок.
>Только с болванкой тут врядли что получится, а вот одетого перса - уже нормально может обработать.
Проблема в низком качестве моделек одежды. Пикрелейтед, например. Вообще даже плохие 2д рисоваки намного лучше справляются с одеждой чем даже самые крутые 3д модделлеры и системы симуляции ткани. С этим вряд ли что-то можно поделать.
Было бы круто если бы нейросеть дорисовывала одежду сверху на голого персонажа.
Аноним 16/09/23 Суб 16:30:17 490580 70
zz.png 612Кб, 768x1280
768x1280
00437-198641669[...].png 892Кб, 768x1280
768x1280
image.png 37Кб, 768x1280
768x1280
>>490553
Поставь для depth поменьше значимости (или вообще нафиг выруби), подключи сверху canny или lineart, чтоб по контурам больше руководства было.
Плюс tile с низкой силой, типа 0.25 или около того, с быстрым отключением, чисто для контроля цвета.
Ну и денойз повыше, прям в 0.8 или даже 0.9.
Там, где канни ничего не нарисует, нейронка с высоким денойзом будет сама что-то придумывать. В итоге что-то типа пикрила получится.
Аноним 16/09/23 Суб 16:40:04 490596 71
zz.png 612Кб, 768x1280
768x1280
00439-201325475[...].png 1122Кб, 768x1280
768x1280
image(1).png 38Кб, 768x1280
768x1280
>>490553
>>490580
Плюс не забывай, что картинки контролнета можно редачить.
Вот, например, что получилось, если отключить тайл, закрасить часть контролнетовского файла, и немного пошаманить с промптами.
Аноним 16/09/23 Суб 17:06:38 490639 72
00441-339437873[...].png 1032Кб, 768x1280
768x1280
И чем я только занимаюсь?..
Вот что бывает, когда у человека слишком много свободного времени =)
Крутая штука всё-таки, этот контролнет.
Аноним 16/09/23 Суб 19:52:14 490864 73
image.png 45Кб, 1280x720
1280x720
image.png 664Кб, 1184x244
1184x244
image.png 1610Кб, 1089x909
1089x909
Аноним 16/09/23 Суб 20:35:54 490912 74
>>490580
У тебя чисто по скриншоту 3д-модели получилось лучше чем у автора >>490553 пикчи, который и Depth карту рендерил и OpenPose вроде тоже.
Забавно, может быть в самом деле для аниме, где преимущественно плоский стиль, canny будет лучше работать чем depth.

>>490596
>если отключить тайл
Что за тайл?

>закрасить часть контролнетовского файла
Если тебе одну картинку нужно, то норм так лицо стирать. Если больше, то каждый раз разное лицо будет небось.
Теоретически, можно натренировать лору на лицо какого-нибудь персонажа по набору 2д картинок и тогда будет норм. Это должно будет помочь с типичными косяками 3д-аниме, когда 3д модели в профиль выглядят странно.
Аноним 16/09/23 Суб 23:57:33 491101 75
>>478081 (OP)
Анон могу ли я обучить нейросеть генерить контент для себя с моей бывшей, она была вебкам моделью и в целом онлифанс девочкой ?
Аноним 17/09/23 Вск 05:48:32 491176 76
>>478081 (OP)
Кал дабы всё. Как быть то. Платным вроде тоже нельзя
Аноним 17/09/23 Вск 07:40:52 491205 77
image.png 1650Кб, 768x1024
768x1024
image.png 1170Кб, 768x1024
768x1024
image.png 1368Кб, 768x1024
768x1024
Аноним 17/09/23 Вск 07:46:04 491207 78
>>490912
>Забавно, может быть в самом деле для аниме, где преимущественно плоский стиль, canny будет лучше работать чем depth.
Оно и на реалистиках хорошо работает.
Но там, правда, лайнарт модуль должен лучше себя показывать, он не настолько жестко на контуры давит, больше свободы для интерпретации дает.

>Что за тайл?
Модуль контролнета tile. Много где полезен - в и2и или в т2и для задачи цветов и общей композиции, при многотайловом апскейле с полным промптом для уменьшения галлюцинаций, при использовании мультидиффужн, и хз где еще. Работает как референсная картинка, короче, не позволяет ИИ сильно далеко от входящих данных отклоняться.

>Теоретически, можно натренировать лору на лицо какого-нибудь персонажа по набору 2д картинок и тогда будет норм.
А можно просто рулетку подольше покрутить, что-то похожее рано или поздно срендерится. Если, конечно, там не что-то прям шибко специфичное.
Аноним 17/09/23 Вск 07:47:40 491208 79
03532-3670182404.jpg 549Кб, 768x1024
768x1024
03497-4110997882.jpg 270Кб, 512x768
512x768
03570-3262374691.jpg 1192Кб, 1024x1536
1024x1536
03573-3387580145.jpg 502Кб, 768x1024
768x1024
Аноним 17/09/23 Вск 08:13:35 491216 80
>>491101
Можешь.
Если качественных фоток нужное количество насобираешь.
Гайды на тренировку лор в шапке лежат.
Есть еще модули, которые могут на тело от ИИ или из интернета лицо твоей бывшей налепить, тут даже тренировка не нужна.
Аноним 17/09/23 Вск 11:11:51 491299 81
>>490452
просто покажи что ты хочешь сделать
Аноним 17/09/23 Вск 13:20:03 491399 82
1584914194957.png 4540Кб, 1536x1536
1536x1536
1640871691212.jpg 811Кб, 2048x2304
2048x2304
Аноним 18/09/23 Пнд 10:54:03 492341 83
>>491399
Почему не загрузишь модель на цивитай?
Аноним 18/09/23 Пнд 13:07:16 492438 84
>>492341
Не умею и мне лень.
Аноним 18/09/23 Пнд 16:05:48 492603 85
>>492341
А там не ЗОБАНЯТ за такое? А то натренировать ЛоРЫ на всяких камвхор по слитым фоткам и пустить их с помощью ИИ в тираж - это вполне себе легко и вызовет просто ядерное полыхание пуканов и у модели, и у её пиздолизов, которые за тоже самое денег отваливали.
Аноним 18/09/23 Пнд 21:07:37 492994 86
>>492603
Максимум удалить могут. И то если персона, на которую лора натренена, пожалуется.
Ну, насколько я помню, и если у них там ничего не поменялось с тех пор.
Аноним 19/09/23 Втр 09:52:44 493376 87
>>492994
Персоне может и похуй будет - даже лучше - дополнительная реклама НАСТОЯЩИХ фотачек. Но вот армию боевых куколдов никто не отменял.
Аноним 19/09/23 Втр 12:55:31 493456 88
Сап технач, есть ебаный вопрос. Посравнивал бенчи своей 4080 с другими и чет какое-то говно у меня. В 512x512 в 1 батч на ейлере максимум что видел 12 it/s в SD.Next, в обычном вебхуе последнем не выше 8 it/s, а на хайрез проходе просто пиздец, 1-1.5 it's. Без токен паддингов и прочей хуйни, дефолт конфиг. У всех 15-20+ а то и 25, а у меня насрано. Нихуя не пойму в чем дело. Может кто подскажет куда копать?

Либы torch:2.0.1+cu118 Autocast half xformers:0.0.20
device:NVIDIA GeForce RTX 4080 (1) (compute_37) (8, 9) cuda:11.8 cudnn:8700 driver:536.67 16GB, проц 5800x
Аноним 19/09/23 Втр 17:11:45 493578 89
>>493456
Попробуй sdp вместо xformers.
Скачай свежую версию cudnn и подмени библиотеки в торче.
Webui, надеюсь, запускаешь без всяких no-half и no-half-vae?
Аноним 19/09/23 Втр 17:26:40 493589 90
>>493578
На sdp ещё хуже в среднем.
cudnn и прочее подрочить попробую, но сомневаюсь что толку будет.
>без всяких no-half и no-half-vae?
Офк.
Аноним 19/09/23 Втр 17:34:57 493603 91
>>493589
в диспетчере задач нагрузку на GPU и VRAM во время генерации смотрел? ничего необычного?
Аноним 19/09/23 Втр 17:39:02 493610 92
>>493603
Ничего, всё чисто.
>cudnn и подмени библиотеки в торче
Где оно там лежит? Забыл чёт.
Аноним 19/09/23 Втр 17:41:58 493617 93
>>493610
stable-diffusion-webui\venv\Lib\site-packages\torch\lib\
Файлы cudnn64_8.dll, cudnn_adv_train64_8.dll, cudnn_cnn_train64_8.dll, cudnn_ops_train64_8.dll, cudnn_adv_infer64_8.dll, cudnn_cnn_infer64_8.dll, cudnn_ops_infer64_8.dll нужно подменить.
Аноним 19/09/23 Втр 17:47:59 493626 94
image.png 25Кб, 580x109
580x109
>>493617
Спасиб. Вроде чуть получше стало, но один хер выше 17its в моменте не поднимается. Но хоть что-то.
Аноним 19/09/23 Втр 17:49:40 493629 95
>>493626
И да, еще посмотри чтобы Hardware Accelerated GPU Scheduling (Планирование графического процессора с аппаратным ускорением) было отключено в настройках винды.
Аноним 19/09/23 Втр 17:55:01 493639 96
image.png 11Кб, 584x52
584x52
>>493629
Вот оно чё блять оказывается. Ебать, спасибо за помощь, анон, инфу хуй нагуглишь сам.
Аноним 19/09/23 Втр 18:34:04 493691 97
>>493629
А как быть тем, у кого таких настроек и вовсе нет?
Аноним 19/09/23 Втр 18:35:27 493693 98
>>493691
Значит его тупо нет в твоей винде, не беспокойся.
Аноним 19/09/23 Втр 18:41:06 493703 99
>>493578
>Webui, надеюсь, запускаешь без всяких no-half и no-half-vae?
Так оно на какие-то десятые доли процента вроде тормозит, не критично вообще, не?
У меня с ним на 4080 25its на настройках как у анона рядом.
Аноним 19/09/23 Втр 18:57:24 493734 100
>>493703
>У меня с ним на 4080 25its на настройках как у анона рядом.
Вот какого хуя у меня после выключения шедулинга и с последними либами максимум 20its и это на разогнанной видяхе, куда ещё 5 проебались. Или в общем конфиге пекарни дело, или какие-то приколы вебуя.
Аноним 19/09/23 Втр 19:11:48 493769 101
>>493734
Проц тут тоже влияет, насколько я помню.
Дрова еще. НВидия там какие-то оптимизоны периодически выкатывает, попробуй обновиться.
cudnn-файлы я, кажется, в этот раз не ставил отдельно именно для автоматика. Только для кохай-вебуя для лор.
Аноним 19/09/23 Втр 19:51:47 493839 102
Чому у меня получается либо лицо фотографичное, но портрет на полтела, либо full body с обувью, но лицо по пизде?
Deliberate 3.
Restore face стоит.
Аноним 19/09/23 Втр 20:01:16 493855 103
>>493839
>Restore face стоит.
Убери. Только хуже делает.

>либо full body с обувью, но лицо по пизде?
А ты прикинь, какой процент картинки занимает лицо на "портретной" картинке, и на "фуллбоди". Нейронке просто разрешения не хватает, чтоб его нормально детализировать.
Отправляй картинку в инпэинт, и улучшай лицо там. Гайд с правильными настройками легко загуглишь.
Аноним 19/09/23 Втр 20:58:31 493935 104
>>493769
>НВидия там какие-то оптимизоны периодически выкатывает
Скорее деоптимизоны, лол.
>>493855
>Отправляй картинку в инпэинт, и улучшай лицо там.
Или Adetailer, или как его там.
Аноним 19/09/23 Втр 21:24:41 493980 105
>>493935
>Или Adetailer, или как его там.
То же самое, только в автоматическом режиме.
Если кучу картинок генеришь - оно лучше подойдет. А вот если какую-то конкретную хочешь - лучше инпэинтом.
Аноним 20/09/23 Срд 13:50:24 494451 106
какая-то фигня творится, у 4070ti было 18-19 it/s, теперь же 13-14, дрова последние и аппаратный планировщик отключен. пробовал разгон, ничего не меняется. в диспетчере задач показывает загрузку гпу ~70%. с одной стороны и так сойдёт, не минуты уходят как на 1050ti, с другой - раздражает что всё начинает замедляться без видимых причин.
Аноним 21/09/23 Чтв 00:21:06 495126 107
изображение.png 10Кб, 898x63
898x63
>>494451
установил SD на manjaro, всё быстро работает, хз что не так с 11 виндой
Аноним 21/09/23 Чтв 07:34:19 495304 108
Подскажите пожалуйста, --opt-sdp-attention и xformers можно вместе использовать?
Аноним 21/09/23 Чтв 08:20:41 495321 109
Аноним 21/09/23 Чтв 09:34:32 495348 110
>>495321
А что из этого лучше? Видеокарта 3060
Аноним 21/09/23 Чтв 21:48:58 496121 111
>>495348
если последняя версия xformers то разницы нет в скорости
Аноним 22/09/23 Птн 17:23:06 497083 112
>>493855
>Нейронке просто разрешения не хватает
А ты прав. Спасибо.
Достаточно было высоту картинки увеличить на ~60%
Аноним 23/09/23 Суб 08:22:35 497751 113
Обновляю сейчас пеку и стоит выбор между 3060 12 GB и 3070. Смотрел всякие тесты и по ним 3070 очевидно лучше, но все говорят про нехватку VRAM. Так вот, что лучше взять и для чего в основном нужно больше рамы?
Аноним 23/09/23 Суб 08:42:14 497758 114
>>497751
>для чего в основном нужно больше рамы?
От памяти зависит то, насколько большое полотно ты сможешь захайрезить или апскейльнуть.
Аноним 23/09/23 Суб 08:55:18 497762 115
>>497758
То есть, если мне важна детализация, то лучше будет 3060 взять?
Аноним 23/09/23 Суб 09:37:58 497777 116
>>497762
Да между ними разница минимальна, если 3060 возьмешь с 12гб памяти, ты разве что секунд на 20 дольше будешь свою простыню апскейлить. Плюс если ты юзаешь лорыхуёры, не прунед модель и хочешь ебенить с кастомными апскейлами, которые весят не мало, то их явно легче будет утрамбовать в 12гб. Если тебе для счастья достаточно сгенерить пикчу 512х512 и просто захайрезить её х2 без наворотов и и2и, то тебе можно брать и 3070 (сколько там памяти хоть?).
Аноним 23/09/23 Суб 10:07:10 497800 117
>>497777
8 там. Мало.
>>497762
Очень неудобно с 8, если честно. Постоянно бьешься в верхний лимит памяти. Так что если есть возможность - бери побольше.

Хотя я слушал, что НВидия вроде бы какой-то "оптимизон" на нейронки накатывала, который позволяет еще и оперативку подключать - но ценой значительного снижения скорости.
Хз, как оно точно работает, может аноны с треда подробнее объяснят.
Аноним 23/09/23 Суб 10:54:30 497823 118
>>497777
Понял, спасибо
>>497800
Когда про память читал, писали, что это деоптимизон какой-то, потому что при нехватке памяти начинает жрать оперативку и генерация может замедляться в десятки раз
Аноним 23/09/23 Суб 11:38:52 497852 119
>>497823
Вот и я то же самое читал.
Но генерация всё же идет. А без такой "деоптимизации" - вообще бы не шла. Всё-таки прогресс.
Аноним 23/09/23 Суб 15:41:48 498012 120
Насколько вообще заебись обучать стиль, не трогая текстовую часть модели? Минусы есть?
Аноним 23/09/23 Суб 16:36:08 498057 121
>>497751
Если смотреть чисто для работы на дифуззии, основанной на sd1.5 - 3070 будет лучше. Она быстрее а ограничения памяти можно победить через tiled vae. Но если взять sdxl, дополнительные костыли, или, не дай бог, ллм - там 12гигов сильно предпочтительнее и 3060@12 уже будет доминировать.
Так что смотри, если применение узкие и еще игрун или в ближайшем будущем будешь апгрейдить видюху - бери 3070, а так 3060 на 12 сильно лучше и дешевле.
>>497800
Оно уже есть, просадки дикие но зато возможно делать картинки даже на 1030.
Аноним 24/09/23 Вск 16:06:36 498868 122
image.png 1191Кб, 1920x1080
1920x1080
Согласны?
Аноним 24/09/23 Вск 16:12:29 498877 123
>>498868
Хуйня на пике. Мало того что у разный моделей разные слои за отрисовку объектов отвечают, так ещё и нигде нет такого чёткого разделения.
Аноним 24/09/23 Вск 17:38:52 498964 124
>>498868
узнали, согласны
Аноним 24/09/23 Вск 21:09:16 499160 125
n.jpg 166Кб, 1366x768
1366x768
Для тех, у кого трудности с локальной генерацией. Кастомный UI для генерации манямэ 512x512 через бесплатный веб сервис, чисто чтоб тестировать промпты. Работает достаточно шустро, цензура отсутствует, + возможность сохранения по правому клику. Регаться нигде не требуется.
https://pastebin.com/raw/NYExP1Ux

На сайте есть в наличии и реалистичные модели, но поленился добавлять.
Аноним 25/09/23 Пнд 11:51:10 499587 126
>>499160
Не нужно, когда на цивитаи уже давно прикрутили возможность генерить на моделях прямо там, без скачки. Пока только без хурезфикса.
Аноним 25/09/23 Пнд 13:15:45 499673 127
>>499587
>на цивитаи
Трут модели, лоры, комментарии, небо и Аллаха.
Аноним 25/09/23 Пнд 15:34:57 499829 128
>>499673
Всё, чем пользуюсь не терли. Видимо ты педофильское что-то использовал.
Аноним 25/09/23 Пнд 17:13:34 499998 129
>>499829
Из педофильского я только делиберейт использую.
Аноним 25/09/23 Пнд 19:43:46 500184 130
>>499998
Он кстати на основен Бстабера сделан, отсюда и педофилия. А бстабер тренировали на сырной пицце. Уровень работы мозга Хача имаджинировал? Надо мразулину на него натравить.
Аноним 25/09/23 Пнд 21:13:10 500296 131
>>478081 (OP)
Сгенерируйте, пожалуйста по промпту
wooden fireplace, stove, Scandinavian style, in perspective
Раньше генерил на гугл колабе, т. к. своей видюхи нет, а сейчас приходится просить у вас помощи
Помогите, пожалуйста, если можно, несколько вариантов
Аноним 25/09/23 Пнд 21:18:42 500302 132
>>500296
> технотред
> ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем
Реквесты в других тредах, братишка.
Аноним 25/09/23 Пнд 21:38:46 500329 133
>>500302
> Сгенерируйте, пожалуйста по промпту
> wooden fireplace, stove, Scandinavian style, in perspective
> Раньше генерил на гугл колабе, т. к. своей видюхи нет, а сейчас приходится просить у вас помощи
> Помогите, пожалуйста, если можно, несколько вариантов
Сорри, не туда запостил
Аноним 26/09/23 Втр 04:21:01 500652 134
>>499587
Ну попробуй погенерь там одетых лолек по тегу loli
Аноним 26/09/23 Втр 07:40:36 500704 135
>>500652
Твои педофилопроблемы никого не волнуют, съебался в страхе, изврат.никто в здравом уме не использует этот педофильский тэг для педофилов
Аноним 26/09/23 Втр 13:57:48 500900 136
>>500704
Я не он, но у меня есть сфв персонаж-лоли, для которой мне нужны спрайты с эмоциями и цг.
Это правда, что начиная с сд 2.0 теперь нельзя генерить детей?
Аноним 26/09/23 Втр 14:36:01 500923 137
>>500900
>теперь нельзя генерить детей
Конечно, лично товарищ майор приезжает и пиздит за каждое loli в позитивном промте.
Нормально всё работает даже на сдохле, только голых не делай, а то умрёшь от кринжа.
Аноним 27/09/23 Срд 00:12:01 501539 138
Короче нашел какой-то гуид на дваче, по всем шагам прошелся, но чет при запуске выходит ошибка по установке торча

RuntimeError: Couldn't install torch.
Command: "E:\StableDiffysion\stable-diffusion-webui\venv\Scripts\python.exe" -m pip install torch==2.0.1 torchvision==0.15.2 --extra-index-url https://download.pytorch.org/whl/cu118
Error code: 1

кто-то сталкивался? Как фиксить? Если я тупо руками его накачу - нихуя не заработает же, потому что не в виртуальной среед ставлю
Аноним 27/09/23 Срд 00:16:42 501546 139
зачем нужен ComfyUI? Аноним 28/09/23 Чтв 06:34:49 502591 140
image.png 295Кб, 1863x895
1863x895
нашел более подходящий тред для своего вопроса

зачем нужен ComfyUI? я работаю с нодовыми редакторами больше 10 лет, и ни разу не встречал настолько бессмысленного инструмента

вижу единственный плюс в том, что процесс более "продакшеновый". можно настраивать узкие сетапы, сохранять их и открывать впоследствии. в вебуи не завезли файлового воркфлоу. в комфи он хотя бы есть, правда всё равно неудобен

сама творческая работа с нейронкой в комфи занимает в 10 раз больше усилий и времени, чем в вебуи

в вебуи: отключил галку HRFix, чтобы быстрее найти интересный сид
в комфи: отсоединяешь четыре сопли, потратив секунд 5

в вебуи: тыкаешь в галку обратно. 1 клик
в комфи: присоединяешь все сопли на место. 4 драгндроп операции

всё делается через переплетение нод... но зачем?

авторы в курсе, что эти переплетения нод в нормальных редакторах схлопываются в подграфы и выставляют наружу интересующие их крутилки со внутренних нод, превращая всё в одну ноду? и да, при этом получатся подобие вебуи. и по сути является функцией

вебуи это аналог гигантского комфи нетворка с вынесенным наружу интерфейсом для удобства... только в комфи нет возможности выносить интерфейс, потому что авторы комфи не знают как работают нодовые редакторы? не знают, зачем нужны функции?
Аноним 28/09/23 Чтв 07:31:59 502603 141
>>502591
В нормальных нодовых редакторах можно еще "мутить" хоткеем выделенные ноды не нарушая само древо, сродни твоей этой галочки в веб уи. Может и тут есть, прочекай хоткеи
Аноним 28/09/23 Чтв 10:00:11 502647 142
>>502591
>в комфи: отсоединяешь четыре сопли, потратив секунд 5
Там разве нет какой-нибудь ноды-переключателя?
Аноним 28/09/23 Чтв 10:33:47 502660 143
>>502603
> Может и тут есть
Есть, конечно.
>>502647
> ноды-переключателя
Есть, конечно.
Аноним 28/09/23 Чтв 11:33:20 502694 144
>>502660
Ну так в чём проблема? Настраиваем и не тыкаем 4 сопли.
Аноним 28/09/23 Чтв 19:56:10 502989 145
Как тренировать сетку если у тебя нет видеокартовых мощностей
Аноним 28/09/23 Чтв 20:36:04 503010 146
Аноним 28/09/23 Чтв 22:42:34 503063 147
>>502989
Смотри. Покупаешь видеокарты, а потом делаешь по инструкции "Как трейнить нейросети, когда у тебя есть компутаторные мощностя".
Аноним 29/09/23 Птн 10:24:30 503260 148
лора.PNG 391Кб, 1592x1210
1592x1210
Народ, вкорячил лора лоадер в комфли юай, и оно начало срать ошибками
RuntimeError: mat1 and mat2 shapes cannot be multiplied (924x2048 and 1280x768)
как говорится, ЧЯДНТ?
Аноним 29/09/23 Птн 10:26:44 503261 149
>>503260
Отбой, сам дурак, забыл к рефайнеру присобачить
Аноним 29/09/23 Птн 14:18:47 503430 150
Аноны, когда использовать регуляризацию при обучении лоры, я так и не разобрался как это работает и поэтому так и не понял в каких случаях её юзать и какие пикчи для регуляризации юзать, а так же в каком количестве, кто то говорил что так можно отделить стилистику от персонажа, но можно более конкретное применение
Аноним 29/09/23 Птн 18:46:44 503540 151
>>502591
>в вебуи: отключил галку HRFix, чтобы быстрее найти интересный сид
>в комфи:Mode>Never
Лично для меня это единственный полноценный ГУИ который работает сразу из коробки. С каломатиком уже посидел пока искал оптимальные настройки 6 гб нищеёб и в документации и среди устаревших и среди советов которые не работают на текущей версии. Еще классная ебля с xformers которая тупо, блять, не устанавливается. В итоге А1111 не может даже 2 пикчи 512х512 в батче обработать, уходит OOM, в то время как комфи ебашит 8.
Аноним 29/09/23 Птн 18:54:33 503545 152
>>503540
>в то время как комфи ебашит 8.
Я так думаю, это с апдейтами дров НВидии связано, которые теперь научились оперативку подключать, если в видеопамять всё целиком не лезет.
Потому что 8 картинок 512х512 - это 2.1 мегапиксела. В автоматике без этого апдейта на восьми гигах до недавнего времени больше 1.3 не помещалось. Даже с иксформерсами.
Яхз, что там за чудо-оптимизация должна быть, если оно чисто через видеопамять на 6 гигах столько пропускать умудряется.
Аноним 29/09/23 Птн 20:37:32 503610 153
image.png 412Кб, 1920x912
1920x912
image.png 233Кб, 1915x884
1915x884
>>503545
Это еще в NORMAL_VRAM, в full precision потому что если переполнить память то он переходит в lowvram mode или как там. И нет общая память не используется, как видно во время генерации озу освобождается.
Аноним 30/09/23 Суб 04:16:02 503931 154
Мне это кажется, или Heun самый лучший сэмплер? (для манямэ 1.5 моделей, на XL не тестировал)
Конечно, он и самый неудобный: более рассыпанная композиция, медленно работает, с ним нужно минимум 50 шагов и выше риск запороть изображение - но в этом и состоит вся суть ИИ для генерации изображений. Это лутбокс, как в мобильных играх - крути ручку, вращай мельницу, тряси дерево. Одна крутая пикча лучше ста посредственных, поэтому разброс в качестве выигрышнее посредственной стабильности.

Еще хороши ancestral сэмплеры, когда делаешь хайрез с низким денойзом. Ancestral означает что он дорабатывает изображение вплоть до 150-го шага, поэтому детали будут годными даже с denoise 0.4 + 4x-ultrasharp.
Аноним 30/09/23 Суб 06:32:08 503947 155
>>503610
Ну т.е. такой лайвхак автоматический, что если видюха не тянет - то комфи в лоу-врам переходит?

Интересно, в автоматике это так же теперь не работает случайно?
Аноним 30/09/23 Суб 07:48:03 503952 156
>>503931
Чот сколько не тестил, с моими моделями не получается ничего лучше dpm++ 2m karras на 25 шагах.
> Ancestral означает что он дорабатывает изображение вплоть до 150-го шага
Это у которых "a" в названии? Интересно. Жалко каломатик не умеет раздельный сэмплер на хайресфикс ставить.
> даже с denoise 0.4
Чем больше генерю, тем сильнее скручиваю денойз.
Аноним 30/09/23 Суб 08:52:21 503966 157
изображение.png 58Кб, 917x408
917x408
>>503952
>Жалко каломатик не умеет раздельный сэмплер на хайресфикс ставить.
Умеет.
И даже промпт с негативом умеет.
И чекпоинт менять тоже, прикинь?
В настройках всё устанавливается.
Аноним 30/09/23 Суб 16:00:50 504125 158
image.png 41Кб, 979x356
979x356
Что за ControlNet Hooked - Time = 61.062315940856934
Раньше такого дерьма не было, чтоб целую минуту ждать приходилось, пока он тайл обработает.
Аноним 30/09/23 Суб 16:02:56 504127 159
>>504125
Пока писал, он принялся за третий и последующие тайлы и теперь обрабатывает их по пол секунды. Что за херня?
Аноним 30/09/23 Суб 17:27:56 504187 160
>>504125
Как видишь, обновляют и улучшают.
С какого калькулятора дифузишь?
Помогите с проблемой в установке, пж Аноним 30/09/23 Суб 21:00:54 504347 161
изображение2023[...].png 234Кб, 1440x900
1440x900
Пару месяцев назад пользовался прогой, потом удалил, а сейчас решил скачать обратно. Выдает ошибку, а в чем проблема не понимаю, в программировании не шарю от слова совсем. Как пофиксить и в чем проблема?
Аноним 30/09/23 Суб 23:16:34 504467 162
Аноним 01/10/23 Вск 06:22:28 504610 163
>>504187
RTX 2060. И да, раньше быстрее было. Что они там улучшили, что дольше стало?
Аноним 01/10/23 Вск 12:21:16 504736 164
>>504347
Лень разбирать эту простыню, но очевидно же что тебя провайдер ебет. Включай/отключай впны, днс проверяй.
Аноним 02/10/23 Пнд 09:45:51 505763 165
>>478081 (OP)
Моё имхо, лоры - костыльная хуйня (как и всё остальное в SD):
1. Полноценная модель должна знать всё из коробки и уметь в любые стили.
2. Если некий концепт все же слишком нишевый - ИИ должен подхватить его с одного-двух рефов, без какого-либо трейнинга.
Аноним 02/10/23 Пнд 10:03:52 505781 166
>>505763
>Полноценная модель должна знать всё из коробки
Увы, анусов твоей матери слишком мало в интернете, чтобы модель о нём знала.
Аноним 03/10/23 Втр 16:27:04 507227 167
Аноним 03/10/23 Втр 17:14:58 507265 168
>>507227
Посаны мне всегда говорили, что коха лох и мёрджить надо супермёржером прям из каломатика.
Аноним 03/10/23 Втр 17:18:47 507268 169
>>507227
> укажите в чем не прав
Буквально во всём.
> Суть любой тренировки лоры заключается в попадании в свитспот сразу двух составных частей Stable diffusion модели, Unet и TE.
Невероятная шиза. На SDXL вообще не тренируют текстовый энкодер. На полторашке только в особо тяжёлых случаях, когда нейросеть вообще не знает таких слов. 2/3 поломок лор как раз из-за шизов, тренирующих текстовый энкодер на lr почти как у unet.
Соответственно вся последующая шиза про поломки и подбор эпох на глаз - высер.
> network_dim=network_alpha=64-128
Опять же совет как сделать хуже. При том что рекомендуемая альфа как у кохи, так и у ликориса - 1.0 или меньше. Альфа размером с ранг - ещё одна причина поломок.
> constant (default)
Отвал пизды просто.
> Если есть RTX3000 и выше, оба значения нужно ставить в BF16. FP16 подойдёт для владельцев других карт, но этот формат имеет слишком мало бит на экспоненту и из-за этого в итоговой лоре может получиться очень много нулевых тензоров.
Как будто бред сумасшедшего читаю.
> --noise_offset
> Ужасная заплатка
А альфу ебашить под 64-128 - это конечно же другое, да.
> Normal train
> loss не уменьшается
С такими высерными конфигами другого и не ожидал.

Да и вообще через строчку ересь какая-то. Ты бы хоть это перевёл, а не высерал шизу - https://rentry.org/59xed3
Аноним 03/10/23 Втр 17:48:12 507292 170
>>507268
> На SDXL вообще не тренируют текстовый энкодер.
Как же тогда привязать чара к тегу? Ладно ещё стиль, но для перса.
> 2/3 поломок лор как раз из-за шизов, тренирующих текстовый энкодер на lr почти как у unet.
Ну а какое значение ты считаешь нормальным? Сколько не тренил, 1/3 от юнета иногда даже недожаривается, не то что перетрен.
> При том что рекомендуемая альфа как у кохи, так и у ликориса - 1.0 или меньше.
Ещё скажи что ты готов по рекомендациям кохи тренить, у него там как раз был пиздец типо 4е-7 адафактор без те для хл файнтюнов, результатом был вдхл.
> Отвал пизды просто.
А вот это с прошлого гайда скопировал не заметив, надо поправить.
> Как будто бред сумасшедшего читаю.
А ты сам натренеть сначала с одним, потом с другим и сравни, или тебе именно формулировка не понравилась?
> А альфу ебашить под 64-128 - это конечно же другое, да.
Согласен, что для перса этого многовато, но стиль на низкой альфе нихуя не улавливает.
> С такими высерными конфигами другого и не ожидал.
Скинь свой конфиг, я не против узнать как можно лучше.
> https://rentry.org/59xed3
Да, это охуенный гайд, я его читал, но там автор больше фокусится на трене чаров.

>>507265
Последняя версия супермерджера какая то багнутая кстати, может смерджить поломанную модель.
Аноним 03/10/23 Втр 18:35:27 507345 171
1652862097054.png 118Кб, 1245x522
1245x522
1597891922236.png 110Кб, 1251x467
1251x467
>>507292
> к тегу
Чел, в SD frozen clip, т.е. его вообще не тренируют изначально. Если банально по имени персонажа модель рисует любую тянку - значит тестовый энкодер уже понимает о чём идёт речь, надо только научить как рисовать это.
> Ну а какое значение ты считаешь нормальным?
Я тебе уже написал - на SDXL его вообще нельзя тренировать, на полторашке самый минимум или вообще выключить, если как я выше написал работает.
> по рекомендациям кохи
А ты предлагаешь по рекомендациям васянов, даже не понимающих что делают эти параметры? Отсутствие скейла весов - это альфа 1.0. Всё что выше - это костыли ничем не лучше кучи других костылей. Бездумно втыкать костыли куда не надо - это вообще за гранью.
> результатом был вдхл
Результат был закономерный для тренировки ванильной полторашки на рандомном кале с бур, точно такой же результат получали с любым другим способом обучения, потому что проблема в датасете. На SDXL аналогичные результаты получали с датасетом такого же уровня.
> А ты сам натренеть сначала с одним, потом с другим и сравни
От альфы у тебя веса пидорасит, а ты потом удивляешься почему же модель ломается. fp16 всегда лучше по скорости и памяти, а поломок модели вообще никогда не бывает если тренируешь нормально. Особенно учитывая что NaN это в первую очередь про кривые градиенты от идущего вверх loss, поломка весов уже следствие.
> стиль на низкой альфе нихуя не улавливает
И самое лучше что ты придумал - просто скейлить веса до поломки модели? При том что у тебя всякое говно для демпфирования обучения стоит, типа больших батчей/лимита гаммы SNR/weight decay. С loss как пила естественно нихуя не тренируется нормально, тебе только и остаётся скейлить веса и потом на этих волнах высматривать где же изображение поломано меньше. Когда у тебя средний loss идёт вниз без пилы, то и результат стабильный без поломок модели и распидорашивания картинки. Пикрилейтед как loss должен выглядеть, на больших однотипных датасетах вообще как на втором пике.
Аноним 03/10/23 Втр 18:43:07 507358 172
>>507345
> Пикрилейтед как loss должен выглядеть, на больших однотипных датасетах вообще как на втором пике
С какими параметрами и что именно тренилось?
Аноним 03/10/23 Втр 18:45:00 507359 173
169634739477757[...].jpg 557Кб, 5000x2480
5000x2480
Можете пожалуйста мой рисунок улучшить, чтобы реалистично было?

Слизни на фоне Фудзи
Аноним 03/10/23 Втр 18:46:27 507360 174
>>507359
Он неплох уже как есть, за этим в nai/sd тред с развернутым описанием реквеста.
Аноним 03/10/23 Втр 18:47:15 507361 175
Аноним 03/10/23 Втр 18:49:58 507367 176
>>507345
Брах, чего ругаешься, посоветуй лучше стартовые параметры, чтобы стиль на 1.5 натренить. Я думал с продиджи начать, но не уверен...
мимо
Аноним 03/10/23 Втр 19:50:44 507423 177
1554071943171.png 82Кб, 1669x545
1669x545
1602309607588.png 19Кб, 671x439
671x439
>>507345
> Чел, в SD frozen clip, т.е. его вообще не тренируют изначально. Если банально по имени персонажа модель рисует любую тянку - значит тестовый энкодер уже понимает о чём идёт речь, надо только научить как рисовать это.
Не помогая тегами, просто вжарив юнет? В чём смысл так делать?
> на SDXL его вообще нельзя тренировать
Чтобы не иметь возможности промптить персонажа? Как просто ты собираешься рисовать чаров на хл, если она их изначально не знает? А разделять как собираешься, исключительно юнетами от лор? Ладно там ещё 1.5 с её наи, в которой есть знания как приблизительно чаров многих рисовать, такую и тренить долго обычно не надо, там и 1/10 хватит для те.
> А ты предлагаешь по рекомендациям васянов, даже не понимающих что делают эти параметры?
Я предлагаю то, что не один раз срабатывало.
> Отсутствие скейла весов - это альфа 1.0.
В гайде, на который ты же ссылаешься:
> This is used to scale weights (the model's actual data) when saving them by multiplying them by (alpha/net dim) and was introduced as a way to prevent rounding errors from zeroing some of the weights.
> Alpha 0 = Alpha 128 = 128/128 = x1
Альфа 1 = отсутствие скейла весов, будет верным, только если дим тоже будет 1.
> От альфы у тебя веса пидорасит, а ты потом удивляешься почему же модель ломается.
Ты про нулевые значения? Ну так они литералли из-за выбранной точности становятся такими.
> fp16 всегда лучше по скорости и памяти, а поломок модели вообще никогда не бывает если тренируешь нормально. Особенно учитывая что NaN это в первую очередь про кривые градиенты от идущего вверх loss, поломка весов уже следствие.
Вот натренил, как ты предлагаешь с 1 альфой и фп16. Не особо то график меняется, NaN'ы в отличии от бф16 присутствуют, 103 штуки. В каком месте это быстрее тоже не понятно, такая же скорость как и всегда.
> И самое лучше что ты придумал - просто скейлить веса до поломки модели? При том что у тебя всякое говно для демпфирования обучения стоит, типа больших батчей/лимита гаммы SNR/weight decay.
Я их наоборот не скейлю, а дампенеры как раз стоят чтобы эта хуйня не сжарилась вусмерть.
> С loss как пила естественно нихуя не тренируется нормально, тебе только и остаётся скейлить веса и потом на этих волнах высматривать где же изображение поломано меньше. Когда у тебя средний loss идёт вниз без пилы, то и результат стабильный без поломок модели и распидорашивания картинки. Пикрилейтед как loss должен выглядеть, на больших однотипных датасетах вообще как на втором пике.
Ты лучше расскажи, что ты делаешь, чтобы лосс стал не бесполезной метрикой.
Аноним 03/10/23 Втр 20:26:12 507458 178
>>507423
> В чём смысл так делать?
Чел, я тебе в очередной раз напишу - в SD текстовый энкодер не тренируется, он оригинальный от LAION. Это как раз нет смысла тренировать его. Это текстовая модель, она ничего не рисует, ей не надо знать ничего про то как выглядит твой персонаж. В лорах есть тренировка только как костыль из-за хуёвого CLIP, когда например логические цепочки в промпте, на SDXL уже жирный CLIP и от его тренировки только хуже становится. Даже у кохи об этом написано, чтоб дурачки не пытались его тренировать.
> Альфа 1 = отсутствие скейла весов, будет верным, только если дим тоже будет 1.
Ты только половину понял. У тебя веса сначала умножаются на альфу, тренируются, а потом делятся перед сохранением. При альфе 128 у тебя веса в 128 раз больше, костыль чтоб не округлялись до нуля. Но у тебя из-за этого и колебания значений весов выше.
> лосс стал не бесполезной метрикой
Loss не метрика, по нему градиенты для весов считаются. Если у тебя он идёт вверх - значит тренировка идёт в обратную сторону от референса. Нет забора - нет пережарок и поломанных лор, так же как и NaN никогда не будет, не будет проблем с подрубанием кучи лор, можно будет вес лоры хоть до 2 поднимать и генерация не будет в кашу/шум превращаться.
В душе не ебу что ты там нахуевертил что он у тебя не падает. Если у тебя датасет протеган как попало или текстовый энкодер ломает кривыми тегами, то это запросто может быть причиной пилы вне зависимости от настроек.
Аноним 03/10/23 Втр 20:35:33 507466 179
>>507458
Покажи пример как надо делать чтобы было пиздато, чтобы запоминались вайфу, чтобы ухватывался стиль и получался красивый, убывающий на порядки лосс как из учебника. Не общие рассуждения как вы с кохой против дедов тренировали а конкретику. Будем тебе очень благодарны.
Аноним 03/10/23 Втр 21:02:06 507511 180
>>507458
> на SDXL уже жирный CLIP и от его тренировки только хуже становится. Даже у кохи об этом написано, чтоб дурачки не пытались его тренировать.
Да я видел. Я только понять не могу как тогда модель должна будет догадаться что чар А это чар А, а чар Б это чар Б, как их потом промптить?
> У тебя веса сначала умножаются на альфу, тренируются, а потом делятся перед сохранением. При альфе 128 у тебя веса в 128 раз больше, костыль чтоб не округлялись до нуля.
Ну ок, но в том же гайде про такое не упоминается, а вот про rounding errors есть, которые бывают только на фп16.
> Но у тебя из-за этого и колебания значений весов выше.
Но я же поставил без колебаний, ты ведь видел конфиги, я менял лишь то, про что ты писал, то бишь альфу и точность, но это не помогло, судя по графикам.
> Loss не метрика, по нему градиенты для весов считаются. Если у тебя он идёт вверх - значит тренировка идёт в обратную сторону от референса. Нет забора - нет пережарок и поломанных лор, так же как и NaN никогда не будет, не будет проблем с подрубанием кучи лор, можно будет вес лоры хоть до 2 поднимать и генерация не будет в кашу/шум превращаться.
> В душе не ебу что ты там нахуевертил что он у тебя не падает. Если у тебя датасет протеган как попало или текстовый энкодер ломает кривыми тегами, то это запросто может быть причиной пилы вне зависимости от настроек.
Ну если я нахуевертил, скидывай хороший, по твоему мнению, конфиг. Потреню без ТЕ вообще, если он так мешает.
Аноним 04/10/23 Срд 08:41:00 507805 181
>>507345
> Чел
Маркер долбоеба, дальше не читал
Аноним 04/10/23 Срд 10:39:51 507826 182
>>507805
>>
Маркер долбоёба: >, дальше не читал.
Аноним 04/10/23 Срд 12:24:26 507887 183
Какую модель стоит использовать для тренировки лоры на реального человека?
Аноним 04/10/23 Срд 12:58:34 507894 184
Аноним 05/10/23 Чтв 01:01:40 508659 185
Аноним 05/10/23 Чтв 12:19:27 508922 186
Аноним 05/10/23 Чтв 17:31:47 509256 187
image 181Кб, 1911x1469
1911x1469
>>478081 (OP)
Памахите, можно как-нибудь заюзать апскейлеры из вкладки Extra и с ними Codeformer из командной строки? Из UI не подходит, нужно апскейлить очень много разных файлов батчем, потом удалять, для этого даже вкладка Batch from directory не подходит. Апскейлером пользуюсь Remacri с upscale.wiki. По идее же их должно быть можно как-то запускать с командной строки, если они там в вики без SD лежат. Настройки юзаю как на пикрелейдед. В документации по автоматику не пишут, как их с командной строки можно запустить.
Аноним 07/10/23 Суб 02:43:10 510608 188
kjs.jpg 140Кб, 624x524
624x524
Аноним 07/10/23 Суб 09:10:05 510701 189
Аноним 07/10/23 Суб 11:08:25 510731 190
Чот ебался с этой парашей, ебался, а она так и не запустилась, ошибка сыпет при попытке мёрджа. Что этот реп, что бета. Кто-нибудь пользуется, как оно вообще, когда работает? Может альтернативные какие-нибудь похожие штуки есть?
https://github.com/Xerxemi/sdweb-auto-MBW
Аноним 07/10/23 Суб 11:39:24 510743 191
image.png 60Кб, 1030x632
1030x632
Поясните за AnimateDiff почему оно нормально генерит при разрешении 512х512, но если взять выше, те же 768х768, то видюха отказывается разгоняться и ползет на 1% мощностей.
Аноним 07/10/23 Суб 11:40:51 510744 192
>>507268
>Да и вообще через строчку ересь какая-то. Ты бы хоть это перевёл, а не высерал шизу - https://rentry.org/59xed3
Чет попробовал настройки автора с автоматическим ЛР на Prodigy - и какая-то фигня вместо стиля натренилась. Похожесть была, но очень отдаленно. Почти 2000 шагов - мало, чтоль?
Аноним 07/10/23 Суб 11:46:27 510748 193
>>510743
Ты сам не видишь что ли что на твоём скрине?
Аноним 07/10/23 Суб 12:16:18 510767 194
>>510748
Ладно, я тупой, сравнил ГПУ на арте и щас, когда генерирую 512х512. Разницы нет, но я не понимаю, почему при попытке генерить 768х768, видеокарта начинает работать медленно, бесшумно и генерация замедляется в 100 раз.
Аноним 07/10/23 Суб 12:30:20 510777 195
1609372502335.png 53Кб, 617x900
617x900
Аноним 07/10/23 Суб 15:00:42 510924 196
>>510767
Видеопамять у тебя забивается, ну.
Не хватает объема, переходит в режим low-vram, отчего и замедление.
Аноним 07/10/23 Суб 17:28:21 511022 197
546476758468.JPG 59Кб, 1000x522
1000x522
Анончики, помогите расшифровать что чат-жопа с японского перевела: https://rentry.org/bp87n
В общих чертах как он это делает? Так что ли:
1) Тренерует Лору на скриншотах дефолтного болванчика из Хани Селект.
2) Болванчик-Лору он как-то мержит вместе с требуемой моделью, модель у него под аниме стиль.
3) Тренирует Лору своего персонажа.
Аноним 07/10/23 Суб 18:01:18 511049 198
Аноним 07/10/23 Суб 18:52:49 511092 199
>>510924
Понял-принял, благодарю.
Аноним 07/10/23 Суб 19:19:13 511113 200
>>511022
Можно и без хани-селекта обойтись было.
Перс же примитивный, промптом задается.
А если он промптом задается - тупо генеришь штук 300 картинок, из них отбираешь сколько тебе надо, где чар на себя похож, апскейлишь, инпэнтишь лицо (если надо), и на этих картинках сразу и тренируешь.
Аноним 07/10/23 Суб 19:57:21 511157 201
>>511049
>можно ещё отдельные части выбирать
Отдельные части тела? Типа он только на лицо обучал, а можно было тело полностью?

Алсо, кто-нибудь вообще пробовал мержить Лору с моделью? Какие скрипты для этого нужно использовать?

>>511113
>Перс же примитивный, промптом задается.
В целом да, но промптом ты не сможешь тонкие нюансы прописать. Типа размеры, формы и разреза глаз, расположения прядей волос и т.д.
Хотя сейчас вроде бы можно такую мелочь с помощью Ip-adapter модели пофиксить.

>А если он промптом задается - тупо генеришь штук 300 картинок, из них отбираешь сколько тебе надо, где чар на себя похож, апскейлишь, инпэнтишь лицо (если надо), и на этих картинках сразу и тренируешь.
Это дохуя работы. Для тренировки сколько картинок надо? штук 10 минимум. Их из этой кучи достать нужно, а потом еще выдрачивать каждую до идеала.
А тут он просто скриншотов наделал за несколько минут и все, можно обучать.
Аноним 07/10/23 Суб 20:48:34 511187 202
>>511157
> Отдельные части тела?
Отдельные части сд модели
> Алсо, кто-нибудь вообще пробовал мержить Лору с моделью?
С сд-скриптс прямо скрипты лежат для мерджа. Можешь вот этот гуй ещё юзать, он и локоны умеет примердживать https://github.com/bmaltais/kohya_ss
Аноним 08/10/23 Вск 10:28:27 511540 203
>>511157
>ты не сможешь тонкие нюансы прописать.
Вот для этого и надо генерить много пикчей. Выбираешь то, что попало в образ - и норм.

>выдрачивать каждую до идеала.
Зачем? Вообще не надо. Главное, чтоб образ был ухвачен, и особых/повторяющихся косяков не было.

>А тут он просто скриншотов наделал за несколько минут и все, можно обучать.
Он сначала поставил хани-селект, сделал дизайн персонажа, наделал с ним скриншотов, обучил на них лору, смерджил с моделью, нагенерил картинок с персом на таком мердже, и уже на них тренировал финал.
Это далеко не несколько минут =)

По факту весь первый этап с хани-селектом и лорой на нем - это чтоб модель более стабильно тебе сравнительно похожего персонажа выдавала. И то там с попаданием в образ не очень получилось.

Почему и говорю - там, где можно чисто промптом справиться - такой изврат не нужен.
Аноним 08/10/23 Вск 11:19:29 511585 204
Ещё вопросец по AnimateDiff.
Если я использую больше 75 токенов в позитивном промпте, то это приводит к тому, что AnimateDiff не способен сохранять ту же композицию, больше чем на 16 кадров. Кто-нибудь нашел решение?
Аноним 08/10/23 Вск 11:21:03 511587 205
>>511540
> Он сначала поставил хани-селект, сделал дизайн персонажа, наделал с ним скриншотов, обучил на них лору, смерджил с моделью, нагенерил картинок с персом на таком мердже, и уже на них тренировал финал.
Ты последовательность перепутал. Здесь смысл что он от стиля избавлялся, он сделал рандомного персонажа и натренил с ним, чтобы стиль впитать и примерджить к модели и уже с этого тренил, того которого хотел, чтобы стиль 3дшный не подхватывало.
Аноним 08/10/23 Вск 11:35:39 511597 206
Есть какие-то подвижки по дистилляции XL моделей? Чекпойнты по 12 с копейками гигов это чет как-то дохуя.
Аноним 08/10/23 Вск 11:54:53 511605 207
Как в теории допилить SD до уровня Dall-e 3?

Кодировщик текста чрезвычайно велик (вероятно, он мог бы даже использовать в качестве входных данных встраивания размера GPT3.5). Для т екстового кодировщика SD 1.5 используется 123M параметров, GPT3 — 150B параметров.

Нет ничего, что Stability AI не смогут сделать, просто такие вещи не будут работать на потребительском оборудовании, за исключением, возможно, загрузки/выгрузки кодировщика текста при каждом изменении промпта и кэширования после промпта. Даже в этом случае использование огромного встраивания может увеличить размер Unet без улучшения качества изображения.

С точки зрения качества изображения и того, как проработаны руки или согласованность изображения (освещение, тени), Unet (или что-то еще, что используется для обработки изображений) вовсе не является революционным по сравнению с SDXL или MJ.
Аноним 08/10/23 Вск 11:56:33 511607 208
>>511605
В Дейли три походу насколько баз на ТЕРРАБАЙТ
Аноним 08/10/23 Вск 11:58:48 511608 209
Палю лайфхак. Генерируешь изображения нужного персонажа с Dall-E 3, трейнишь на них лору для SD
Аноним 08/10/23 Вск 13:33:14 511665 210
>>511187
Спасибо, анон, если гуи есть то разобраться смогу скорее всего.

>>511540
>Зачем? Вообще не надо. Главное, чтоб образ был ухвачен, и особых/повторяющихся косяков не было.
Вангую что эти косяки тебе потом аукнутся когда будешь Лорой пользоваться. Не думаю что прямо говно будет, но качество будет хуже чем у обычных Лор которых тренировали на картинках от рисовак.
К тому же, мне вот хочется персонажа в одежде, а не просто лицо. При твоем способе даже на 300 картинках одежда будет пиздец какая разная. А в 3д хоть одежда и хуже по качеству, но она везде одинаковая.

>>511605
>Для т екстового кодировщика SD 1.5 используется 123M параметров
У кодировщика SDXL в сумме уже около 800M параметров. Мало, но все же какие-то подвижки вперед есть.

>>511608
Ничего не получится. Как ты сгенеришь несколько картинок одного персонажа?
Хотя я для SD видел один способ в котором чувак при помощь ControlNet openpose и эмбеддинга генерировал одну картинку типа Character Sheet с персонажем в разных позах и ракурсах. Потом апскейлил картинку, резал ее на части и ебался с каждой частью отдельно.
Или ты думаешь что с помощью очень подробного промпта можно в Dall-e получить постоянного персонажа?
Аноним 08/10/23 Вск 16:03:12 511817 211
>>511587
Ничего я не перепутал.
Если генерить просто с лорой, тренированной на 3дшном персе - ИИ будет генерить тебе 3дшного перса.
А вот если с моделью замерджить - перс (ну, какая-то часть) останется, зато 3дшный стиль должен забиться почти полностью. И на втором шаге, когда уже на таком аутпуте тренируют - он уходит вообще.
Надо будет, кстати, самому попробовать. Посмотреть, что получится. Есть у меня лора, на 3дшных рендерах разных персов тренированная. Если ее просто подключать - она этот 3д стиль и выдает в точности.
Основная тренировка лоры на 3д-персонаже у него была для того, чтоб после мерджа модель этого перса более стабильно выдавала.

>которых тренировали на картинках от рисовак.
Ты картинки рисовак то давно видал? =)
Лишних руг-ног нет, лицо не поехало, глаза не вкось? Всё, в тренировку сгодится.

>При твоем способе даже на 300 картинках одежда будет пиздец какая разная. А в 3д хоть одежда и хуже по качеству, но она везде одинаковая.
Так это ж наоборот хорошо! Нейронка лучше концепт перса от одежды отделить сможет, особенно если одежду протэгать как следует. Если у тебя будет 300 картинок перса в одинаковой одежде, как ты ее не тэгай, а она намертво с персонажем будет ассоциироваться. Ты просто не сможешь его ни во что другое без сурового гемора потом переодеть.
Не, если тебе как раз такое и надо - то окей. Но вообще для гибкости нужен разнообразный датасет.
Опять же, генерить можно с вилдкардами на 3-5 сетов одежды. закрытый Купальник, бикини, какой-нибудь кэжул, униформа, всё такое. Это вообще в идеале, чтоб потом с тэгами для второго этапа не париться.
Аноним 08/10/23 Вск 16:11:25 511831 212
bd65b7c2-fbef-4[...].jpeg 276Кб, 1024x1024
1024x1024
>>511608
Далл-Е 3 далеко не всех персов знает, и не всегда в образ попадает.
Даже Рей или Аску точно сгенерить - и то проблема, через раз промахивается. Хотя казалось бы, артов с ними в интернете ну просто максимально много.

>>511608
Зачем?..

>>511665
>Как ты сгенеришь несколько картинок одного персонажа?
Пикрил. Видел на одном дискорд серваке, картинка не моя.
Качество говно, конечно.
Before|After в промпте или что-то типа того, очень хорошо работает. Прям зацени, насколько точно совпадение по лицу получается.
(выше твой пост не протэгал в ответе, эх).
Аноним 08/10/23 Вск 16:42:40 511873 213
>>511605
Далли3 - мультимодалка, в этом и секрет.
Действительно текстовая часть там больше, а сама тренировка была с фокусами на концепты, причем четко и правильно обозначенные.
> Для т екстового кодировщика SD 1.5 используется 123M параметров, GPT3 — 150B параметров.
Врядли там даже 1 миллиард параметров есть, столько не нужно. Но вот отдельная llm там очень даже участвует, через нее проходят все юзер промты и она уже их переводит/достраивает/модифицирует для приведения к формату, который понятен, заодно выдает подходящие параметры генерации. Потому и результаты могут разительно отличаться на вроде похожих промтах, или случаются казусы.
Далее, если понаблюдать за генерацией и поведением - за текст и логотипы отвечает отдельная сеть. Оно получается криво-всрато как или даже хуже чем в сд, если запрос пошел не туда, или классно-четко если она задействуется. То же самое может быть в другими запросами тех же концептов или стилей, о чем свидетельствует рандомайзер реакции при смене последовательности в промте. Как именно оно сделано, заранее формируется маска с отдельными частями промта, используются заранее заготовленные разные модели, проходит несколько этапов обработки, используются техники как в контролнете - возможно все сразу, врядли подробно расскажут.
> Нет ничего, что Stability AI не смогут сделать, просто такие вещи не будут работать на потребительском оборудовании
Ерунда, с точки зрения качество самих пикч и т.д. оно вообще не далеко от 1.5 ушло, а то и проигрывает в чем-то конкретном. Считай требования как для XL, но сверху еще 2-4-6 гигов памяти на дополнительную сеть, что делает препроцессинг и асист. Только сразу полезут проблемы с управляемостью и рандомом, потому эту часть целесообразнее запускать заранее, а потом контролировать/править то что она выставила. В этом случае требования мало изменятся.
SDXL то вообще тоже не простая сеть, но в ней фокус сделали на "качество пикч", используя пост-обработку рефайнером.

Хочешь реализовать - двигайся в этом направлении, для начала научив llm по запросу составлять тебе идеально отформатированный промт(ы) и пачку json с параметрами, картами и прочим.
Аноним 08/10/23 Вск 17:24:30 511944 214
Внимание платиновый вопрос.
С чем-нибудь из всех этих ликорисов стоит вообще ебаться для стиля? Или лучше обычной лоры так ничего и не придумали?
Аноним 08/10/23 Вск 17:25:34 511948 215
>>507227
Поменял в шаблоне гайд по лорам от 1060 на твой.

Спасибо за твой труд.
Аноним 08/10/23 Вск 17:37:50 511960 216
>>511944
Нет. Это говно придумали для шизов, дрочащих на размер файла. На деле всё это говно имеет очень плохую переносимость между моделями. Обычные лоры уже давно умеют обучать те же слои, что и ликорис.
Аноним 08/10/23 Вск 18:20:16 512002 217
>>511960
> дрочащих на размер файла
> плохую переносимость между моделями
> Обычные лоры уже давно умеют обучать те же слои, что и ликорис
Слои обучать не надо и даже плохо, но обычные слои их могут обучать. Что хотел сказать то?
Аноним 08/10/23 Вск 18:20:53 512003 218
>>512002
> обычные слои
обычные лоры офк, фикс
Аноним 08/10/23 Вск 18:56:32 512047 219
>>510731
Пиздец, там 30 слайдеров крутить в разных комбинациях, ебясь с моделью долгими зимними вечерами. Это какой-то садюга аутист изобретал.
Аноним 08/10/23 Вск 19:09:57 512084 220
>>512047
Не, слайдеры как раз не надо трогать, но настроек всё равно больно дохуя для "сделать пиздато" модуля. Но у меня один хуй не работает.
Аноним 08/10/23 Вск 19:40:44 512149 221
zX6YOQiNk8.jpg 76Кб, 604x340
604x340
Почаны, а гугл теперь блочит колабы с SD?
Долго не дифузировал. Сейчас снова хотел вкатиться, но на колабе, где я сидел, висит сообщение, что гугл лавочку закрыл. Но в калабе от того же Христа такого нет.
Так Гугл сворачивает SD'шников или нет?
Аноним 08/10/23 Вск 20:15:38 512202 222
>>512149
С возвращением. Давно уже. И аккаунт могут забанить, ибо нехуй. Покупай своё железо.
Мне одному было очевидно, что лавочку прикроют?
Аноним 08/10/23 Вск 22:17:14 512377 223
>>512202
Ок, бро, я-то комп обновлю так и так. А почему вы в шапке не пропишите такую важную инфу? Мало того, что нет предупреждения об удалении аккаунта, так еще и висят ссылки на гугл-колабы.
Аноним 08/10/23 Вск 22:27:18 512386 224
>>511817
>Если у тебя будет 300 картинок перса в одинаковой одежде, как ты ее не тэгай, а она намертво с персонажем будет ассоциироваться. Ты просто не сможешь его ни во что другое без сурового гемора потом переодеть.
По мне, так это хорошо. Это же самая большая проблема нейронок - невозможность рисовать персонажа в одной одежде на разных генерациях.
Если нужно переодеть, то я бы лучше еще одну Лору обучил. Постоянная одежда в разных кадрах - это бесценно.

>>511831
>Пикрил. Видел на одном дискорд серваке, картинка не моя.
Увы, фигня полная, для тренировки Лоры этого и близко не хватит. Хотя да, совпадение по лицу есть очень точное. В общем, если использовать метод анона выше который про генерацию 300 картинок в СД говорил, то думаю что толку больше будет.
Аноним 08/10/23 Вск 22:37:20 512396 225
Пиздец, аноны, SDXL в автоматике1111 оказывается не умеет нормально в img2img.
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/12187
Точнее умеет, но нужно запускать модель с --no-half что поднимает требования по видеопамяти в небеса. У меня под завязку жрет 16 гигов видеопамяти на 1024 х 1024 картинку без ничего.
Если у вас нет 24 гигов то можете даже не вкатываться в сдхл, разочаруетесь.
Аноним 08/10/23 Вск 22:51:40 512421 226
>>512396
Чел, проблемам с VAE уже год, SDXL тут не при чём. Всё нормально работает в fp16, если у тебя нормальная карта.
Аноним 08/10/23 Вск 23:02:04 512440 227
>>512421
Что значит нормальная? У меня Quadro P5000, 16 гигов видеопамяти.
Ты хотел сказать достаточно новая видюха?
Ну хорошо, 24 гига не нужно, нужно просто быть мажором и купить новую видюху за тыщу баксов.
Аноним 09/10/23 Пнд 04:45:22 512840 228
>>512440
Чел, твоей картонке чуть ли не десятилетие, там архитектура уже всё.
Купи 3060 12ГБ, она быстрее будет, лол.
Аноним 09/10/23 Пнд 13:02:32 513015 229
>>512386
>По мне, так это хорошо.
Нет, не хорошо. Ибо в идеале надо совмещать.
300 картинок с персом, 100 в его фирменном костюме, 100 в разных простых костюмах, 100 чисто голым. И будет красота вообще - и костюм натренится, и переодевать можно будет запросто.
Куча лор так натренирована.

>Увы, фигня полная, для тренировки Лоры этого и близко не хватит.
Да понятно, это была просто демонстрация того, как эта нейронка концепты понимает. Сколько лор на подобное в СД не видел - всегда лажа выходит, никакого постоянства ключевых моментов между картинками. А тут прям из коробки.
Аноним 09/10/23 Пнд 13:50:09 513067 230
>>512396
>on Jul 31
Обновиться пробовал?
>в автоматике1111
Комфи пробовал?
Аноним 09/10/23 Пнд 13:57:06 513076 231
00082-1982162271.png 998Кб, 1024x1024
1024x1024
>>512840
Это не совсем моя карта, я ее в аренду у Paperspace на пару часов взял. Алсо, сегодня по твоему совету взял нормальную: A4000.
Пиздос, ровна такая же проблема.
Но на ней уже с --medvram --no-half по крайней мере работать img2img может. Правда у этой виртуальной машины 45 гигов оперативки, поэтому все помещается.

Короче, нужно очень хорошее железо. А вот в text2img почти на любом старье можно генерить (если есть хотя бы 8 гигов видеопамяти).

>>513015
>Сколько лор на подобное в СД не видел - всегда лажа выходит
Лоры не пробовал, но вот ембеддинг и просто промпт сharacter sheet, multiple views of the same character СД вполне понимает. Без помощи контролнета правда сложно будет. Вот он очень неплохо Лору обучал на основе чарактер щита: https://youtu.be/iAhqMzgiHVw?si=aRD4g-K7TPZOQHhp
Пикрелейтед я сам генерил, правда это для 3д модели было.
Аноним 09/10/23 Пнд 15:52:17 513195 232
>>513067
>Обновиться пробовал?
Я через Gradient блокнот запускаю, хз как его обновить, думаю что там и так последняя версия автоматика.

>Комфи пробовал?
Нет, но думаю попробовать. Вроде там более щадящие требования к железу.
Аноним 09/10/23 Пнд 18:52:30 513420 233
>>513076
>Но на ней уже с --medvram --no-half по крайней мере работать img2img может.
Ещё бы. Я на 12 гигах работаю, и таких проблем нет, хватило --no-half-vae.
Аноним 09/10/23 Пнд 20:23:12 513514 234
>>507227
В целом норм в текущей ревизии. Доебаться можно по мелочам:
Изображения нужно сделать кликабельными (обязательно), а в последовательностях где 1-2 выставить их подряд а не таблицей, ненужное ужимание и шакалит (на усмотрение).
В самом начале нужно обозначить что нужен питон такой-то версии и куда тулкит.
Начало где использование, к способ 3 ставь не рекомендуется или для справки, а то начнут так портить модели.
Пример хорошего датасета - серьезно? Одни ковбойшоты с сомнительным качеством, в тегах к которым нету имени персонажа. Папка 20 вообще отборная. Присутствуют регуляризации, хотя дан совет их не делать. Везде из раза в раз повторяется эта структура 10_x 20_x, что создает впечатления что именно так надо делать. Стоит прояснить как именно выбирать и ставить эти цифры, и сказать что в большинстве случаев можно обойтись одной папкой.
В разделе Easy way пункт 5
> Внимание, в настройках Additinal networks нужно указать дополнительный путь для сканирования лор, чтобы они подхватывались из дефолтной директории вебуи.
тогда как выше написано что все по дефолту ок, и ласт коммит ищет в стандартной папке webui.
Там же, какой смысл тестировать при весах 1.3-1.5? Куда важнее сделать несколько вариантов изображений чтобы оценивать не по одному сиду а хотябы по 4-8. Для этого лучше отказаться от варьирования веса, оставив его 0.8-1.0, выставить батч сайз-батч каунт а в webui изменить число строк или столбцов в гридах (лучше вынести его в квиксеттингс). Тогда можно будет сравнивать и видеть сразу много вариантов. Аналогично не помешает использовать вайлкарты на фон/позу/... и оценивать также косвенное влияние на окружение.
--unet_lr - лучше не значение а просто что равно LR
> conv_dim - тоже самое, что и network_dim, только для этих слоёв. Размер этих слоёв складывается с размером network_dim в выходном файле. Хорошим значением будет network_dim/2-4
Откуда?
> Есть разные мнения использовать вае во время тренировки или нет
Без него сама тренировка невозможна, здесь речь о том будет ли использоваться встроенное в модель или внешнее.
> что если и использовать то только вот это
Ты же на базе тренируешь, что там по дефолту? 840к с kl-f8 и наи сравнивал (только при тренировке офк)?
Аноним 09/10/23 Пнд 22:24:15 513687 235
Сап тренеры.
RAM дохуища (93 гига), а вот VRAM в 1063 не завезли. --lowvram оно сожрет, или я зря надеюсь?
Аноним 09/10/23 Пнд 22:27:07 513693 236
изображение.png 19Кб, 459x435
459x435
>>513687
Оно ведь не работает с общей памятью, да? Только с хардварной?
Аноним 09/10/23 Пнд 23:06:49 513743 237
Стикер 0Кб, 488x512
488x512
Аноны, есть сейчас какие-нибудь виртуальные окружения вроде Колаба гуглавского, чтобы БЕСПЛАТНО вот зайти в окружение, нагрузить своих моделей и питоновских скриптов и генерировать?
Пробовал ещё сервис Paperspace, но там всё обмазано завлекалочками "FREE FREE FREE !!11". а как доходит дело до подключения к мощностям - а-тя-тя-тя, подключите свою кридиточку.

Как быть?! Раньше делал всё в колабе, горя не знал, но вот вернулся после 2х месячного перерыва и с ужасом обнаружил что гугл ВСЁ, а цены там неприемлемые, особенно учитывая курс. В общем покупать подписку не вариант.
Аноним 10/10/23 Втр 00:05:56 513829 238
>>513693
на новых драйверах работает и с общей памятью, но где-то в 10 раз медленнее
Аноним 10/10/23 Втр 00:07:26 513833 239
Аноним 10/10/23 Втр 00:18:29 513852 240
Аноним 10/10/23 Втр 12:55:43 514125 241
>>513076
>СД вполне понимает
Понимать то понимает, но чтоб важные моменты были точно ухвачены - этого в 90% случаев уже не будет.
Типа тот же before\after, или sequence - будут тебе два разных (но похожих) перса вместо одного с изменениями. В character sheet тоже не слишком много постоянства без кучи неудачных генераций.
Аноним 10/10/23 Втр 13:31:28 514131 242
>>513514
> Изображения нужно сделать кликабельными (обязательно)
Сделал на самые мелкие, которые было не видно.
> В самом начале нужно обозначить что нужен питон такой-то версии и куда тулкит.
Про куду было, перенёс повыше с питоном.
> Начало где использование, к способ 3 ставь не рекомендуется или для справки, а то начнут так портить модели.
Ну добавил, но этим уж заморачиваться будут наверное только те, кто с чекпоинтами постоянно пердолится.
> Пример хорошего датасета - серьезно? Одни ковбойшоты с сомнительным качеством, в тегах к которым нету имени персонажа. Папка 20 вообще отборная. Присутствуют регуляризации, хотя дан совет их не делать. Везде из раза в раз повторяется эта структура 10_x 20_x, что создает впечатления что именно так надо делать. Стоит прояснить как именно выбирать и ставить эти цифры, и сказать что в большинстве случаев можно обойтись одной папкой.
Реально полная хуйня, со старого гайда, я хотел было это переписать, но походу пока про параметры писал забыл. Что думаешь, так пойдёт?
> тогда как выше написано что все по дефолту ок, и ласт коммит ищет в стандартной папке webui.
Поправил.
> Там же, какой смысл тестировать при весах 1.3-1.5?
Ну в том же гриде что я тренил видно недожар, после кстати ещё всякие тестовые тренировки были и как раз на бОльшем лр сетка получилась лучше, без этого графика я бы хуй это узнал, я её даже юзать стал.
> выставить батч сайз-батч каунт а в webui изменить число строк или столбцов в гридах (лучше вынести его в квиксеттингс). Тогда можно будет сравнивать и видеть сразу много вариантов.
Не пойму зачем эта гимнастика с батчами нужна? Можно же просто сиды рандомные поставить.
> Аналогично не помешает использовать вайлкарты на фон/позу/... и оценивать также косвенное влияние на окружение.
Ещё сложнее определить по такому влияние на бекграунд, если честно. Лучше для начала просто оценивать насколько хорошо вышел тренируемый концепт, но я всё же допишу.
> --unet_lr - лучше не значение а просто что равно LR
Уверен? Просто лр можно вообще указать произвольным, он нихера не влияет, если разделяешь и указываешь правильные значения для юнета и те по отдельности с адамом.
> Откуда?
Тестил с этими значениями, выходило хорошо. Есть другие предложения?
> Без него сама тренировка невозможна, здесь речь о том будет ли использоваться встроенное в модель или внешнее.
Да ты прав, плохо сформулированно, переделал.
> Ты же на базе тренируешь, что там по дефолту? 840к с kl-f8 и наи сравнивал (только при тренировке офк)?
А сам не знаешь насколько ужасное в наи вае по дефолту? Сравнения в старых тт кидал, наи вае, не то что в модели, и 840к, kl-f8 не тестил, 840к это энивей его файнтюн, на собственно 840к шагов https://huggingface.co/stabilityai/sd-vae-ft-mse-original#decoder-finetuning , 840к выигрывал в детализации даже на 512
Аноним 10/10/23 Втр 15:50:09 514234 243
00007-4225164689.png 820Кб, 1024x1024
1024x1024
screenshot391.png 272Кб, 1024x1024
1024x1024
>>513420
Спасибо за совет, кстати. Заменил --no-half на --no-half-vae и уже не так сильно память жрет. Работает даже на P5000

>>513852
Расскажи получилось ли генерить с сдхл моделями. Вангую что постоянные вылеты будут.

Кстати, аноны, а кто-нибудь пробовал генерить на основе 3д рендеров, но так чтобы стиль получился 2д?
Мне раньше было это неинтересно из-за низкого разрешения SD1.5, но на SDXL можно любопытные результаты получить если несколько controlnet моделей добавить. Пикрелейтед я генерил без Лоры на персонажа, тупо img2img с денойзом 0.6.
Аноним 10/10/23 Втр 16:23:45 514281 244
>>514234
>низкого разрешения SD1.5
>несколько controlnet моделей добавить
С контрол нетом можно хоть 4к пикчи делать на полторашке, никаких проблем не будет, кроме памяти, лол.
Аноним 10/10/23 Втр 16:34:31 514295 245
>>514281
>никаких проблем не будет
Не все так просто. Даже с контролнетом при увеличении размера картинки ИИ имет свойство чрезмерно засирать нейрошумом пустые пространства. Даже там, где это не требуется.
Если, конечно, тебе не простой апскейл нужен на денойзе 0.25, а именно обработка картинки с увеличением детализации.

>>514234
>генерить наоснове 3д рендеров, но так чтобы стиль получился 2д?
Выше тред почитай, я кидал несколько картинок, забодяженных на основе карточки из койкатсу.
Аноним 10/10/23 Втр 17:08:05 514343 246
>>514295
>ИИ имет свойство чрезмерно засирать нейрошумом пустые пространства. Даже там, где это не требуется.
Так оно всегда так работает, просто при размере с почтовую марку это незаметно.
Аноним 10/10/23 Втр 17:17:59 514363 247
>>514343
>Так оно всегда так работает
Ну, не совсем прям всегда.
Но контролировать эту тенденцию трудно.
Я пока стабильного способа не придумал.

Насрать в картинку нейрошумом - это вот запросто, это завсегда пожалуйста.
Аноним 10/10/23 Втр 18:02:39 514414 248
>>514295
>Выше тред почитай, я кидал несколько картинок, забодяженных на основе карточки из койкатсу.
Ага, нашел тот пост. >>490580
Даже не верится что у тебя с таким высоким денойзом (0.8) получается похоже на оригинальный 3д рендер. У меня даже на 0.6 цвета жестко проебывает.
Сколько ты примерно ставил веса depth и canny? И tile примерно на каком шаге отключал?

Хотя ведь тайл модели вроде нет еще в сдхл, то есть цвет контролировать я не смогу.

>>514281
Можно, но в родном разрешении работать проще. Если мне не нужен арт в высоком разрешении, то я тупо могу 1024 х 1024 рендер сделать и на его основе генерить картинку в том же разрешении. Никаких апскейлов вообще не нужно.
Аноним 10/10/23 Втр 18:50:39 514480 249
>>514414
На тайл есть много вариаций, как я заметил.
Можно поставить 0.25 силы и отключать на 0.1 (24 шага всего, это как раз вариант с картинки). Задаст базу и спокойно отключится, дальше нейронка будет сама думать.
Можно поставить 0.25 силы и вести до конца. Тут более точный контроль будет, ради сохранения деталей и цвета, но меньше фантазии.
Можно поставить 1 силы и тоже вести до конца. Тут уже будет усиление базовых деталей (если они есть) с добавлением всякого поверх, вплоть до "пережаривания" картинки в некоторых сетапах.
Есть еще экспериментальный - сила 2, отключить на 0.1. Выдает интересные результаты порой.
depth я в том примере не использовал, canny был полностью по стандарту, с дефолтовыми настройками.

Есть интересный вариант, который я для латент апскейла применяю:
tile 0.25; 0-0.1
canny 0.65; 0-0.25
Lineart (realistic) 0.65; 0.24-1
Первое - сила, второе шаги включения/отключения.
Входная картинка контролнета при этом - высокого разрешения, полученная через апскейл каким-нибудь валаром или другим не-латентным апскейлером.
Аноним 10/10/23 Втр 18:54:48 514483 250
>>514414
А, ну да, без tile даже на низком денойзе цвета пойдут по тому самому месту. Там вон ниже другие картинки были, как раз без тайла, сам видишь, что получалось.

А в некоторых случаях иногда надо дать ему подольше поработать, потому что на определенных картинках/сидах бывают глюки, и нейронка все равно цвета на половине генерации начинает пересирать. Тут уже экспериментировать только остается.
Аноним 10/10/23 Втр 19:55:17 514562 251
>>514480
Спасибо, тоже попробую когда наконец в сдхл запилят tile модель.
Кстати, а зачем вообще нужна Lineart модель дополнительно к Canny, разве они примерно не то же самое делают?

Я вот думаю что поза и перспектива у пикчи были простые. Если какая-нибудь акробатика или хентай, то нейросеть будет портить колени и другие сложные места. Желательно все же Depth или Openpose добавить.
Аноним 10/10/23 Втр 20:03:10 514574 252
image.png 19Кб, 983x512
983x512
Помогите у меня бесконечно надпись висит "Installing requirements for CodeFormer"
Аноним 10/10/23 Втр 20:14:47 514590 253
>>514562
>когда наконец в сдхл запилят tile модель
Если запилят.
Аноним 10/10/23 Втр 20:32:58 514612 254
>>514562
Канни дает очень жесткие контуры, лайнарт более мягкие и побольше свободы для интерпретации.
Мне кажется, что в такой последовательности апскейл получше получается.
Но может и плацебо, конечно, можно и целиком на канни идти от начала и до конца.
Аноним 10/10/23 Втр 20:36:15 514615 255
>>514131
> так пойдёт?
Ничесе датасет, алсо это уже не только стиль а еще и мультиперсонаж, лол. Да, заебумба, и по тексту иллюстративно.
> Не пойму зачем эта гимнастика с батчами нужна? Можно же просто сиды рандомные поставить.
Тогда делать несколько гридов с разными сидами и промтом. Вот только пока одни смотреть будешь уже другие забудешь, а лишняя информация по весам/эпохам будет только отвлекать. Тут можно сеточную систему или на выбывание постепенно самые хреновые откидывать, увеличивая при этом количество сравнений.
Ну это все другая история, важно отметить что нужно сравнивать не по одной генерации что сделано, вполне.
А батчи - чтобы не заморачиваться прописывая лишнюю ось в графике и генерить с ними, что быстрее на больших видеокартах. Буквально 2 клика и грид+оптимальный бс.
> Ещё сложнее определить по такому влияние на бекграунд
Он или взрованн-распидорашен, состоит из множества некогерентных частей по разным сторонам от персонажа со странным углом, или нормальный. А позы - это для персонажа, чекнуть чтобы не провоцировало бадихоррор и не копировало датасет. Для того и нужен none как контрольная группа, ведь поломаться может оно и само по себе а не из-за лоры.
> Уверен?
Тут про то что для LR расписано какое значение для такой-то альфы, что для разных оптимайзеров другие значения, а где юнет лр - просто ставь 1e-4.
> Тестил с этими значениями, выходило хорошо. Есть другие предложения?
Нет, не заморачиваясь ставлю таким же размером. Тут именно оптимум на этих значениях нащупал или же просто на них хорошо получалось и дальше начал шпарить? Еще на релизе примеры с разными и выводы из этого - ну вообще неубедительные были.
Аноним 10/10/23 Втр 23:00:38 514765 256
7.jpg 1640Кб, 5120x2880
5120x2880
1.jpg 379Кб, 2560x1440
2560x1440
>>514234
>пробовал генерить на основе 3д рендеров, но так чтобы стиль получился 2д?
юзай только контролнет, желательно 3 сразу, аля тайл на 0.5, кенни на 0.75 и аниме лайнарт на 0.75 для поддержки форм, потом дефолт апскейл при максимально мелких диноизов чтоб не было гостов. У меня модель хорошая, юзаю как первое значение в 0.4 и опускаю на 0.1 каждый апскейл х2
Пик сгенерил из разрешения 1280х720, потом апскейл на 0.4 + контролнет при апскейле тоже юзал, лайн арт аниме на 0.75 для поддержания формы.
Прямо как прочитал твое сообщение, вот сгенерил за 10 минут, правок в фотошопе нет
мимо анон который по кд юзает коикатсу+нейронка
Аноним 10/10/23 Втр 23:05:09 514770 257
>>514765
дополню от себя.
руку можно было перегенерить, а еще колготки в сетку хуево переваривает, на месте окончания волос был изначально второй хвостик, артефакт, лень было поправлять, поэтому там каша
Это я к тому, что артефакты будут, больше времени потратишь, можешь убрать эти артефакты
Аноним 10/10/23 Втр 23:12:08 514778 258
image.png 7381Кб, 2560x1440
2560x1440
>>514765
>>514770
промт

silver hair, rabbit costume, rabbit ears, rabbit tail, fishnet pantyhose, ass, ahegao, open mouth, tongue
Negative prompt: (panties:1.2), easynegative
Steps: 25, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 526260194, Size: 1280x720, Model hash: 2f33c329b7, Model: !custom_mix_v1_stable, Clip skip: 2, ControlNet 0: "preprocessor: canny, model: control_canny-fp16 [e3fe7712], weight: 0.75, starting/ending: (0, 0.75), resize mode: Crop and Resize, pixel perfect: False, control mode: Balanced, preprocessor params: (1536, 100, 200)", ControlNet 1: "preprocessor: lineart_anime, model: controlnet11Models_lineart [5c23b17d], weight: 0.75, starting/ending: (0, 0.75), resize mode: Crop and Resize, pixel perfect: False, control mode: Balanced, preprocessor params: (512, 64, 64)", ControlNet 2: "preprocessor: tile_resample, model: controlnet11Models_tileE [e47b23a8], weight: 0.45, starting/ending: (0, 0.5), resize mode: Crop and Resize, pixel perfect: False, control mode: Balanced, preprocessor params: (512, 1, 64)", CFG Rescale phi: 0, TI hashes: "easynegative: c74b4e810b03", Version: 1.5.1
Аноним 10/10/23 Втр 23:20:11 514783 259
>>514765
Пробовал опенпоуз + дэпс? Их еще можно прямо по ходу отредачить, предварительно поигравшись с препроцессорами.
Аноним 11/10/23 Срд 00:21:30 514830 260
>>514765
Спасибо, похожу если в сдхл тайл скоро не завезут то буду перекатываться в 1.5.
Тут и модель в самом деле годная, но то что counterfeitXL. Ты из чего ее намешал?

>>514783
Двачую вопрос. Главное преимущество 3д моделей ведь в получении точной карты глубины (или нормалей), по идее должна быть польза от depth. Ну хотя бы по части нормального рисования кистей рук.
С другой стороны, карта глубины ведь может добавить глубины, что плохо для плоского аниме стиля.
Аноним 11/10/23 Срд 01:09:16 514872 261
Помогите аноны, не загружаются модели. Сначало пишет что calculating, потом через 10 секунд в браузере пишет errored out и в консоле "нажмите клавишу для продолжения" и всё


venv "D:\stable-diffusion-webui\venv\Scripts\Python.exe"
Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 21:53:49) [MSC v.1932 64 bit (AMD64)]
Version: v1.6.0
Commit hash: 5ef669de080814067961f28357256e8fe27544f4
Launching Web UI with arguments: --xformers
Calculating sha256 for D:\stable-diffusion-webui\models\Stable-diffusion\realismEngineSDXL_v10.safetensors: Running on local URL: http://127.0.0.1:7860
To create a public link, set `share=True` in `launch()`.
Startup time: 17.5s (prepare environment: 5.7s, import torch: 7.5s, import gradio: 1.1s, setup paths: 0.9s, initialize shared: 0.2s, other imports: 0.7s, setup codeformer: 0.1s, load scripts: 0.7s, create ui: 0.4s, gradio launch: 0.2s).
7b399aa4be60ddbc8d7e1dbe7d45de65c9a80c881586b3666491d736ac7086d8
Loading weights [7b399aa4be] from D:\stable-diffusion-webui\models\Stable-diffusion\realismEngineSDXL_v10.safetensors
Для продолжения нажмите любую клавишу . . .
Аноним 11/10/23 Срд 10:14:41 515012 262
>>514783
>опенпоуз + дэпс
Юзлис хуйня, слишком много рандома же.
>>514830
>Ты из чего ее намешал?
zMix_v21
hassakuHentaiModel_v13
toonyouJP_alpha1
flat2DAnimerge_v30
И мешал их много раз, больше не смог повторить намешанное, сотни вариантов комбинаций было
>точной карты глубины (или нормалей), по идее должна быть польза от dept
Зачем если эту траблу решает более лучше лайн арты, кенни и тайлы? тайл даже сохраняет нужный цвет в нужных местах
Аноним 11/10/23 Срд 11:12:54 515038 263
00277.jpg 1059Кб, 4840x2728
4840x2728
>>514765 >>514778
Я обычно уменьшаю пикчу до небольшой, потом делаю латентный апскейл под контролнетом, за базу беру оригинальную большую пикчу.
Ну и промптов наваливать надо побольше, чтоб ИИ понимал, чего от него хотят вообще.
Типа:
masterpiece, best quality, 1girl, solo focus, from behind, leaning forward, bent over, hand on thigh, looking at viewer, turning head, white hair, blue eyes, open mouth, large breasts, huge ass, wide hips, playboy bunny, strapless, fishnet pantyhose, shoes, rabbit tail, rabbit girl, rabbit ears, shiny skin, shiny clothes, latex, abstract background, star \(symbol\),
Чем точнее промпт под картинку попадает, тем ИИ меньше глючит. Контролнет - это, конечно, хорошо, но и описательная часть тоже важна.

Опенпоз для обработки готовых пикч не рекомендую, только запутывает. С ним генерить надо, но тоже осторожно, а то будет бодихорор.

Depth нужен больше когда у тебя прям вообще голый манекен на исходнике, без одежды, без лица, без прически, чисто чтоб какой-то начальный пинок ИИ дать, чтоб было потом с чем работать.
Аноним 11/10/23 Срд 13:57:54 515131 264
TMND3-masterpie[...].png 3535Кб, 2560x2048
2560x2048
Counterfeit2-5-[...].png 2810Кб, 2048x2048
2048x2048
ЧЯДНТ? Контролнет Tile производит столько мыла что им можно мылить жопу в тюряге
Аноним 11/10/23 Срд 15:20:18 515186 265
>>515131
Настройки, исходник, промпт?

Вообще замыливает только фон, попробуй blurry, blurry background в негативы дописать.
Аноним 11/10/23 Срд 15:30:34 515201 266
Любопытно, обучаю лору на 768px, а генерации с неё пидорит уже на 640, при том что базовая модель очень хорошо с 768 справляется... Мистика...
Аноним 11/10/23 Срд 15:50:02 515230 267
>>515201
Обучай на 512, всё будет нормально.
Аноним 11/10/23 Срд 15:58:05 515241 268
>>515230
Стиль смазывается на 512. Ну, придётся ещё покропать, может, поможет.
Аноним 11/10/23 Срд 16:33:34 515303 269
1559947840296.jpg 5567Кб, 5120x6869
5120x6869
>>514615
> Ничесе датасет, алсо это уже не только стиль а еще и мультиперсонаж, лол.
Да тут все три сразу, стиль, концепт и чары, не отходя от кассы, всё равно стиль дольше всего тренить и всё остальное подхватит, немногие художники могут похвастаться такими датасетами.
> Тогда делать несколько гридов с разными сидами и промтом. Вот только пока одни смотреть будешь уже другие забудешь, а лишняя информация по весам/эпохам будет только отвлекать. Тут можно сеточную систему или на выбывание постепенно самые хреновые откидывать, увеличивая при этом количество сравнений.
> А батчи - чтобы не заморачиваться прописывая лишнюю ось в графике и генерить с ними, что быстрее на больших видеокартах. Буквально 2 клика и грид+оптимальный бс.
Не понял про настройки что ты имеешь ввиду. Вот так типо как на пике, bs|bc = той настройке про гриды и вайлдкарды с промптами концептов ну или просто беков?
Ну и да, заебёшься же такое высматривать, легче приблизительную годную эпоху найти и там уже точечно тестить вокруг неё по эпохам что тебе нужно.
> ведь поломаться может оно и само по себе а не из-за лоры
А может случиться и так, что лора наоборот исправит сид.
> Тут про то что для LR расписано какое значение для такой-то альфы, что для разных оптимайзеров другие значения, а где юнет лр - просто ставь 1e-4.
А, ну ок, поправил. Так понятнее?
> Нет, не заморачиваясь ставлю таким же размером. Тут именно оптимум на этих значениях нащупал или же просто на них хорошо получалось и дальше начал шпарить? Еще на релизе примеры с разными и выводы из этого - ну вообще неубедительные были.
Второе скорее, просто мне понравилось это значение и на них сетки получались сочнее вот и всё, слишком много было не оч, слишком мало давало меньше эффекта. Конкретных тестов не было, если прямо уж заморочиться нужно фулл стиледатасет собрать и тренировать conv_only, тогда видно будет различие, но в отрыве от основной реализации лоры естественно, потом с ней по хорошему бы.
Аноним 11/10/23 Срд 16:54:18 515325 270
00004-849509415.png 1034Кб, 1536x832
1536x832
86191263p5maste[...].jpg 627Кб, 1200x655
1200x655
>>514778
Примерно таким способом сгенерировал такое. Ничего не редактировал, только инпеинт одной перчатки.

Аноны, так что получается, Лоры собственных персонажей не нужны? Выходит ведь что проще собрать 3д модельку в Койкатсу или еще где и обрабатывать рендеры. 3д происхождение картинки лично я не замечаю.
Лора же обычно дает меньшую стабильность и часто творит дичь с одеждой.
Аноним 11/10/23 Срд 17:04:12 515348 271
>>515325
Хотя вот сейчас заметил что по лицу жесткий проеб.
У меня был денойз 0.5 при первой генерации. Глаза и рот на пикче мелкие слишком для такого денойза.
Скорее всего нужно было еще вариант с низким денойзом делать и потом в фотошопе склеить.
Аноним 11/10/23 Срд 17:10:36 515357 272
>>515325
> Выходит ведь что проще собрать 3д модельку
Конечно проще. Только стабильный дифундер убрать из пайплайна, рендор триде ближайшую сотню лет будет выдавать гораздо более лучшее качество.
Аноним 11/10/23 Срд 22:24:50 515777 273
>>515012
> Юзлис хуйня, слишком много рандома же.
Зато потом любой стиль, любой бэкграунд и небольшая корреция позы прямо на месте, а не подшумливание и перерисовка глаз. Накрайняк тайл 10% окончание. Крутануть рулетку на 16 пикч дело не долгое. Ну ладно, ответ получен, спасибо.
>>515131
На кэтбокс залей.
Аноним 11/10/23 Срд 22:35:40 515782 274
>>515303
> bs|bc = той настройке про гриды
Да
> и вайлдкарды с промптами концептов ну или просто беков
Сравнение с ними лучше, будет охватывать много вариантов а не один изолированный.
> Ну и да, заебёшься же такое высматривать
Берешь и сравниваешь, все перед глазами.
> легче приблизительную годную эпоху найти и там уже точечно тестить вокруг неё по эпохам что тебе нужно
Так и надо, офк не нужно все все тащить а только самые отборные, отсечку же можно и по малой выборке делать, или вообще по тензорфлоу.
> А может случиться и так, что лора наоборот исправит сид.
Сидам веры нет, количественно оценивать надо. Может там сложный промт и т.д. и 3/16 в None поломались, тогда поломка того же количества с лорами - не проблема лор. А если None стабилен везде, а одна или несколько лор выдают в половине случаев хтонь - повод задуматься.
> и тренировать conv_only
Проебутся корреляции с вниманием и т.д., лучше уж сразу все и варианты. Может вообще оказаться что рандома там больше.
>>515325
Одно другому не мешает, юзай и лору и модель, на апскейлах точно поможет.
Аноним 12/10/23 Чтв 00:20:43 515866 275
>>515782
> Сравнение с ними лучше, будет охватывать много вариантов а не один изолированный.
Ну я уже такой в пример же положил тоже, или думаешь его недостаточно?
> Сидам веры нет, количественно оценивать надо. Может там сложный промт и т.д. и 3/16 в None поломались, тогда поломка того же количества с лорами - не проблема лор. А если None стабилен везде, а одна или несколько лор выдают в половине случаев хтонь - повод задуматься.
Сам часто настолько тщательно высматриваешь, или только с хвостами? Но вообще да, это один из способов количественной оценки без черрипика. Ну можно тоже как нибудь упомянуть, но это конечно геморно уже слишком сидеть высчитывать удачные/неудачные, только самый упорный займётся.
> Проебутся корреляции с вниманием и т.д., лучше уж сразу все и варианты. Может вообще оказаться что рандома там больше.
Ну так а я что написал, сначала тест просто этих слоёв, дальше уже вместе, чтобы увидеть точно.
Теперь намного лучше оверолл читается бтв?
Аноним 12/10/23 Чтв 14:34:21 516355 276
Если я не положу текстовые файлы к датасету тогда обучение не будет ничем срать в текстовую часть модели, верно?
А то я сейчас пробую с --трейн-юнет-онли и я не уверен, что оно нормально работает.
А с лохой поди вообще эта команда всё всрёт. Или нет?
Аноним 12/10/23 Чтв 14:51:39 516375 277
>>515866
Пример норм, достаточно.
> настолько тщательно высматриваешь
Не нужно тщательно, в общем что-то типа в этой колонке 5 штук распидарасило все, в этой фоны взорвались, здесь костюм не воспроизводится, в этой 2 так себе а остальные норм, в этой 3 поломаны но остальные мастерпись. Смотришь на None - там 2.5 испорчены - значит все ок. 1-2 гридов достаточно для оценки, больше нужно если требования специфические.
> только с хвостами
Особенно с хвостами

> лучше оверолл читается бтв
Лучше, дальше уже такие мелочи что не стоят внимания.
Аноним 12/10/23 Чтв 16:29:00 516545 278
Стикер 0Кб, 512x512
512x512
>>513743
Что же аноны нет решения? Никто в кал_лабе не генерирувает что ли?
Аноним 12/10/23 Чтв 17:22:04 516662 279
>>516355
> Если я не положу текстовые файлы к датасету тогда обучение не будет ничем срать в текстовую часть модели, верно?
Неверно, концепты будут иметь названия папок как тег текстовой части.
> А то я сейчас пробую с --трейн-юнет-онли и я не уверен, что оно нормально работает.
Почему? Это и есть правильный параметр чтобы тренить только юнет.
> А с лохой поди вообще эта команда всё всрёт. Или нет?
Не должна, но лоха сама по себе не оч, ты ради эксперимента хочешь её потренить?
>>516375
Ладно, спасибо что помог с правками.
Аноним 12/10/23 Чтв 18:46:07 516774 280
>>516662
> Почему? Это и есть правильный параметр чтобы тренить только юнет.
Понял, спасибо, скрипт мне просто пишет при обучении про текстовые слои и не пишет, что не будет их трогать, потому я сомневаюсь всё ли работает как надо.

> но лоха сама по себе не оч, ты ради эксперимента хочешь её потренить?
Угу, пробую все эти ликорисы. Хорошо если это никак не конфликтует с ними.
Аноним 12/10/23 Чтв 18:57:10 516789 281
>>516545
Я генерирую >>515325, но не на гугол колабе а в paperspace. Правда в месяц 8 долларов плачу (я не в РФ живу). Можно и вообще бесплатно, но там жуткие очереди на бесплатный сервак.
За 8 баксов и сервера нормальные (вплоть до машины с А4000 и 45 гигов оперативкой) и 15 гигов хранилища дают.
Аноним 12/10/23 Чтв 21:45:40 516955 282
>>516774
> Понял, спасибо, скрипт мне просто пишет при обучении про текстовые слои и не пишет, что не будет их трогать, потому я сомневаюсь всё ли работает как надо.
Можешь просто посмотреть в тензорборд, там не должно быть других лров, кроме юнета во время тренировки.
> Угу, пробую все эти ликорисы. Хорошо если это никак не конфликтует с ними.
Локон попробуй, он хорош для стиля.
Аноним 14/10/23 Суб 13:40:52 518883 283
Так блядь. Если в кохагуе нажать на запрет апскейла бакета, то мне скрипт пишет, что будет игнорировать предельные разрешения и обучает со всякими бесполезными условными 1280x64.
Попробовал убрать галку с неапскейла — вижу характерную малафью от обучения на низкокачественном сете, то есть он наелся мыльного апскейльного говна, которое сам же и породил.
Чзх? Как ограничить разрешение и запретить апскейл одновременно?
Аноним 15/10/23 Вск 15:12:13 519865 284
>>513743
Очевидный minister, я всё делаю там. Не как колаб, но с api.
Аноним 15/10/23 Вск 15:12:44 519867 285
>>513833
Поешь говна, маркетолог.
мимокрок
Аноним 15/10/23 Вск 16:58:59 519990 286
>>519867
>Поешь говна, маркетолог
очередное бесполезное кидание фекалиями от шкилы. можешь что-нибудь нормальное посоветовать страдающим без колаба? нет
Аноним 15/10/23 Вск 17:53:04 520071 287
>>519990
Единственный выход это купить видеокарту, а 3060 12ГБ это самый разумисткий выбор. Во всех остальных случаях коллабобляди жрут говно, ебутся там, где ебли вообще быть не должно, банятся и проёбывают деньги на подписки.
Аноним 15/10/23 Вск 18:00:17 520078 288
>>520071
вот именно. если на новую денег жаль, есть вторичка. есть ещё 2060 с 12 гигами, может ещё продаётся, дешевле 3060 должна быть. можно кредит оформить как вариант. а ноют очевидно безработные неумехи\школьники, которым всё это недоступно.
16/10/23 Пнд 02:18:33 520557 289
>>519990
В треде уже советовали + есть тред по этой теме где накидали годноты
16/10/23 Пнд 02:20:23 520558 290
>>520071
Наркоман, как ты собрался подключать эту залупу к ведру?
Вообрази, задрот: не все имеют ПеКа, так как не каждому он вообще нужен
Аноним 16/10/23 Пнд 02:37:25 520564 291
>>520558
>не все имеют ПеКа
Бомжам с улицы с сажей в жопе голоса не давали.
>так как не каждому он вообще нужен
>жуёт говно без ПК
>орёт, что ПК не нужен
В голосину.
Аноним 16/10/23 Пнд 02:42:08 520567 292
>>520078
> можно кредит оформить как вариант
Перетолстил.
Ну а вообще рили сейчас даже сраный школьник в возрасте, когда он сознательно хочет и может абузить нейронки, может заработать/насобирать сумму чтобы дополнительно выклянчив у родителей купить бюджетную карточку что позволит делать все. В пролете только студентота-общажники или постоянно переезжающие с безальтернативностью ноута. Бибу сосут еще странные люди без пекарни/возможности выделить 200-300$, но это уже их выбор а не ситуация.
>>520558
> не все имеют ПеКа
Как жить без пекарни в 2д23 году? Не существовать будучи овощем, которому достаточно потреблять примитивный контент с мобилки, а полноценно жить?
Аноним 16/10/23 Пнд 04:16:38 520611 293
для тех кто вопит "ПИКА НИНУЖОН!!1!"
https://github.com/ShiftHackZ/Stable-Diffusion-Android
в настройках выбираем local diffusion (beta)
SD 8 gen 2 и 12 гб озу желательны, и то будет медленно всё по сравнению с компом
Аноним 16/10/23 Пнд 11:32:01 520732 294
>>519865
Чел если ты про очередной говносайт песочницу, где забиваешь промт и тебе высирает картинку, то это пиздец. Тебе там дают покрутить только пару настроек и промпт. После работы с полным функционалом вебуи это жрать невозможно. никакого тебе регионального промпта, ни контролнета, ни настроек хайреса, ни смешивания моделий и кучи лор и эмбендингов и текстуал инверсий.
Алсоу если ты про тот сайт который первый в выдаче гугла, то вообще плохие новости - он на 100% засран вирусами, переустанавливай винду.
Аноним 16/10/23 Пнд 11:45:29 520750 295
Ананасы, кто делал - дайте плз полные и проверенные настройки для тренировки на каком-нибудь автоматическом планировщике, который сам ЛР настраивает.

Потому что я уже 3 варианта лоры на стиль сделал, и получается всё время какая-то херня по сравнению с базовыми настройками и косинусом. Плохая карикатура, а не стиль.

Хочу все-таки постичь эту мудрость.
Аноним 17/10/23 Втр 19:57:41 522458 296
Кто пробовал трейнить lora на civitai, дефолтные настройки норм? Кто пробовал абьюзить баззы мультиакком?
Аноним 17/10/23 Втр 22:26:23 522634 297
grid-3025.png 8522Кб, 2832x2832
2832x2832
grid-3024.png 7610Кб, 2832x2832
2832x2832
Аноним 17/10/23 Втр 22:47:11 522665 298
>>522634
Оу, оно еще не успело ухватить нужное, но уже полезли мертвые нейроны. Хорошая тренировка.
Аноним 18/10/23 Срд 16:36:11 523230 299
А капшоны влияют на что-то если тренишь только юнет?
Аноним 18/10/23 Срд 16:57:01 523248 300
>>513743
>гугл ВСЁ, а цены там неприемлемые, особенно учитывая курс. В общем покупать подписку не вариант.
Чувак, в vast.ai аренда 3090 стоит 10-30 центов/час. Цены бросовые.
Аноним 18/10/23 Срд 21:14:03 523494 301
Чот ору, не хватает 32гб оперативки штобы скомпилить хформеров. Это что за обновления такие, ебануться.
Аноним 18/10/23 Срд 21:34:31 523510 302
>>523494
> хформеров
Зачем тебе это говно, когда есть SDP?
Аноним 18/10/23 Срд 21:38:24 523514 303
1697654301853.jpeg 70Кб, 989x845
989x845
Аноним 18/10/23 Срд 21:46:59 523527 304
>>523514
Там разница 200 мб при 2048х2048.
Аноним 18/10/23 Срд 23:54:44 523657 305
>>523527
Любопитно, любопитно.

xformers
Time taken: 2 min. 26.5 sec.
A: 6.36 GB, R: 6.89 GB, Sys: 8.0/8 GB (99.5%)

xformers --medvram
Time taken: 2 min. 6.0 sec.
A: 5.25 GB, R: 6.55 GB, Sys: 7.6/8 GB (95.2%)

opt-sdp-attention
Time taken: 1 min. 28.6 sec.
A: 9.21 GB, R: 9.81 GB, Sys: 8.0/8 GB (100.0%)

opt-sdp-attention --medvram
Time taken: 1 min. 4.2 sec.
A: 7.19 GB, R: 7.33 GB, Sys: 8.0/8 GB (100.0%)

opt-sdp-no-mem-attention
Time taken: 1 min. 31.1 sec.
A: 9.21 GB, R: 9.81 GB, Sys: 8.0/8 GB (100.0%)

opt-sdp-no-mem-attention --medvram
Time taken: 1 min. 7.2 sec.
A: 7.19 GB, R: 7.35 GB, Sys: 8.0/8 GB (100.0%)
Аноним 19/10/23 Чтв 01:18:15 523691 306
>>523657
Или я дурак, или оно на самом деле на медврам быстрее?
Почему?
Аноним 19/10/23 Чтв 01:20:58 523694 307
>>523691
Да, быстрее, ибо медврам отключает предспросмотр, а он тормозной.
Аноним 19/10/23 Чтв 02:35:54 523714 308
У меня чот получается, что SDP козявит детали на хвйрезе по сравнению с хформерами. Но большую выборку лень делать, так что может и рандом.
Аноним 19/10/23 Чтв 16:32:48 524080 309
>>520750
> Плохая карикатура, а не стиль.
Перетрен же.
Эта автоматика то ещё наебалово, точно также лр надо подбирать, просто другими рычагами. Прикольно что оно нанами не начинает сыпаться и может обучить всякой хуйне с которой Адам не справится.
Короче, продиджи с ди коефом 1 пробуй, констант вис вармап.
Аноним 19/10/23 Чтв 20:14:09 524299 310
>>524080
>Перетрен же.
Там плюс-минус одна фигня с 300-го шага, и до 3000.
Т.е. не ухватывает ни в начале, ни в конце, ни в середине.

Продиджи один раз пробовал, тоже ерунда получалась.
Какие там дополнительные параметры прикрутить, какой разогрев поставить?
Аноним 19/10/23 Чтв 20:46:29 524328 311
>>524299
У меня с дадаптом были такие проблемы, в данный момент продиджи с адамом сравниваю, очень похожие результаты дают.

>Какие там дополнительные параметры
Из статьи из шапки:
decouple=True weight_decay=0.01 d_coef=1 use_bias_correction=True safeguard_warmup=True betas=0.9,0.999

Разогрев на дефолтных 10.
Min SNR gamma по ощущениям срала в результат, выключил.

Сейчас смотрю последний тест и, судя по всему, разрешение очень сильно влияет на результат, на 512 бомбануло просто мгновенно.
Аноним 19/10/23 Чтв 20:57:52 524334 312
image.png 52Кб, 966x449
966x449
Не знаю в какой тред писать, отпишу тут. Пытался поставить ControlNet для автоматика, он как то поставился неудачно и теперь при запуске ловлю такую ошибку. Попробовал пофиксить способом который писали на stackoverflow, не помогает. Думаю что ошибка в версии OpenCV, но я не знаю какая необходима для работы автоматика, потому что в requirements.txt репозитория его даже нет
Аноним 19/10/23 Чтв 21:15:26 524351 313
>>524334
Судя по всему у тебя какая то ошибка связанная с препроцессорами карт глубин, сам автоматик же последней версии? Лучше в самое репе вебуи контролнета насчёт такого кстати искать.
Аноним 19/10/23 Чтв 22:23:13 524449 314
Аноны с 4080 есть?
25 ит\с на 4080 - это норм вообще?

>512х51
>эйлер_а
>masterpiece, best quality
>(worst quality, low quality, lowres, jpeg artifacts:1.4)

Что-то такое ощущение, что раньше скорость выше была...
Аноним 20/10/23 Птн 01:20:08 524575 315
>>524334
> --no-half
> --no-half-vae
Зачем? Отключи их и заодно medvram убери.
С ошибкой попробуй активировать вэнв и вручную запустить установку реквайрментсов.
Аноним 20/10/23 Птн 02:18:40 524596 316
Конвертировал модель в TRT, получил ускорение с 11 секунд на генерацию картинки до 6 минут на генерацию. Успешен?
Аноним 20/10/23 Птн 02:38:34 524607 317
Аноним 20/10/23 Птн 06:51:55 524658 318
mem2.png 8Кб, 1222x48
1222x48
>>524607
Ещё как. В целом впечатление, что эта хуйня сыровата.
Удалось нормально конвертнуть 1.5 с генерацией картинки вроде бы быстрее, чем на голом автоматике. Но это сказывается только на генерации батчами из-за выгрузки-загрузки всей требухи, если генерить по одной картинке, то смысла нет. Запечь для генерации в фуллашди не удалось, причина на пике. Модель весит около 2 гигов. А запекать при использовании с апскейлом нужно в два разрешения - до апскейла и после. Хуй знает, как запеклась XL модель на 1024 разрешении, но мне, опять же, не хватает VRAM, из-за чего генерация длится около 6 минут. В шаред память эта хуйня не лезет принципиально.
Аноним 20/10/23 Птн 07:27:30 524666 319
>>524658
> Но это сказывается только на генерации батчами из-за выгрузки-загрузки всей требухи, если генерить по одной картинке, то смысла нет.
Всё так.
> причина на пике
У меня кстати даже с оомами билдилось, правда я не фуллашди билдил а всего 1536х1024. Там в зависимости от твоей рам, подели её на два и столько шейред мемори будет, во время билда будет количество врам+этой шейред для билда доступно, если не хватит, то тут уж ничего не поделаешь.
Аноним 20/10/23 Птн 07:41:39 524672 320
512х512.png 17Кб, 1091x370
1091x370
HD.png 8Кб, 1083x84
1083x84
>>524666
По диспетчеру смотрел. В шейред не лезет вообще. В итоге с другой версией куды запеклось.
Генерация батчей 10 картинок 512х512 и в фулл ашди разрешении. Почти фулл ашди, на 8 пикселей по высоте больше из-за требований тензорной хуйни.
Итераций в секунду у меня мало, хуй знает, так и надо, или картонке пизда. Но их всегда мало, так что смысла смотреть на абсолютные значения нет, только в сравнении.
>если не хватит
Оно 136 гигов пытается выделить.
Аноним 20/10/23 Птн 08:05:33 524675 321
>>524672
> По диспетчеру смотрел. В шейред не лезет вообще.
А вот у меня лезет во время запекания, причём не стесняясь, сразу куском так на 36гб, 24+12. А как у тебя в итоге получилось забилдить фуллашди, это же очень много пикселей, нихера не пролезет ведь, в куде дело? Какая тогда версия?
Аноним 20/10/23 Птн 08:28:35 524677 322
meme.png 25Кб, 1090x370
1090x370
>>524675
>вот у меня лезет во время запекания
Что крутишь кроме разрешения? У меня любой размер оптимального батча больше одного - сразу фейл. Подозреваю, что дело как раз в памяти. Ну и вот на пике запекается пятигиговая 1.5 модель на фулл ашди. Всё так же хочет 136 гигов, но в итоге печёт за две с половиной минуты и так. Лоры тоже нужно запекать, иначе не хочет работать. Короче охуенно, в два раза буст. Да, надо ебаться с разрешениями, или запекать под каждое, которое ты используешь, надо печь лоры. Но два раза.
>Какая тогда версия?
У меня 117 стояла, т.к 118 не работала с другой хернёй. Поставил torch 2.0.1+cu118 и, вроде, работает.
Аноним 20/10/23 Птн 09:17:15 524683 323
>>524677
> Что крутишь кроме разрешения?
Да ничего вроде не крутил, к вечеру скину подробнее.
> У меня любой размер оптимального батча больше одного - сразу фейл
У меня 4 батч получался с 1536х1024, но батч 1 с 1536х1536 уже нет почему то. Батч вроде вообще не влияет на потребление памяти, я и не динамик пробовал пресет сделать, тоже фейл.
> Лоры тоже нужно запекать, иначе не хочет работать
Да, это херово, можно сразу несколько вмерджить в чекпоинт предварительно конечно, любой мерджилкой.
> Короче охуенно, в два раза буст. Да, надо ебаться с разрешениями, или запекать под каждое, которое ты используешь, надо печь лоры. Но два раза.
Чем лучше карта, тем хуже будет работать буст, с 4090 он только хуже сделает, переключение профилей между хайрезом и не хайрезом занимает какое то время. Если без картинка условно делается 10 секунд, то с трт даже чуть дольше, несмотря на буст итераций.
> У меня 117 стояла, т.к 118 не работала с другой хернёй. Поставил torch 2.0.1+cu118 и, вроде, работает.
Я вообще про системную куду спрашивал, а не про ту что в венве, в венве у меня такая же.
Аноним 20/10/23 Птн 09:24:14 524684 324
>>524683
> с 4090 он только хуже сделает
Не пизди. У меня на хайрезах почти в два раза буст на 4090 с динамическим разрешением, статику можно не печь. Да даже если делать статику - переключение секунду занимает.
Аноним 20/10/23 Птн 15:43:21 524861 325
1.png 30Кб, 846x350
846x350
>>524683
>можно сразу несколько вмерджить в чекпоинт
А нахуя? Печёшь лоры и не ебёшь себе голову.
>Чем лучше карта, тем хуже будет работать буст
Ну, у меня нищебродская 3080ti, так что местами буст в 2.5 раза.
>переключение профилей между хайрезом и не хайрезом занимает какое то время
Хуй знает, почти мгновенно. Опять же,
>Я вообще про системную куду спрашивал
А вот это сложно.

Затестил на одиночном пике, генерация 344 064 пикселей, потом апскейл до 2088960.
Без trt: Time taken: 2 min. 13.6 sec.
С trt: Time taken: 49.8 sec.
То есть даже при наличии всех переключений, trt ебать, как ускоряет.
Аноним 20/10/23 Птн 18:52:59 525000 326
1571315697641.png 43Кб, 1164x1017
1164x1017
>>524684
Ну короче у меня было всё этими профилями засрано, создал один единственный, так действительно лучше, без переключений. Лоурез+хайрез+ад 38 секунд с трт, без 56.
>>524861
> А нахуя? Печёшь лоры и не ебёшь себе голову.
А несколько как юзать будешь сразу?
> Хуй знает, почти мгновенно. Опять же
Да, тут с профилями обосрался сам короче. Вот просто с такими настройками собрал.
Ебать, ты зачем столько куд одновременно наставил разных версий то?
Аноним 20/10/23 Птн 20:50:03 525067 327
>>524684
Я чисто на статике проверял. Не ожидал таких охуенных результатов. Надо динамику проверить, если так и будет х2, то вообще заебись.

>>525000
>А несколько как юзать будешь сразу?
Лора печётся под чекпоинт, но если запек, то потом просто пишу в промпт, как обычно. Работает. Если не печь, то игнорируется полностью.
>ты зачем столько куд одновременно наставил
Так уж получилось, не хотела разная хуйня работать с одной кудой. Проверил, автоматик работает на 12.2
Напрягает оом на самом деле. Я так на XL вообще хуй забью, лол. Ещё заметил ошибку, если неправильно выгрузить trt модель, то потом на этапе VAE будет попытка выделить 30+ гигов VRAM.
Аноним 21/10/23 Суб 01:48:06 525307 328
>>483287
Чувак, дримбут полторашки идёт уже и на 16 ГБ девять месяцев уж как...
Аноним 21/10/23 Суб 01:53:55 525313 329
Аноним 21/10/23 Суб 01:55:14 525314 330
>>495126
Сяп коллеге-линуксоиду!
Отвечаем: с 11 виндой не так то, что она не под GPL. Ещё вопросы?
Аноним 21/10/23 Суб 02:09:21 525322 331
Сяп, двач. Какие есть хорошие модели-полторашки для дримбута? Именно для дримбута. То есть я понимаю всю красоту и гибкость понятия лоры, но... треню я на колабе. Лороколабы я видел, однако дримбутный колаб от Шивама я успел хорошенько профоркать - там и половины не осталось от оригинала. Автопуш на обниморду в фоне, датасеты (концепт и реги) под гитом... Сейчас вот прикручиваю дедупликацию vae (оно ж не тренится) через хардлинки. Если получится - то можно будет держать не 9, а 10 промежуточных точек (включая итоговую).
Короче, чтобы воспроизвести всё это с лорами - трах тот ещё. Это первая причина.
Причина вторая - лоры я вообще-то пробовал, но получалась фигня. То есть - хуже, чем дримбут. Вроде как так и должно быть: лора тренится меньше времени, но даёт худший результат. Возможно, плохо пробовал.
Причина третья - я генерю не Автоматиком, а через библиотеку diffusers. В качестве профита - пока нет банов на гуглоколабе, да и с бесплатными HuggingFace spaces при умелом использовании API... ммм... А поддержку лор в diffusers завезли совсем недавно.

Итак, дрёмобудка. Вопрос: какие модели брать в качестве базовых?

Одна из самых удачных моих моделей - на основе AnythingV3 (причём в два прохода - сначала 6000 шагов, а потом новая модель как базовая и ещё 1200/2400/3600 шагов).
Flat2dAnimerge v2.0 - пока получается хтонь. Возможно, она в принципе необучаема, поскольку микс. Что ещё посоветуешь, анон, для 2д-рисовки в стиле 90х?

Тот же вопрос про реалистик-модели. ChilloutMix разок удалось натренировать так хорошо, что по некоторым генерациям ЕОТ её можно ВК найти поиском по лицу.
Аноним 21/10/23 Суб 02:25:28 525331 332
Могу поспорить с тем, что завышенный CFG это всегда плохо. При тайловом апскейле с низким денойзом (0.2) поверх esrgan, высокий cfg (15) устраняет артефакты и добавляет детали, при этом не портя сэмпл.
Аноним 21/10/23 Суб 02:47:40 525339 333
>>525322
>Что ещё посоветуешь, анон, для 2д-рисовки в стиле 90х?
Ну, если ищешь экзотики, то очевидно пробуй TrinArt Derrida и Waifu diffusion. Тринарт очень нежная хуйня, но может что и получится, WD хтоническое изначально, но потенциал есть. А так его величество NAI, конечно, какие тут варианты вообще.
Аноним 21/10/23 Суб 02:52:01 525340 334
Есть хорошие альтернативы этой параше?
https://github.com/innightwolfsleep/stable-diffusion-webui-randomize
Размер картинок козявит при попытке рандомить - ресайзит вместо того чтобы менять размер генерации - чекпоинтам неправильные названия в мете прописывает, ресайзер не меняет... Пиздец просто.
Находил один с китайскими домиками вариант, но там нельзя чекпоинты рандомить.
Аноним 21/10/23 Суб 02:57:32 525342 335
>>525340
Есть. Отправлять готовые реквесты в API, с рандомизацией в скрипте. Но я так делаю онлайн не локально
Аноним 21/10/23 Суб 02:59:32 525344 336
>>525322
Может тебе будет интересно это https://github.com/KohakuBlueleaf/LyCORIS/blob/document/docs/Guidelines.md
С помощью либы ликорисов теперь можно хоть целый чекпоинт тренировать, если захотеть. А анон выше правильно заметил, лучше всего для 2д стиля будет наи, по крайней мере для лор.
Аноним 21/10/23 Суб 03:00:37 525345 337
>>525342
Это для каломатика? Теоретически норм тема, куда гуглить?
Аноним 21/10/23 Суб 03:00:58 525346 338
>>525339
Шлак. На civitai есть чекпойнты и лоры в стиле 90х.
мимо
Аноним 21/10/23 Суб 03:02:25 525349 339
>>525345
Пользуюсь онлайн платформами. С каломатиком на компе должно тоже работать (не пробовал), но потребуется кодить на питоне, кури библиотеку requests.
Аноним 21/10/23 Суб 03:19:38 525353 340
>>525344
Так не для лор, для дримбута.
Аноним 21/10/23 Суб 15:43:17 525619 341
>>478081 (OP)
Hyperworks вообще использую? Вкладка в webui есть, на civitai тоже категория есть. А моделей там нет
Аноним 21/10/23 Суб 15:58:14 525631 342
>>525619
По качеству между эмбедом и лорой, обучать сложно пиздец. Нинужно.
Аноним 22/10/23 Вск 03:16:07 526347 343
Впечатления по тренировке на Civitai:
UI годнота, приятнее чем колаб
Трейнятся оче долго
Старым аккам дали по 500, новые получают 100 - этого недостаточно для одной лоры, но можно использовать ссылки для приглашения по 500 за акк.
Это тупо платная функция как в f2p онлайн игорях
Аноним 22/10/23 Вск 04:16:16 526372 344
Никто не замечал, что запущенная генерация может программы в фоне выбивать?
В частности у меня периодически ФШ падает почему-то.
Неужели заполнение видеопамяти влияет? Так ФШ вроде не шибко много ее жрет (если вообще). Оперативки же более чем достаточно.
Аноним 22/10/23 Вск 04:22:08 526374 345
>>526372
С фотошопом не дружит сд, всегда так было. И вообще, он прилично видимокарту использует, если специально не выключить это в настройках.
Аноним 22/10/23 Вск 04:23:44 526376 346
>>526374
Да в том то и дело, что как на 4080 переехал - так и началось.
На 2070 сидел - и ни разу не упало, всё в порядке было. А тут прям по нескольку раз за день.
Аноним 22/10/23 Вск 04:24:28 526377 347
>>525619
> Hyperworks вообще использую?
Было актуально до появления лор, сейчас просто легаси.
Аноним 22/10/23 Вск 10:17:38 526424 348
Там, аниметедифф обновился. выдает такую ошибку:
2023-10-22 13:15:45,594 - AnimateDiff - WARNING - exiftool not found, required for infotext with optimized GIF palette, try: apt install libimage-exiftool-perl or https://exiftool.org/

Я немного не умный, как это установить так, что бы не сломать автоматик к херам?
Аноним 22/10/23 Вск 11:31:50 526462 349
>>526424
Это же просто варнинг, можешь хуй забить.
Аноним 22/10/23 Вск 12:34:34 526499 350
image.png 9Кб, 579x90
579x90
>>526462
Так прикол в том, что он должен фиксить цвета и повышать качество картинки, если верить описанию, вот поэтому и спрашиваю. Забивать на качество, это такое себе предложение.
Аноним 22/10/23 Вск 12:57:07 526511 351
>>526499
Ты читать умеешь? Он там для мета-данных в гифке нужен.
Аноним 22/10/23 Вск 13:29:07 526522 352
>>526372
> заполнение видеопамяти влияет
Влияет, жрет, вылетает причем странно. В настройках сними галочку "использовать графический процессор", тогда будет норм работать одновременно с сд.
>>526424
Скачай готовый бинарник экзифтула по ссылке и пропиши его в path. Но >>526511 прав, он для метадаты.
Аноним 22/10/23 Вск 14:50:55 526554 353
Аноним 22/10/23 Вск 14:56:09 526556 354
>>526522
>"использовать графический процессор"
Какие-то функции поди отрубятся из-за этого?..
Блин, почему на 2070 с ее 8 гигами было нормально, а на 16 гигах вылеты начались?
У меня такое ощущение, что тут не само заполние влияет, а кто-то в драйверах или софте напортачил с распределением памяти. Куча обновлений ж с тех пор была. И ФШ я при переезде на новый комп тоже обновил.
Аноним 22/10/23 Вск 15:06:36 526567 355
>>526556
В ФШ наговнокодили скорее всего. Под критичной нагрузкой от нейросетей если частоты слишком задраны - может происходить короткий "отвал" карты, большинство софта без проблем такое отрабатывают, просто мигают изображением. А особо конченый говнокод может падать от такого, хотя в доках директ икса требуют обрабатывать события "видеоадаптер отключён".
Аноним 22/10/23 Вск 15:17:20 526573 356
>>526567
Да вроде частоты не гнал, как купил - так и поставил. Экран не мигает.
ЧСХ ФШ еще может "частично" отвалиться. Интерфейс глюкануть, например.
Или зум с перетаскиванием может отключиться (это когда ты кнопку зажимаешь, мышкой двигаешь, и картинка в зависимости от движения масштабируется).
Но в этих случаях хоть сохраниться нормально можно.
Аноним 22/10/23 Вск 15:21:24 526577 357
Ха, так оно и есть.
Отрубил использование видюхи - и теперь плавный зум по-умолчанию так себя и ведет. То бишь просто отсутствует =)
Значит действительно в работе ФШ с видюхой что-то не в порядке.
Как эти "отвалы" вообще можно зафиксировать, если они в наличии?
Видюха на гарантии, можно будет попробовать ее поменять.
Аноним 22/10/23 Вск 15:24:52 526582 358
>>526577
> Как эти "отвалы" вообще можно зафиксировать, если они в наличии?
Частоты GPU на 50-100 мгц понизь и посмотри как оно будет.
> можно будет попробовать ее поменять
Это не брак. Лучше ФШ верни в Адоб, вот там явно пидорасы сидят и говнокодят.
Аноним 22/10/23 Вск 15:26:59 526584 359
>>526577
> Видюха на гарантии, можно будет попробовать ее поменять.
Ещё хочу заметить, что в любом стресс-тесте графики ты этого не увидишь. Заводской разгон может под стресс-тесты графики делали, а отвалы идут когда тензоядра подрубаются и нагрузка под соточку и ты дополнительно ещё ФШ врубаешь.
Аноним 22/10/23 Вск 15:28:37 526586 360
>>526577
Версия фотошопа какая?
Аноним 22/10/23 Вск 15:37:04 526591 361
>>526586
>Версия фотошопа какая?
25.0.0
>>526582
>Лучше ФШ верни в Адоб, вот там явно пидорасы сидят и говнокодят.
Да понятно, что говнокод, но альтернативы не шибко удобные, да и привык я за столько лет к нему уже.
>Частоты GPU на 50-100 мгц понизь и посмотри как оно будет.
Попробую.
Аноним 22/10/23 Вск 15:43:45 526594 362
Аноним 22/10/23 Вск 15:49:38 526598 363
>>526594
Похуй откуда, адобовские продукты отвратительно работают с аппаратным ускорением с того момента, как оно у них появилось. Что фотошоп, что премьер, что - особенно - афтерэффектс.
мимо
Аноним 22/10/23 Вск 16:02:41 526604 364
>>526598
У меня с запущенным SD и загруженной в память SDXL всё прекрасно работает без вылетов и багов, даже если в шопе открыто несколько файлов, в каждом из которых по десятку слоёв.
Если у анона выше фотошоп торрент-эдишн, то скорее всего это кривой репак. У меня был такой, который рандомно вылетал при использовании фильтра ликвифай.
Аноним 22/10/23 Вск 16:05:16 526606 365
>>526594
Конечно.
Баги у них везде одинаковые, впрочем.
>>526604
>это кривой репак
Тоже не исключаю. Посмотрю, может чего поновее завезли.
Аноним 22/10/23 Вск 16:21:21 526617 366
>>526604
У меня была лицуха на работе и она откисала ровно так же, как пиратка.
Аноним 22/10/23 Вск 17:16:14 526695 367
>>525322
> дрёмобудка. Вопрос: какие модели брать в качестве базовых?
Буквально очевидный наи. Преимущество будет в том, что потом натрененное можно будет легко примердживать к любым другим моделям с помощью современных техник, а не фиксироваться на какой-то конкретной модели.
>>526556
> Какие-то функции поди отрубятся из-за этого?..
Из дефолтного фотомонтажа и около того все работает. Может где-то поубавилось плавности и фильтры применяются чуть дольше, но не заметно. Со всякими 3д модельками внутри фш и прочей дичью - хз, но врядли тебе они интересны.
> а кто-то в драйверах или софте напортачил с распределением памяти
Там какую-то дичь наговнокодили с этим ускорением, что оно еще проблемы с интерфейсом или странные лаги само по себе может порождать. Так что забей, а на прошлой не вылетало потому что видюха не поддерживало нужное - соответственно и не использовалась в полной мере.
Полагаю если честно купить последнюю версию программы то таких проблем уже не будет.
>>526577
> плавный зум по-умолчанию так себя и ведет
Пользуйся кнопочками возле, сочетаниями клавиш (самое адекватное), органами управления на планшете (если ты из этих).
> Видюха на гарантии, можно будет попробовать ее поменять.
Твой выбор.
Аноним 22/10/23 Вск 17:30:27 526703 368
>>526424
А у тебя убунта или дебиан? В любом случае, не забудь перед этой командой sudo.
Аноним 22/10/23 Вск 17:42:01 526714 369
>>526424
Зачем тебе некро формат gif?
Аноним 22/10/23 Вск 17:43:23 526715 370
>>526695
>Полагаю если честно купить последнюю версию программы то таких проблем уже не будет.
Тут вон анон выше пишет, что точно так же падает.
Плюс Адоб очень жадный, и цены там совершенно конские. Ну их в жопу.
>Пользуйся кнопочками возле, сочетаниями клавиш (самое адекватное),
Неудобно.
Аноним 22/10/23 Вск 17:51:23 526721 371
>>526695
> > дрёмобудка. Вопрос: какие модели брать в качестве базовых?
> Буквально очевидный наи. Преимущество будет в том, что потом натрененное можно будет легко примердживать к любым другим моделям с помощью современных техник, а не фиксироваться на какой-то конкретной модели.

Добра тебе, анон! Прошу просветить ещё про современные техники мёржа и где они обитают. Это просто Add Difference (какой уж он там современный - не меньше полугода ему, а то и 9 месяцев), который A + k*(B-C), или что-то хитрожопое типа block merge ?
Аноним 22/10/23 Вск 18:49:24 526783 372
>>526556
Ля, щас бы на говнофотожопе сидеть, когда есть альтернатива в виде гимпа. Функционал тот же, разве что свистоперделок меньше. Зато весит в 100 раз меньше и не отваливается от каждого пука.
>>526703
Шиндовс.
>>526714
Так он удобнее. Поставил на конвеер тестовый промпт на разных моделях, потом смотришь через "просмотр изображений" клацаяя клавишу влево. С MP4 или WEBP ты нихуя не поклацаешь, их каждый раз по отдельности открывать надо, а мне лень, плюс гифка зациклена, а видос стопорится. Но это не мешает мне сохранять во всех форматах сразу. Говно удалил, нужное залил на сайты.
Аноним 22/10/23 Вск 20:50:03 526889 373
>>526715
> что точно так же падает.
Он пишет что в какой-то момент отслеживал одинаковые баги как в пиратке так и в лицензии. Фотожоп сам по себе глючный, но для начала стоит устранить прочее фактоы.
> Неудобно.
Выцеливать ползунок удобнее чем нажать альт и крутануть колесо, или провести пальцем по области?
>>526721
Ууф, в наи несколько тредов назад достопочтенный господин делился своим опытом и рекомендациями, нужно найти этот пост. Там и несколько ссылок было, сейчас новые методы добавили.
> что-то хитрожопое типа block merge
Это уже искать надо, не подскажу.
>>526783
> щас бы на говномайбахе ездить, когда есть альтернатива в виде 50кубового мопеда.
Починил тебя
> потом смотришь через "просмотр изображений" клацаяя клавишу влево
Шиндовский просмотрщик уже давно умеет во все эти форматы нативно, и под прыщи тоже были совместимые.
Аноним 22/10/23 Вск 23:46:40 527066 374
>>526889
>Выцеливать ползунок удобнее чем нажать альт и крутануть колесо, или провести пальцем по области?
Да не. Зум ж без ползунка. Зажимаешь кнопку, двигаешь вправо-влево - и картинка уменьшается/увеличивается.
Если поддержку видюхи вырубить - оно не работает. При зажатии у тебя начинает рамка образовываться, в которую ты условный зум хочешь сделать.
Аноним 23/10/23 Пнд 01:06:54 527139 375
Я наверно медленный, но:
https://latent-consistency-models.github.io/
Дистиляция моделей SD за 32 А100-часов. Дистилированная модель работает раз эдак в 5 быстрее.

https://github.com/rupeshs/fastsdcpu
демка от индуса на ЦПУ, действительно работает.

самому подистиллировать, что ли? кто-то вроде собрался это реализовывать для имеющихся уёв

только по ходу контролнеты тоже заново надо обучать будет, и всё остальное
Аноним 23/10/23 Пнд 01:25:19 527155 376
>>511605
>Как в теории допилить SD до уровня Dall-e 3?
Заземлить на хорошую языковую модель, как это было сделано в DF IF. У того гугловская LLM на 11B параметров, и он вполне себе понимает довольно сложные промпты уровня "koi fish doing a handstand on a skateboard". Да и в самом далле 3 похоже сделано, только он ещё и обучен на развёрнутых GPT тегах и инференс идёт на них же, что очевидно по его фривольностям.

А вообще понимание промпта и продвинутый текст-ту-имадж - тупиковый путь. Текстом всё равно многого не сделаешь, или сделаешь но долго. Локальную модель нужно дрочить под лёгкость обучения и управления хинтами высшего порядка (например скетчами). Это гораздо проще, см. контролнеты и адаптеры, и результат лучше и быстрее работает. Пусть даже унет будет сильно дистилированный, и понимает мало высокоуровневых концептов - но чтобы хорошо обучался и следовал контролнету. Тогда можно будет и на ёлку влезть и жопу целой оставить.
Аноним 23/10/23 Пнд 01:26:35 527157 377
>>527155
Точнее даже не обучение, а обобщённо - трансфер стиля и концептов. Обучение это лишь один из вариков сделать это
Аноним 23/10/23 Пнд 02:11:52 527175 378
Неутешительные результаты долгих слепых тестов в том, что адам с наотъебись выставленным лром ебёт продиджи в рот снова и снова. Снова и снова. Снова и снова.
Даже когда получается подойти к очень близким выхлопам.
Аноним 23/10/23 Пнд 02:50:18 527189 379
Смотрите какие чудеса.
https://github.com/PixArt-alpha/PixArt-alpha
Заявляют результаты на уровне SDXL при унете в 600 млн параметров (правда трансформер на входе большой) и смешных 25млн картинок в датасете, тренировка стоила всего $26к. Всё это за счёт мультимодальности, хорошо отфильтрованного и протегированного датасета (не забываем что LAION был натурально мусорного качества).
Пиздят или нет, думаю что в ближайшие несколько месяцев все наши эксперименты с обучением лор глубоко устареют, если фундаментальные модели уже становятся доступными небольшим конторам.
Аноним 23/10/23 Пнд 02:54:35 527193 380
image.png 1152Кб, 960x540
960x540
>>526889
> щас бы на говномайбахе ездить, когда есть альтернатива в виде 50кубового мопеда.
Аноним 23/10/23 Пнд 03:35:47 527200 381
>>527189
> в ближайшие несколько месяцев все наши эксперименты с обучением лор глубоко устареют
Так или иначе. Будет всё с одной картинки обучаться в одно касание, так чтобы последний полуслепой кумер справился.
Ну или хайп на днях резко прервётся, что называется в самый неожиданный момент, и мы останемся с удивлением и тем что есть.
Аноним 23/10/23 Пнд 03:48:19 527207 382
>>527066
> без ползунка
> кнопку, двигаешь вправо-влево
Дай угадаю, та кнопка и есть ползунок?
>>527175
Не пробовал менять датасет на разных фазат обучения?
>>527189
> эксперименты с обучением лор глубоко устареют, если фундаментальные модели уже становятся доступными небольшим конторам
Почему? Какой для этого повод и связь с обучением каких-то моделей конторам, что готовы раскошелиться на десятки дысяч денег?
>>527200
Ip-адаптер, референс и прочие уже есть
Аноним 23/10/23 Пнд 04:25:22 527223 383
>>527207
>Ip-адаптер, референс и прочие уже есть
Пока это скорее игрушки, они довольно тухло работают и не умеют хорошо выхватывать то что ты хочешь с одной пикчи. Чтобы зерошот по одной пикче работал приемлемо, нужны гораздо более дрочные методы, чтоб оно анализировало пикчу всерьёз как GPT-4V, и ты ему подсказывал что именно ты хочешь ухватить (например промптом).
Аноним 23/10/23 Пнд 04:44:03 527224 384
>>527207
> Не пробовал менять датасет на разных фазат обучения?
Нет. А что будет? Какой юзкейс?
Аноним 23/10/23 Пнд 07:04:08 527242 385
>>526783
Webp то почему нет?
Аноним 23/10/23 Пнд 11:51:52 527321 386
1686568478324.png 4290Кб, 1753x1831
1753x1831
Почему соевым индусам так хочется привести генерации к правому говну? Это же литералли главная проблема SDXL, а оказывается эти дегроды специально такое делают.
Аноним 23/10/23 Пнд 12:07:02 527328 387
>>527321
Потому что иначе их отменят.
Аноним 23/10/23 Пнд 13:25:43 527389 388
>>527223
> чтоб оно анализировало пикчу всерьёз как GPT-4V
Анализировать уже сейчас можно, есть разные модели. А вот чтобы из этого еще взять да и в управление контролнетом перекинуть - это уже мультимодалки нового уровня. В принципе с развитием того же ip адаптера можно, но там модель окажется больше чем сд.
>>527224
Обучить что-то специфическое не ломая. Столько дрочева с лр, оптимизаторами и прочим, а сегментирование датасета не смотрят, хотя сейчас при обучении моделей этому не последнее внимание уделяют и в кохе возможность продолжить обучение есть.
Аноним 23/10/23 Пнд 13:51:58 527400 389
depth-of-field-[...].jpg 67Кб, 1000x584
1000x584
focal-length-of[...].jpg 20Кб, 620x366
620x366
shallow-depth-o[...].webp 33Кб, 1500x1000
1500x1000
>>527321
Это всё из-за говнозеркалок. Там типа модно делать ультрахуёвую глубину резкости.
Аноним 23/10/23 Пнд 14:25:43 527437 390
>>527389
>Обучить что-то специфическое не ломая.
Так оно всё равно ломать будет, хоть обучение аля дримбут, хоть лоры. Всё одно это пердолинг с параметрами, датасетами и прочим.
Аноним 23/10/23 Пнд 14:35:54 527443 391
>>527389
>Обучить что-то специфическое не ломая.
Ну, практический пример, практический. Мы тут и без сегментирования учим специфическому не ломая.
Аноним 23/10/23 Пнд 15:20:02 527474 392
>>527207
>та кнопка и есть ползунок?
Да кнопку мыши же. Включаешь инструмент зума с хоткея, и у тебя на одну-единственную ЛКМ сразу оба направления зума привязаны - и вниз, и вверх, в зависимости от того, куда мышкой двинешь.
Тогда как без этой штуки тебе надо либо инструмент зума переключать, либо через пкм масштаб сбрасывать и зумить заново на конкретный участок, либо тот самый слайдер где-то в интерфейсе искать.
Аноним 23/10/23 Пнд 15:20:41 527476 393
>>527242
Потому что формат говна, и вдобавок в нем серьезную уязвимость недавно обнаружили.
Аноним 23/10/23 Пнд 15:42:41 527487 394
>>527437
>>527443
Ну, с учетом дефолтного юзкеса лоры и сильно ограниченного датасета это не сильно актуально. Разве что для определенных концептов или специфичных стилей где обучение с нарастающей сложностью (читай постепенное повышение отклонений от того что модель уже умеет а не сразу с двух ног смягчив вармапом), ну и для будки, всеже интересно посмотреть подобное.
Не ломая - вон ту же самару взять фон и местами анатомия вышли из чата. Можно компенсировать меняя вес лоры, используя обработку и прочее, но это борьба со следствием а не причиной.
Вот где могло бы хорошо сыграть - с файнтюном того же xl.

Офк не факт что это окажется целесообразно, просто в рамках размышлений, а то столько пердолинга с одним а другое игнорируем.
>>527474
Да, прикольно. Но alt+скролл или сенсорная полоска как-то нативнее и работают без гпу ускорения.
Аноним 23/10/23 Пнд 17:07:21 527536 395
Инсайд из дискорда: в SD 3 вместо CLIP будет BLIP.
Аноним 23/10/23 Пнд 17:08:51 527537 396
>>527321
Но справа выглядит пизже
Аноним 23/10/23 Пнд 17:11:23 527540 397
>>527155
>Текстом всё равно многого не сделаешь, или сделаешь но долго
Текстом или нет, главное чтобы все было автоматическим и делалось батчами. Руками я и сам на планшете в графическом редакторе нарисовать могу.
Аноним 23/10/23 Пнд 17:40:45 527571 398
>>527400
> модно делать ультрахуёвую глубину резкости
2012, вроде, давно позади
Аноним 23/10/23 Пнд 17:48:35 527576 399
>>527400
А еще на говнозеркалки принято делать перспективу уебищную, чтобы лицо было как бы вывернутое, как блин
Аноним 23/10/23 Пнд 21:09:30 527686 400
>>527576
Это когда на телевик за 10 килобаксов снимают, еблет плоский/жирный получается на 300мм фокусном.
Аноним 23/10/23 Пнд 22:37:05 527764 401
А какой смысл в trt, если есть AIT, который работает с лорами без необходимости что-то с ними делать и где не надо модель в onnx переводить?

Проверил производительность - они одинаковое ускорение дают, как минимум на тех разрешениях и батчах, что я обычно использую.
Аноним 23/10/23 Пнд 23:02:59 527792 402
>>527764
Ты наверное на сральном ведре сидишь, раз AIT у тебя по скорости как TRT. А вообще забавно наблюдать как пользователи SD не проходят базовый тест на интеллект и не могут нормально сконвертить модель даже с подсказками на экране.
Аноним 23/10/23 Пнд 23:52:42 527832 403
>>527792
> AIT у тебя по скорости как TRT

Возможно потому что я с SDXL работаю обычно. Типа 1024х1024 батч из 4, 30 шагов dpmpp_2m. 8 секунд что с TRT, что с AIT.
Аноним 24/10/23 Втр 00:10:20 527848 404
Про tensorrt пишут что с ним работает медленней чем без, при включённом medvram-sdxl. А жаль, это было бы единственное ему применение
Аноним 24/10/23 Втр 00:26:53 527857 405
>>527848
Я, кстати, medvram-sdxl не врубал, это без всех оптимизаций каломатика по памяти для sdxl. А AIT я в комфи запускал, тоже без каких-то особых трюков.
Аноним 24/10/23 Втр 01:25:40 527903 406
>>527540
Скетч нарисовать в разы быстрее и точнее, чем крафтить строку ебучую, в итоге не получив в точности то что нужно. У текста просто нет столько семантической ёмкости, сколько есть в простом наброске от умеющего рисовать чела, который понимает динамические позы, анатомию, светотень и т.п.
>Руками я и сам на планшете в графическом редакторе нарисовать могу.
В этом случае 95% времени займёт рендер. Скетч или тегированная 3Д геометрия на разных слоях, обрисованные моделью, куда быстрее.
Аноним 24/10/23 Втр 01:55:37 527922 407
>>527848
>tensorrt
Эта штука крайне требовательна к vram, так как, по сути, отрубает шаред мемори. Если тебе не хватает vram, то идут лютые замедления, на моём ведре trt от 3 до 6 раз медленее, чем без него. На sdxl, само собой. Проверил с флагом medvram-sdxl, euler a, сто шагов, разрешение 1024. TRT медленнее ровно в пять раз, с ним расход памяти ушёл в потолок. Без него расход 8гб ровно, памяти хватает с запасом. Возможно если у тебя 3090\4090, то буст будет. Ну и сам trt не работает при включении xformers, хотя он, по моим тестам, даёт буст в районе погрешности.
Аноним 24/10/23 Втр 02:53:50 527934 408
>>527903
Быстрее, но качество ниже. Но ты во всём прав, конечно, это так, для справедливости.
Аноним 24/10/23 Втр 04:27:41 527966 409
>>527922
На SDXL прироста никакого. C SDP у меня скорость генерации 6.42 it/s Euler A 1024x1024 150 steps. C TRT при тех же параметрах 5.85 it/s, и расход VRAM 22.7 Гб, лол.
А вот на полторахе уже другое дело — с SDP батч из 4 картинок 512х768 Euler A 150 steps 6.57 it/s, расход памяти 5.2 Гб. С TRT 9.27 it/s, расход памяти 6.8 Гб.
Но заёбывание с конвертацией моделей, очень ограниченная поддержка лор и хайрез фикса, и отсутствие поддержки контролнетов пока что рубят всю идею на корню.
мимо-4090-боярин
Аноним 24/10/23 Втр 05:43:01 527995 410
image.png 17Кб, 861x203
861x203
image.png 29Кб, 1044x124
1044x124
Не прогромист итт. Хочу попробовать научить лору. Помогите найти терминатор. Жалуется на 369 строчку 4 символ (2 пик), то есть на "p"
В гугле ничего похожего не нашел.
Аноним 24/10/23 Втр 06:02:39 528003 411
>>527966
А как долго конвертируется модель на 4090? Если достаточно быстро, типа секунд 30, то можно рм предложить сделать автоконвертацию с кешированием
Аноним 24/10/23 Втр 11:58:18 528114 412
А в сфере генерации картинок что то круче и прорывнее SD вышло? Или все крутое основано на нем?
Аноним 24/10/23 Втр 12:50:17 528134 413
>>528114
Gigagan 1 раз видел, но после ничего не слышал о нём
Аноним 24/10/23 Втр 13:24:33 528164 414
>>528134
Диффузия по всем метрикам ебёт GAN. Сейчас уже кроме генерации другие задачи с GAN на диффузию начинают переводить. Например восстановление изображений или супер-резолюшен уже только в диффузии имеют какой-то прогресс за этот год, из недавнего - IR SDE. Все попытки вернуться к однопроходной генерации мертворожденные, буквально движение назад, только для нищежелеза имеют смысл чтоб получить больше скорости ценой качества.
Аноним 24/10/23 Втр 13:55:04 528189 415
>>528134
>>528164
GAN в целом работают, но с трудом управляются и при тренировке и при инференсе. В них вложили дохуя усилий и годами ебались с шаманством с гиперпараметрами, пока не поняли что это тупиковый путь из-за капризности. Стоило придумать диффузионный процесс и восстановление из шума, как всё попёрло при минимальных усилиях.

Диффузия не единственный способ генерить пикчи. Есть ещё визуальные трансформеры, например Stable unCLIP тренировано на эмбеддингах из такого. Есть RNN, разные другие аналоги из физики, например электростатика вместо термодинамики у диффузии. Но в реальности все юзают диффузию. Диффузионная сетка это не единственный компонент реальной модели конечно, понимание инпута требует языковой модели (для промпта) или чего-нибудь управляющего типа контролнета, перевод в/из латентного пространства требует автоэнкодера (которые кстати могут и независимо использоваться для генерации), и т.п., всё это пытаются стакать вместе с переменным результатом.
Аноним 24/10/23 Втр 15:50:22 528282 416
0000.png 25Кб, 650x289
650x289
Ещё одна проблема с TRT это размер. Все ваши модели удваиваются. И вот этот файлик на 1.6гб - это лора, которая изначально весила 144 мегабайта.
Аноним 24/10/23 Втр 22:03:49 528647 417
>>528282
Ну вот поэтому мне и кажется, что AIT все же перспективней, несмотря на то, что с ним куча своих приколов. Все же вот эта перегонка моделей- то какая-то фигня и не будет работать с тем как обычно народ с моделями работает.
Аноним 24/10/23 Втр 22:43:53 528692 418
Как я понял недавно вышедший LCM, который за 32 часа a100 запечатывает семплер, зажопили? Нигде не нахожу код для тренировки. Нашел максимум на гитхабе сообщение от создателя, что он другие модели планирует сконвертировать

Все же странный выбор изначальной модели: dreamsharper v7. Автор сомнительный, для xl модели он просто Лору вмержил в базовую модель
Аноним 24/10/23 Втр 22:53:37 528699 419
>>528692
Тебе уже объяснили что результаты там говно, надо черрипикать чтоб не было пиздеца. Поэтому и кода нет никакого.
Аноним 24/10/23 Втр 23:03:16 528711 420
1589702401531.png 424Кб, 512x512
512x512
1568179315899.png 440Кб, 512x512
512x512
1544370897773.png 439Кб, 512x512
512x512
1559586918238.png 440Кб, 512x512
512x512
>>528692
> LCM
Ммм, жидкое говно, как же хочется. Жаль только выглядит оно хуже ванильного SD 1.4, даже если оба на 10 шагах сравнивать. Квантование или дистилляция даже лучше выглядят чем это.
Аноним 24/10/23 Втр 23:39:34 528738 421
>>528692
Автор в дискорде говорит что код будет когда XL модель конвертнёт в LCM.
Аноним 24/10/23 Втр 23:44:11 528740 422
>>528692
>просто Лору вмержил в базовую модель
Потому что лора как таковая не работает с LCM. Оно запекает итерации в дополнительную нейросетку, в этом вся суть. Поэтому лору придётся либо вмёрживать, либо пользоваться файнтюном LCM через описанный в пейпере способ. Контролнеты тоже надо реализовывать заново (как минимум тренить). И т.п.
Аноним 25/10/23 Срд 00:27:38 528772 423
>>528740
Я про не LCM, а просто dreamsharper xl. Там в комментах один чел выяснил что это просто мерж с лорой, выдаваемый якобы за чекпойнт. И вычленил его, можно скачать отдельно

https://civitai.com/models/112902/dreamshaper-xl10?commentId=274242&modal=commentThread

Короче создатель dreamsharper - это инфоциганин. Почему выбрали его модель для основы, не понятно
Аноним 25/10/23 Срд 00:36:16 528778 424
>>528772
>Почему выбрали его модель для основы, не понятно
Да просто авторы яйцеголовые математики, вряд ли они следят за всей этой драмой на сайте для дрочеров, скорее всего они тупо ткнули в первый попавшийся популярный чекпоинт с красивыми картинками и прогнали свой скрипт на нём.
Аноним 25/10/23 Срд 02:32:06 528822 425
>>528778
Яйцеголовые выбрали бы стандартную официальную модель, а не васяномерж.
Аноним 25/10/23 Срд 03:50:34 528864 426
>>528822
Яйцеголовые стремятся к публичности и демкам, это добавляет видимости и цитат. Публикуйся или умри. Базовая модель хуйня, в любом случае васянщину пришлось бы брать, чтобы привлечь внимание. Вот сейчас автор в дискорде спрашивает какую модель конвертить следующей (ему отвечают базовую SDXL или какую-нибудь лору/файнтюн на XL)
Аноним 25/10/23 Срд 04:04:21 528871 427
>>528864
Вот зря вы ненавидите все стандартную модель. Она обучена на миллионах изображений, а все, основанные на ней - это дообученные файнтюны на всего нескольких тысячах картинок
Аноним 25/10/23 Срд 05:49:51 528875 428
Честно говоря не понятен этот хейт на XL! У нее есть уйма преимуществ
- Больше параметров, больше генерализации, поэтому любые концепты (в т.ч. nsfw) подхватывает с полуоборота.
- гораздо сильнее в "чтении" промптов, так что для нее не нужно повторять дважды или писать громоздкие негативы. Что написал, то и получишь.
- трудность в трейнинге лоры вознаграждается более высоким качеством. Лоры для реализма пригодны также для мультов чмонимэ и наоборот.
Аноним 25/10/23 Срд 06:26:32 528878 429
>>528875
Гоняю XL уже с недельку, хуй знает, хейтить её особо не за что. У меня только две претензии - ей абсолютно поебать на твой промпт, она всё равно проигнориует всё, кроме пяти-шести кейвордов. И тут нельзя исправить дело :1.0 или скобочками. Нужно брать важный кейворд и копипастить в промпт 3, 4, 5 раз. Но никакой гарантии не даёт. И второе, это мыло ебаное.
Аноним 25/10/23 Срд 09:58:48 528910 430
>>528875
>Честно говоря не понятен этот хейт на XL!
1. Проебали порнуху
2. Вместе с порнухой проебали анатомию

Ну и общий тренд на вырезание порно из базы залуживает только урины в лицо.
Аноним 25/10/23 Срд 11:35:10 528942 431
>>528910
Стабилити и опенаи - based, дрочеры должны страдать. Не, ну попены говно, но по другой причине
Аноним 25/10/23 Срд 11:36:58 528943 432
>>528878
Это вопрос скилла, у меня всё подхватывает.
Аноним 25/10/23 Срд 12:31:59 528988 433
Имеет ли смысл тегить LLaVA'ой пикчи для файнтюна? (примерно 10к пикч) Для лоры? (на ~100 пикч)
Будет ли качество выше от такого теггинга?
Аноним 25/10/23 Срд 14:58:24 529074 434
>>528943
Так это недостаток XL, что к ней требуется какой-то особый скилл. Когда с 1.5 всё заебись, а для XL такие промпты не годятся.
Аноним 25/10/23 Срд 17:04:12 529195 435
>>529074
Свои мастерписи для полторашки прямо с первого раза правильно писал?
Аноним 25/10/23 Срд 22:49:19 529459 436
>>529195
Загуглил рабочие теги, если не работают - сделал скобочки или 1.0. XL на это похуй, гарантированно рабочих команд тупо нет.
Аноним 26/10/23 Чтв 01:05:26 529545 437
>>528910
Не знаю, пока мне кажется что по анатомии файнтьюны SDXL вполне на уровне. Плюс понимание промптов и когерентность у неё на высоте. SD1.5 не может даже нарисовать нормально сидящую девушку в комнате, если не роллить как угорелый. Либо анатомия кривая, либо кресло плывёт, либо место комнаты на фоне какое-то неконсистентный мусор. А с SDXL - вообще проблем нет, с первой попытки по сути.

>>528878
>>529074
>>529459
SDXL - это не NAI-based модель, она не понимает теги с данбуры, ей надо писать обычный человеческий текст, она с ним куда лучше справляется чем с другими вариантами. Если с этим руками плохо выходит, то можно юзать трюк из пейпера DALLE-3 и просить LLMку улучшить и дополнить свой промпт эпитетами, это на эстетику в положительную сторону влияет.
Аноним 26/10/23 Чтв 01:18:35 529550 438
>>528943
Даже ультрадетализированный содержательный фон с перспективой без мыльца можешь?
>>528988
Нет, возможно ее файнтюны откуда еще им взяться с этим бы справились, но сама херь выдаст.
Аноним 26/10/23 Чтв 01:50:24 529559 439
>>529550
Мыло видел только в niji journey и ранней модели от Linaqruf, а чтобы убрать, достаточно написать в negative, + добавить лоры, и всё. Сэмплер euler может иногда делать мыльно.
На фон и детали есть лоры slider, adjuster, хотя и без них выходят годные. Мне вообще норм и с мылом.
Аноним 26/10/23 Чтв 21:59:30 530086 440
Вопрос - есть ли какая-нибудь хитроёбаная метода, чтобы задать SD референс одним изображением, но при этом указать какие именно фичи из него извлекать? Что-то типа IP-Adapter, но чтобы например можно было промпт вписать "такой-то объект" или "такой-то цвет", или "текстура асфальта", и он извлечёт это и использует как референс.

А то все методы что я пробовал, извлекают всякую рандомную херню, но только не то что мне нужно. Может попробовать потренить кастомные IP-Adapterы? Там 22 млн параметров всего, по идее не должно быть слишком дрочно
Аноним 27/10/23 Птн 00:01:15 530173 441
>>530086
Короче я почитал пейпер IP-Adapters и они говорят что эта шняга должна быть генерализуемой, т.е. управляться с основного промпта (или что там у тебя вместо текста выдаёт кондишионинг). Типа, если в промпте есть "велосипед", и в референсе нарисован велосипед, он будет склонен его рисовать как в рефе.

В общем если подумать оно действительно плюс-минус так и работает, но видимо пока недостаточно хорошо, нужно мутить ещё какую-то более сложную штуку для переноса концептов с рефа.
Аноним 27/10/23 Птн 03:33:46 530271 442
Аноним 27/10/23 Птн 03:40:33 530272 443
>>530271
>inpaint by example
А это как?
В любом случае вот например мне надо текстуру сменить у объекта с кожи на мех, или поменять форму с круглого на квадратное - инпеинт с таким не справится, тут нужен именно перенос концепта. Ну или лора/полноценный файнтюн, но там совсем другие заморочки
Аноним 27/10/23 Птн 04:14:26 530277 444
Кто-нибужь уже ковырял конфиги ультимейт СД апскейлера? Если да, то где в его ебенях стоит ограничение Target size type на 8192 пикселей и размер тайла с ограничением 2048? Если в 16к генерить, тайлы настолько крохотные выходят, что лезут артефакты.
inb4: Tiled Diffusion корраптит цвета, а ждать рендер, что бы поменять настройки и снова ждать, не вариант.
Аноним 27/10/23 Птн 07:14:23 530300 445
>>530277
Файл ultimate-upscale.py, строки 453,454,463,464
Аноним 27/10/23 Птн 09:44:20 530328 446
>>530277
> и размер тайла с ограничением 2048
Для 1.5 уже в таком размере херь, а ты еще больше хочешь, не факт от артефактов получится избавиться или не получить другое. Но всеравно по результатам отпиши что вышло.
> Tiled Diffusion корраптит цвета
Контролнет, постобработка в крайнем случае, в tiled vae сними галочки быстрого энкодера/декодера. Алсо для 16к там оче много рам потребуется.
Аноним 28/10/23 Суб 12:24:59 531043 447
>>530272
Это не автоматиком делается, это отдельный проект годичной примерно давности на обниморде.
Аноним 28/10/23 Суб 12:28:30 531047 448
Аноним 28/10/23 Суб 13:53:29 531088 449
>>478081 (OP)
Аноны, нужна ваша помощь. Хочу создать свою LoRA, но получаю ошибку.
Двач жалуется на спамлист, залил на пастбин https://pastebin.com/8jLgBg0N
Аноним 28/10/23 Суб 15:37:03 531125 450
>>531088
Во-первых, что у тебя за дрисня вместо скриптов кохи? Во-вторых, он пиздит что у тебя версии пакетов не те.
Аноним 28/10/23 Суб 16:37:09 531149 451
>>531125
>что у тебя за дрисня вместо скриптов кохи?
>он пиздит что у тебя версии пакетов не те
Я сделал git clone, потом запустил setup.bat. Он должен был установить нужные скрипты и зависимости.
Аноним 28/10/23 Суб 16:38:51 531150 452
>>531149
>>531125
Только сейчас понял, что установил github.com/bmaltais/kohya_ss вместо того что из шапки.
Аноним 28/10/23 Суб 16:40:16 531152 453
>>531150
Но он есть в шапке.
Аноним 28/10/23 Суб 17:08:42 531166 454
>>531152
Тогда почему он не работает? Я сделал все те немногие шаги что указаны в readme репозитория.
Аноним 28/10/23 Суб 17:25:42 531172 455
Аноним 28/10/23 Суб 18:58:13 531220 456
>>531172
> NVIDIA GeForce GTX 1080 Ti
> use 8-bit AdamW optimizer
Эта карточка не поддерживает этот оптимизатор. Попробуй "Lion"
Аноним 28/10/23 Суб 19:30:41 531230 457
>>531047
А, помню это. Ну это тоже зеро-шот экстрактор фич, да, их много (IP-Adapter, reference controlnet и т.п.), просто этот почему-то так и не достиг ни автоматика, ни комфи. Мне надо чтобы можно было указывать, что именно он будет брать из референса. Например прописываешь ему "эйфелева башня" и он копирует из референса эйфелеву башню. Прописываешь "композиция" и он копирует из референса композицию и пытается её применить. Прописываешь "текстура кирпича" и он берёт оттуда именно эту кирпичную стенку и пытается её всунуть в результат.
IP-Adapter пользуется на входе визуальным трансформером, распознающим концепты на пикче, и в принципе так и работает. Но через пень-колоду, потому что трансформер вытаскивает сразу все фичи что может, а ты потом задаёшь веса этого всего через кондишионинг. Нужны более дрочные методы и более качественные модели для распознавания.
Аноним 28/10/23 Суб 21:16:33 531312 458
>>531220
Спасибо анон. Абсолютно неприметная для меня опция, о которой никто не говорит.
Начал обучение для теста, не выбирая никакие дополнительные опции, из 24 картинок вышел файл на 9 мегабайт. Stable Diffusion его не видит.
Аноним 28/10/23 Суб 21:27:14 531317 459
Будущее - за мультимодальностью, dall-e 3 тому подтверждение.
ИИ следующего поколения будет понимать натуральный язык без тегов и токенизации, создавать по описанию + рефам любую пикчу и дорабатывать её по следующим уточнениям. Вспомните как в SD 1.5 пишешь red hair, blue eyes - а сэмплер делает наоборот, потому что в данных такая комбинация встречалась чаще. И добавляет эти цвета на другие детали. Совершенно костыльная архитектура, чисто на уровне обработки статистики.
Аноним 28/10/23 Суб 21:27:42 531318 460
>>531312
Теперь увидела лору. Странно что не с первого раза. Результат впечатляет: я не вводил никаких настроек но с третьего раза получил более-менее приличную картинку.
Аноним 28/10/23 Суб 21:31:23 531321 461
>>531125
>вместо скриптов кохи?
Лол, какие скрипты, когда на civitai есть такая-то годнота. За приглашенного юзера дают на двоих 1200 баллов (два трейнинга), так что приглашаю себя сам и еще сам себя лайкаю (кукущка хвалит петуха, лол)
мимо шел
Аноним 28/10/23 Суб 21:33:13 531323 462
>>531318
>увидела
Ты знаешь правила, сиськи (не нейронные) или пошла нах отсюда
Аноним 28/10/23 Суб 22:29:04 531351 463
>>531317
>Будущее - за мультимодальностью
Ты хотел сказать настоящее? Мультимодальные сейчас все новые модели, больше того датасеты даже пошли чисто синтетические уже. (пиксарт обучали на синтетике)
>создавать по описанию + рефам любую пикчу
Так оно давно уже есть, с добрым утром. Зеро-шот обучение и экстракторы фич это оно и есть. BLIP и ViT энкодеры, IP Adapter (самый продвинутый и контролируемый из всех), reference controlnet, paint by example, куча их. Они в зачатке, но работает, вон в SD треде аноны дракона со свиньёй скрещивают безо всяких лор.
>Вспомните как в SD 1.5 пишешь red hair, blue eyes - а сэмплер делает наоборот, потому что в данных такая комбинация встречалась чаще. И добавляет эти цвета на другие детали. Совершенно костыльная архитектура, чисто на уровне обработки статистики.
Это не "костыльная архитектура", это хуёвый датасет LAION и хуёвый текстовый энкодер CLIP. А "обработка статистики" это и есть интеллект, это было главное открытие NLP сделанное ещё 10 лет назад.
Достаточно просто юзать хороший датасет и приличный трансформер на входе, что показывает пиксарт, у которого понимание вполне приближается к далле, при этом тренирован он за копейки.
Аноним 28/10/23 Суб 23:27:26 531385 464
>>531351
Пиксарт это конечно хорошо, но трансформер на 4 c хуем лярдов параметров это пиздец немного.
Аноним 29/10/23 Вск 01:04:12 531430 465
>>531385
Там 11млрд, тот же самый что в DeepFloyd IF был (T5 гугловский). И этого вполне достаточно для отличного понимания промпта, ему же не рэп-батлы Шекспира и Гомера писать, он заземлён на датасет из пикч высокого качества, и используется лишь в качестве второй моды диффузионной модели, выдавая кондишионинг для неё.
Аноним 29/10/23 Вск 01:33:47 531443 466
1567491009183.png 12Кб, 364x260
364x260
Аноним 29/10/23 Вск 01:39:01 531445 467
>>531351
> приличный трансформер на входе
>Inference requires at least 23GB of GPU memory
Очень вкусно (нет)
Аноним 29/10/23 Вск 01:42:58 531450 468
1568339985072.jpg 25Кб, 542x542
542x542
>>531443
Нэ понел. Там же ссылка стоит на T5 1.1 XXL, а он 11 млрд.
https://github.com/google-research/text-to-text-transfer-transformer/blob/main/released_checkpoints.md

>>531445
Это же требования говнокода яйцеголовых, им лишь бы влезало на A100. SD вначале требовал 12 кажется ГБ, и со скрипом запускался на 10. Большую часть этой памяти занимает трансформер, его квантизованным до 4-8 бит надо запускать, а не в сыром виде. Или вообще на ЦПУ. Можешь помацать ноду для ComfyUI, там уже есть поддержка, правда сырая.
Аноним 29/10/23 Вск 03:28:19 531488 469
Я читал обсуждения про тренировку на разных сэмплерах, мол, модели тренированы на одних, мы пользуемся другими. Так это, у кохи можно сэмплер сменить? Чот я не видел рычага на сэмплер, на чём он тренируется?
Аноним 29/10/23 Вск 07:48:15 531530 470
>>531488
> тренировку на разных сэмплерах
Семплер - это реверс стохастического распределения. Они не используются при тренировке.
Аноним 29/10/23 Вск 13:59:24 531656 471
Эксперт по лорам для XL1.0 врывается в тред. Поясняю по теме всё как есть, что для чего.
Лоры могут быть легковесные (один определенный предмет, либо один персонаж) или тяжеловесные (стиль одного рисоваки, какие-то технические особенности для изображений). В первом случае бывает достаточно 32 dim / 16 alpha, иначе будет чрезмерно обученная (повторяющая одно и то же). Во втором, нужно как минимум 64 / 32, а лучше сразу 128 / 64, иначе толком не схватит стиль. Лучше лора весом в гигабайт но годная, чем весом в 30 мегабайт, но кривая. 128/16 не советую, сразу начинает срать под себя из-за высокого learning rate. Самое главное в МЛ это параметры моделей, благодаря которым ИИ условно "знает" что-то и "понимает" что-то - но у параметров должен быть и высокий КПД без мусорных нейронов.
Больше данных = лучше, для XL в особенности. Не верьте мудакам, кто рассказывает как они запилили годноту из 5-6 образцов - с таким же успехом можно использовать одну пикчу в контролнете. Попробуй подборку из 16 пикч, и в самом начале трейна будет оверфит: модель будет воспроизводить только один и тот же образец из датасета и больше ничего. 30 необходимый минимум, для персонажа лучше 60-100, для своеобразных стилей может не хватить и нескольких сотен.
Лучший способ подготовки данных - тащить с Danbooru программой imgbrd-grabber для винды, для этого нужно зарегаться и получить токен. Можно качать с Gelbooru, но там хуевые теги,+ не работает сортировка по качеству или дате). Метаданные сохранять как Separate log file, потом вручную (скриптом) добавить ключевое слово в начало каждого txt. Если модель уже знает этот предмет, то используй реальное название, а если нет - придумай короткое несуществующее слово. В настройках тренировки включить рандомное перемещение тегов, кроме переднего слова. Тогда лора будет лучше понимать, что на пикчах главное и что второстепенное. Иногда неплохо срабатывает добавление реальных фотографий в манямэ датасет (получится универсальная модель), но описания для них не обязательно основывать на той же системе тегов.
Аноним 29/10/23 Вск 14:13:22 531675 472
>>531656
> Лучший способ подготовки данных - тащить с Danbooru
Говно с бур - буквально худший датасет. Особенно если там каша из 20+ тегов. Нахуй иди с такими советами.
Аноним 29/10/23 Вск 16:09:35 531793 473
Снимок экрана 2[...].png 5Кб, 319x76
319x76
Аноним 29/10/23 Вск 16:19:21 531798 474
>>531793
Да сразу обновлять надо было. Шаред мемори контролируется на уровне приложения это раз, память освобождается при любом из medvram флагов в том же автоматике. Никаких минусов нет.
Аноним 29/10/23 Вск 16:23:17 531801 475
>>531798
Замедление итераций\сек в несколько раз норм что ли?
Аноним 29/10/23 Вск 16:37:54 531807 476
>>531801
Если кончилась память - норм, лучше чем перезапуск автоматика. Если не кончилась, никаких замедлений нет.
Аноним 29/10/23 Вск 17:24:23 531833 477
>>531656
Причина альфы = 1/2 дим?
> 32 dim / 16 alpha, иначе будет чрезмерно обученная (повторяющая одно и то же)
Уменьшение размерности при обучении сказывается эффективнее чем лр, шедулеры, ...?
> 128/16 не советую, сразу начинает срать под себя из-за высокого learning rate
Типа на xl большие альфы работают хорошо а просто больший лр без скейла - плохо?
> Больше данных = лучше, для XL в особенности. Не верьте мудакам, кто рассказывает как они запилили годноту из 5-6 образцов
Это для всех актуально ведь.
> тащить с Danbooru
Там же ведь даже с регой лимит по количеству тегов в поиске, не?
> Gelbooru, но там хуевые теги,+ не работает сортировка по качеству или дате
Сортировка работает, теги +- данбуру и больше зависит от давности арта.
Выходит ты дефолтными буру тегами для xl пользуешься?
> Иногда неплохо срабатывает добавление реальных фотографий в манямэ датасет (получится универсальная модель)
Хуясе ебать.

Честно не очень ты на эксперта похож, спорные вещи и совсем базовые, а важного не обозначит. Но может мы тебя просто не поняли и на самом деле сами не догоняем, ответь, пожалуйста, на вопросы, будем разбираться.
>>531807
Этого двачую
Аноним 29/10/23 Вск 17:40:58 531848 478
>>531656
> Эксперт по лорам для XL1.0 врывается в тред. Поясняю по теме всё как есть, что для чего.
Дай хоть пощупать свои лоры то, эксперт.
> Лучше лора весом в гигабайт но годная, чем весом в 30 мегабайт, но кривая.
Что мешает натренить на большом диме и потом ресайзнуть с минимальной потерей качества?
> 128/16 не советую, сразу начинает срать под себя из-за высокого learning rate.
Насколько высокого? Из опыта 64/16 на 1.5 с бешеным стартовым 4е-3 показал себя неплохо в приемлемые сроки тренировки с ещё несколькими дампенерами.
> Лучший способ подготовки данных - тащить с Danbooru программой imgbrd-grabber для винды, для этого нужно зарегаться и получить токен.
Для 1.5 с наи, для хл ты не сможешь так же просто заоверрайдить теги, там дедоязык.
Аноним 29/10/23 Вск 17:46:09 531850 479
>>531848
> 64/16 на 1.5 с бешеным стартовым 4е-3
График лр есть? А то если там только короткий пик между разогревом и спадом то это уже не то, но потенциально интересный прием.
Аноним 29/10/23 Вск 18:03:49 531854 480
>>531798
>Шаред мемори контролируется на уровне приложения
В треде автоматика на гитхабе написано ровно обратное.
Аноним 29/10/23 Вск 18:06:57 531857 481
>>531833
> Причина альфы = 1/2 дим?
Умственная отсталость. Альфа нужна для прожарки и против слишком мелких градиентов. Тот дурачок напердолил демпинга и очевидно оно нихуя не тренится, а вместо того что бы убрать демпинг въебал прожарку альфой. В итоге вместо ровного обучения получает обновление весов скачками, любые говняки всегда будут усиливаться в разы и ебать лору.
Аноним 29/10/23 Вск 18:14:09 531860 482
1670524888683.png 28Кб, 727x219
727x219
>>531450
Хм, по идее же наверное там можно на меньший T5 поменять просто если не влезает.
Аноним 29/10/23 Вск 18:41:02 531872 483
1557027942147.png 114Кб, 1660x929
1660x929
1665784139025.png 138Кб, 1658x1048
1658x1048
>>531850
Есть, пик1, но там какие то экспериментальные новые параметры были для лосса, продиджи кстати примерно такой же лр ставит с этими настройками на пик2, сейчас небось шизик из секты свидетелей нулевых весов сагрится, что нету градиентного спуска.
Аноним 29/10/23 Вск 18:48:15 531876 484
>>531860
Вообще пока скам какой-то, в ридми хуйня написана и модели пока даже не выложили.
Аноним 29/10/23 Вск 18:58:46 531883 485
>>531656
>Самое главное в МЛ это параметры моделей
>Лучший способ подготовки данных - тащить с Danbooru
Хуею с этих МЛ-экспертов по лорам уже почти год. Про данбуру вообще охуенно, с её часто насранными тегами, которые для SDXL неюзабельны в никаком виде и говнят нахуй понимание моделью промпта. Для XL для SD1 вообще-то тоже в 95% случаев половину нахуй переписывать руками надо и дополнять кучей проебанных тегов капшионы писать только или руками полностью, или делать синтетику автоматом.
> Если модель уже знает этот предмет, то используй реальное название
Что работает от случая к случаю и в зависимости от того что тебе от лоры надо.
>Лучше лора весом в гигабайт но годная
Лору весом в гигабайт ты в жизни не обучишь до полного её "забития" на тех датасетах и их объемы что обычно для лор используются.
>тяжеловесные (стиль одного рисоваки)
>тяжеловесные
>стиль
Я даже комментировать не буду.
Эксперты я хуею
Аноним 29/10/23 Вск 19:24:00 531904 486
Снимок экрана 2[...].png 85Кб, 1560x698
1560x698
Почему нет гпу и генерит процессором?
Аноним 29/10/23 Вск 19:47:01 531930 487
изображение.png 9Кб, 192x150
192x150
Аноним 29/10/23 Вск 20:34:37 531951 488
Аноним 29/10/23 Вск 20:48:48 531967 489
>>531951
>228 KB
Там ниху не килобайты, и явно там ничего никто не вызывал. У людей софт полез в оперативку сразу после обновления дров.
Аноним 29/10/23 Вск 20:59:33 531975 490
>>531967
Есть такое понятие, как поведение по умолчанию. По умолчанию драйвер берёт объем RAM, делит на два и пытается выделить это под шаред мемори. Если поведение не устраивает - есть возможность это всё перенастроить. Но это не нужно, поведение адекватное, логичное и полностью оправданное.
>ниху не килобайты
Это килобайты на 1 CUDA блок. У той же 4090 этих блоков 16 384
Аноним 29/10/23 Вск 22:29:42 532048 491
>>531656
>Самое главное в МЛ это параметры моделей
Самое главное это блять качественный датасет.
Аноним 29/10/23 Вск 22:31:09 532050 492
>>531876
Модели утекли в сеть, в комфи (и вроде автоматике) уже есть поддержка, см. >>530994 →
Аноним 29/10/23 Вск 22:32:04 532053 493
>>531975
>Если поведение не устраивает - есть возможность это всё перенастроить.
Окей, как мне это выключить?
>Но это не нужно, поведение адекватное, логичное и полностью оправданное.
Маркетолог куртки, ты? Это невидия обосралась с объёмом врама своего картона, что пришлось костыли лепить.
Аноним 29/10/23 Вск 22:39:34 532060 494
>>532053
Скажи спасибо индусам с их никчемностью, куртка даже этого мог не делать, и те кто сейчас медленно-но-верно что-то могут все также бы сосали бибу.
Аноним 29/10/23 Вск 23:07:52 532074 495
DeepFloydt5-v11[...].png 13Кб, 700x112
700x112
>>532050
Да ебануться блять
Аноним 29/10/23 Вск 23:23:50 532077 496
>>532053
>Окей, как мне это выключить?
Делай форк автоматика. В статье, на которую я принёс ссылку - есть код.
>невидия обосралась с объёмом врама
Ты не понимаешь. Если сделать много врам на пользовательских видимокартах, то нужно сделать ещё больше на сороковых. А если сделать дохуя памяти на сороковых, то A100 нахуй не нужны будут. А это основной доход невидии.
Аноним 29/10/23 Вск 23:51:09 532084 497
>>532077
>Ты не понимаешь.
Я прекрасно понимаю, что они жадные мудаки, ты мне америки не открыл. Но это не повод не называть их мудаками
Аноним 30/10/23 Пнд 00:11:16 532097 498
>>532050
М, спасибо. Про коми и автоматик чет не гуглится или у меня еблан на гугле.
Аноним 30/10/23 Пнд 01:35:20 532110 499
ComfyUI - local[...].png 675Кб, 1673x931
1673x931
4bitvram.png 3Кб, 415x123
415x123
8bitvram.png 3Кб, 415x123
415x123
>>532050
Запустил это поделие в комфи. При генерации 1024х1024 с использованием T5 bnb8bit расход памяти чуть больше 13Гб, скорость около 5 it/s. При использовании bnb4bit расход ровно 12Гб, скорость такая же.
Понятно что на текущий момент у модели очень маленький датасет и она очень слабая в плане композиции и понимании промпта. Но, если китайцы не напиздели, то в перспективе всё выглядит очень многообещающе.
Аноним 30/10/23 Пнд 02:18:07 532126 500
Niji-Special-an[...].png 1625Кб, 1096x1368
1096x1368
Time-Less-anime[...].png 1589Кб, 920x1608
920x1608
Reproduction8-7[...].png 1855Кб, 920x1608
920x1608
M1-multi-strapp[...].png 1766Кб, 1096x1368
1096x1368
>>531848
Я привел усредненные настройки которые срабатывают в 90% попыток, при этом превосходят дефолтные значения существующих скриптов. Пикрелейтед моя сегодняшняя лора на XL base 1.0. по простым настройкам без выебонов и с тегами Gelbooru.
Придумывать "крутые йоба-настройки" смысла нет, лучшее - враг хорошего. Если выкрутить lr на максимум, тогда например, сэмплер берет деталь с волос (заколку) и лепит ее на одежду, будто смысл лоры в этих деталях, а не в персонаже. Причем уже на втором чекпойнте. Про другие мокрописьки не в курсе, потому что трейню лоры в облаке (не в колабе).
Аноним 30/10/23 Пнд 02:42:22 532131 501
>>532110
Погонял тоже, выглядит в перспективе пиздец вкусно, да, но Т5-xxl это пиздец жирно конечно.
Аноним 30/10/23 Пнд 02:50:45 532133 502
Как думаете, что станет настоящим некстгеном и раскрытием потенциала - SD 3.0 с новым энкодером как в Dall-e 2 или SD XXL Pro+ Evo edition который трейнили на 2048p со сжатием латентов
Аноним 30/10/23 Пнд 02:58:00 532135 503
>>531883
>тяжеловесные (стиль одного рисоваки)
>тяжеловесные
Ну давай подумаем. Что лора запоминает для одного персонажа? Пару типичных деталей, прическу и шмот. Всего лишь концепт.
Что нужно запомнить для уникального стиля как Abe Yoshitoshi? Характерные искажения в анатомии, приемы в композиции, текстурные поверхности, соотношение различных форм, чтобы воспроизводить это по-новому в сэмплах. Стиль - это не цветовой фильтр, это дофига всего. Он должен подходить для любых предметов и сцен, а не только тех которые часто встречаются у рисоваки.
Аноним 30/10/23 Пнд 03:06:31 532136 504
>>532135
Зависит от стиля, объема и качества датасета. Стиль можно как и в 32 dim натренить нормально, так и хоть в 256 обосраться.
Аноним 30/10/23 Пнд 03:13:08 532141 505
>>532126
> Придумывать "крутые йоба-настройки" смысла нет, лучшее - враг хорошего.
С параметрами - да, с датасетом - нет, его нужно по максимуму улучшить.
> сэмплер берет деталь с волос (заколку) и лепит ее на одежду
Опять заколки, год назад боролись с ними, так и не закончили. А вообще не должна она лепиться на одежду, если на всех картинках она была на голове.
> сегодняшняя лора на XL base 1.0
Просто скажи зачем вообще нужен XL? Фурри чекпоинт имеет базовое 1024, ушёл дальше по технологиям в виде vpred+ztsnr, его тренить так же просто как 1.5 и больше того, к нему подходят те же параметры, что и к наи, единственный минус, придётся заговорить на собачьем. Из коробки может в хентай без лор. Вот пример того что я сегодня на нём натренил >>532140 →
Аноним 30/10/23 Пнд 03:29:07 532148 506
>>532141
> Фурри чекпоинт имеет базовое 1024, ушёл дальше по технологиям в виде vpred+ztsnr
Объясните для долбоеба не работавшего с sdxl
Аноним 30/10/23 Пнд 03:31:33 532150 507
Есть предложения что поменять в шаблоне перед катом?
Аноним 30/10/23 Пнд 03:47:59 532160 508
>>532148
Тут особо и нечего объяснять, фуррикумеры натренили на полторашке чекпоинт лучше, чем SAI своё дерьмо, которое ещё и фиксили лорой с нойз оффсетом, чтобы динамический диапазон цветов был лучше. Fluffyrock лучше понимает промпт, может сгенерить полностью белую или чёрную пикчу (тот самый рейндж), и может в хентай концепты и любого вида гениталии из-за обильного количества соответствующего в датасете. Минус в том, что этот файнтюн вымыл всё, что было в наи и привычные теги там не сработают, нужно искать на e621 замену, как для промптинга так и для тренировок. Но юзать его надо так же, лишь для тренировок, а генерить с Easyfluff или подобных его производных, как это было и с наи. Недавно анон кстати скидывал трюк улучшения любой модели в наи через изифлафф, он хоть и не перенесёт все фичи, но бустанёт модельку, не похерив совместимость с привычной генерацией, как на наи производных.
Аноним 30/10/23 Пнд 03:48:52 532161 509
>>532141
>Фурри чекпоинт имеет базовое 1024, ушёл дальше по технологиям в виде vpred+ztsnr
Толку с этого, если он не сможет ничего согласовать в HD через крошечное окно сэмплера? sdxl это не просто 4x разрешение - это эстетические слои, благодаря ним модель сама без пользователя знает что красиво, и как сделать художественно. А с рефайнером все же обосрались, потому что в finetune для него нет применения, он чисто для борьбы с uncanny valley.
Аноним 30/10/23 Пнд 03:56:11 532164 510
Посоветуйте новичку

1. Куда смотреть если я хочу не просто эмбеддинг, а трейнить полноценно модель на базе XL, используя Danbooru данные гверна? есть 14 GB GPU
2. Есть ли смысл соединить базовую модель с несколькими лорами, чтобы последующий дотрейн поверх нее был не booru дженериком, а кастомизированным так, как мне надо?
Аноним 30/10/23 Пнд 03:59:29 532166 511
>>532161
> sdxl это не просто 4x разрешение
> это эстетические слои
> благодаря ним модель сама без пользователя знает что красиво
> и как сделать художественно
Подобную индусятину с релиза не раз видел, но оно так и не ушло дальше нормальных файнтюнов для реалистик пикч.
Ты лучше лору свою залей на цивит например, раз она такая классная вместе с примерами, чтобы можно было прикоснуться к прекрасному.
> Толку с этого, если он не сможет ничего согласовать в HD через крошечное окно сэмплера?
Что вообще высрал?
Аноним 30/10/23 Пнд 04:02:17 532168 512
>>532160
> фуррикумеры натренили на полторашке чекпоинт лучше
Даже не удивлен. В очередной раз куминг продвигает ML.
Аноним 30/10/23 Пнд 04:03:27 532169 513
>>532164
> трейнить полноценно модель на базе XL, используя Danbooru данные гверна? есть 14 GB GPU
>XL
>14GB
Смотреть на аренду облаков с видеокартами или на ценники A100 в магазинах.
Аноним 30/10/23 Пнд 04:21:29 532177 514
>>532168
Настоящему МЛ где крутятся миллионы инвестиций - насрать на дрочеров, попены так вообще всё обложили фильтрами.
Аноним 30/10/23 Пнд 04:23:18 532179 515
>>532169
Вопрос был не про это, а про работающие из коробки скрипты как dreambooth.
Аноним 30/10/23 Пнд 04:38:09 532185 516
>>532168
Олвейс хес бин, кумеры на острие мышиного обучения.
Аноним 30/10/23 Пнд 10:08:40 532270 517
>>532150
Да ничего, инфы нормальной по пиксарту пока нет, надо ещё один тред дать отстояться. В следующую шапку уже точно придётся включать.
Аноним 30/10/23 Пнд 10:46:25 532282 518
>>532177
Ему не насрать, просто не хотят пиздюлей от рассерженых моралфагов получать.
Аноним 30/10/23 Пнд 12:43:54 532320 519
>>532160
Хм. В одном ИИ-дискорде видел реплику, что у фурри прям очень крепкое комьюнити и они ваще молодцы, офигенные вещи делают.
Не обратил тогда особого внимания, а тут такое.

Главный вопрос теперь - где скочать и пощупать? Что-нибудь простое, которое скачал, и начал генерить с теми же промптами, что и раньше, на НАИ и производных.
Аноним 30/10/23 Пнд 13:14:10 532337 520
>>532320
> ИИ-дискорде видел реплику, что у фурри прям очень крепкое комьюнити и они ваще молодцы, офигенные вещи делают
И не только ИИ они там делают в дискорде...
Аноним 30/10/23 Пнд 14:33:54 532369 521
>>532110
Так ей бумер промпт нужен, человеческий т.е., а не простыня запятых. Ты бы ещё мастерписов от грега рутковски напихал, ёба. Кто-то сравнивал как гигантский апельсин врезается в Нью-Йорк, SDXL нихуя не понимал, а эта штука учуяла своим трансформером.
Аноним 30/10/23 Пнд 14:42:27 532372 522
>>532369
Это промпт из примеров с их гитхуба (с небольшим отличием)
Аноним 30/10/23 Пнд 17:09:21 532419 523
>>532126
Ну типа сделать дженерик персонажа можно просто фейсроля не дефолтных параметров гуйни или шатая их в широком пределе. Для оценки, что у нее из особенностей кроме двойной-тройной-четверной (?) лямки трусов с одной стороны, ремня под бубсами и шипасных/гладких (?) наплечников? Показал бы гибкость своей лоры, с разных ракурсов и поз, с частичным или полным изменением костюма но сохраняя узнаваемость персонажа, на разных фонах, в сочетании с чем-то еще. А то ошибаться в мелочах, воспроизводить единичный ракурс из датасета и ломать фон еще на самой заре умели.
> сэмплер берет деталь с волос (заколку) и лепит ее на одежду
Что-то сильно поломалось значит, такого быть не должно. Или проблемы с текстовым описанием.
>>532141
> имеет базовое 1024
Если объективно, насколько он хорош в нем? XL в естественных для него условиях очень когерентен и четок, а тут? И по восприятию концептов подробнее.
>>532168
Тут вообще сочетание куминга с "притесняемым" комьюнити и некоторым фанатизмом, взрывная смесь.
Аноним 30/10/23 Пнд 17:53:07 532439 524
>>532320
> Главный вопрос теперь - где скочать и пощупать? Что-нибудь простое, которое скачал, и начал генерить с теми же промптами, что и раньше, на НАИ и производных.
Вот тут расписан алгоритм, как это сделать >>526434 → не все фичи перенесутся, в основном разрешение и послушность промпту должна добавиться, рейнджа не будет, потести вообщем.
> Хм. В одном ИИ-дискорде видел реплику, что у фурри прям очень крепкое комьюнити и они ваще молодцы, офигенные вещи делают.
Да, неприятно это признавать, особенно юзая аниме чекпоинты, но они более компетентны, чем sai, их чекпоинт просто работает и тренится легче.
>>532419
> Если объективно, насколько он хорош в нем?
Сколько не генерю, просто работает и не имеет артефактов присущих наи или его производным в этом разрешении, попробуй просто сам, всё сразу поймёшь, я тоже раньше плевался, меэх фурри, но зря, для аниме оно тоже годится.
> XL в естественных для него условиях очень когерентен и четок, а тут?
Это говно вообще ни в какое сравнение не идёт, оно просто не слушается промпта, даже трусы не могло нарисовать, спустя месяца полтора с релиза, сейчас уже вроде лучше, но нахуй не нужен с такими подходами.
> И по восприятию концептов подробнее.
Что конкретно? Сразу напомню, это простой кондишионинг с промпта в пару тегов с е621, с наи такое возможно только с лорами/кнетом/инпеинтом. Я пробовал простые хентайные концепты, которые на наи можно сделать только лишь с лорой, и то там бадихоррор будет, ну типо job_name, здесь из коробки работает, даже посмотреть со стороны работает, и не плодит кучу конечностей, только пальцы подхеривает, ну это такое. Ещё удивило, что хвосты тоже никуда не летают в 90% случаев.
Аноним 30/10/23 Пнд 18:09:04 532449 525
Аноним 09/12/23 Суб 00:07:29 567713 526
Я не силен в новуке, поясните: возможна ли нейронка которая делает по описанию уникальные видосы как на порнхабе, будто обычная поисковая выдача по тегам но все ролики сгенерированы ИИ? Или, в чем сложность ее создания?
Ответить в тред Ответить в тред

Check this out!

Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов