Stable Diffusion тред X+56 ====================================== Предыдущий тред >>547173 (OP)https://arhivach.top/?tags=13840 ------------------------------------------ схожие тематические треды - технотред >>543635 (OP) - NAI-тред (аниме) >>545061 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Полный функционал в локальной установке (см. ниже)
⚠️ Стандартные модели stable diffusion (v1.4 - v2.1) от Stability AI значительно отстают по качеству от кастомных моделей (см. ниже). Модели SD XL ставятся и запускаются так же как и любые другие модели SD.
А нахуй кохйя нужен? Я в код не вникал, но судя по ноде, оно генерить ниже разрешение скрыто и потом просто переключается на высокое. Это же не какая та лора или модель которая фиксит проблемы, просто скрытие 1 дополнительной ноды.
Алсо, аноны что ли генерят сразу хайрез всегда? Зачем тратить время на генерацию мусора, когда можно быстро отобрать нормальную основу на ниже разрешении и уже потом её нормально доработать?
>>553650 Как я понял, он просто даунскейлит при генерации слои латента, отвечающие за композицию, благодаря чему sd 1.5 модель может генерить картинки разрешением 1280x1920 без серьёзных артефактов и расчленения объектов/тел.
Есть свои недостатки, на нативных маленьких разрешениях все равно композиция получается чуть лучше. Но и у апскейла как у отдельного шага есть тоже свои проблемы. Так, сложно сказать что генерация сразу на высоком разрешении в txt2img и генерация+апскейл взаимозаменяемы, потому что разница в получаемом результате чувствуется.
Ну а так, Deep Shrink еще часто используют в купе с LCM лорой, потому что ускорение от нее позволяет экономить на этапах генерации.
Одним из пока еще неосвещенных плюсов Deep Shrink является возможность делать инпейнт на разрешениях, которые раньше не поддерживали модели. Полезно тогда, когда нужно пофиксить картинку после апскейла, если конечно видопамять позволяет.
П.С. проблема одноебал не решилась этим методом, на пиках пример генерации нативно в 1920x1280 на модели EpicPhotGasm, но по мне такие лица лучше чем то, что получается после апскейла в хайрезе. Хотя мне кажется, что такие картинки с большой вероятностью бы проебались при апскейле в хайрезе.
>Зачем тратить время на генерацию мусора Просто некоторые еще научились генерить не мусор сразу.
>>553725 С дипшринком адекватность мелких деталей всегда сильно лучше чем с хайрезфиксом. Но с ним страдает детализация текстур, хотя можно повышением разрешения бороться с этим. > Deep Shrink еще часто используют в купе с LCM лорой С LCM наоборот лучше обычный хайрезфикс использовать чтоб детализации накрутить.
>>553650 >судя по ноде, оно генерить ниже разрешение скрыто и потом просто переключается на высокое Если сильно упрощать - так и есть, по дефолту первые 35% на низком. Только если ты попытаешься сделать это напрямую нодами, то это будет хайрезфикс и будет медленней. Допустим если ты первые 4 шага генеришь на низком, 8 на высоком, будет быстрее чем 12 на высоком или 4+8 хайрезфикс.
>Зачем тратить время на генерацию мусора, когда можно быстро отобрать нормальную основу на ниже разрешении и уже потом её нормально доработать? От мощностей зависит. Если я арендую 4090 или A100, мне проще ёбнуть всё сразу вместо того чтоб пердолиться чтобы хайрез не отличался от начальной генерации слишком сильно. Если генерю локально на 3060, можно и попердолиться.
>>553845 Я тут давно и тоже не понял. Но раз ты понял, стоит ли делать вывод, что ты местный семен, который сам себя постоянно хвалит? Или там какой-то скрытый смысл еще есть?
>>553850 С этой моделью все какое-то слишком реалистичное. Если делать фейки какие-нибудь, то подходит превосходно, но если что-то креативное, то возникает вопрос, зачем делать нейросетью то, что и без того существует в этой реальности. Кстати, по этой же причине вызывают вопросы рендеры голых женщин. Вот эта модель >>553992 выглядит уже лучше.
>>554234 Да, кстати, если взять тот же джаггернаут XL, то он отлично рендерит реалистичные вещи, например, женщину в баре, но если попытаться сделать что-то неординарное, например, сложные стимпанк гаджеты, то модель работает на уровне 1.5, но дольше.
Сколько по времени занимает генерация одного кадра на основе уже имеющегося? Например у меня есть рендер полигонального леса а мне нужно сделать елинки попиксельные и только елинки ( модель поменьше я хз , нуб) Чтобы в реалтайме листву дорисовывало. Видел ролик где как будто GTA реал лайф машинку и город генерирует, но где сами демо проекты, как их запускать, не наеб ли это сплошной ради шекелей и попилов?
>>554372 Так это то что в автоматике уже давно реализовано - плавное затухание дипшринка. Если хочется апскейлить сам латент до первого слоя - выставить 1 слой в экстеншоне.
>>554381 > это отличается от Deep Shrink Так оно и отличается только тем что теперь латент с затуханием апскейлится. С первых дней в автоматике это сделали.
>>554372 Отличие от ноды PatchModelAddDownscale в том, что прописываешь не итоговое разрешение, а начально, потом оно апскейлится на значение указанное в upscale_ratio. Кажется так удобнее и интуитивнее. End step он почему-то ставит меньше чем общее количество шагов, но можно и такое же (но не больше очевидно).
Start step стоит не с 0, что и ощущается, первые секунды прогресс генерации идет быстро и чувствуешь что генерится 512x768, потом скорость начинает замедлятся, но все равно быстрее чем при обычной генерации через PatchModelAddDownscale.
upscale_n_steps по всей видимости отвечает за то, как часто латент будет апскейлится в указанном промежутке шагов между start и end.
Пока выбор сэмплеров не велик - только euler, dpmpp_2s, dpmpp_2m и lcm. Но караси почему-то сильно мыляк, кажется работает только с normal scheduler-ом.
пик 2 - через Gradual Latent Sampler пик 3 - через PatchModelAddDownscale
>>554367 Если будешь пользоваться t2i adapters вместо контролнета, то должно быть не намного медленней чистого LCM (у чистого LCM челы сокращали до 70мс для 512х512 на 4090, со всеми оптимизонами). Кто-то в твиторе даже демонстрировал прогрессивный рендер сцены во вьюпорте блендера (как с рейтрейсингом). Для игр это пока не катит по скорости и мыльности, ну и темпоральной стабильности нет, даже в видеомоделях.
>Видел ролик где как будто GTA реал лайф машинку и город генерирует, но где сами демо проекты, как их запускать, не наеб ли это сплошной ради шекелей и попилов? Наверно ты про это. https://isl-org.github.io/PhotorealismEnhancement/ Это не наёб. Веса они не релизнули, но так-то похожих работ пару десятков есть, у этой просто самые стабильные результаты. А ещё есть подвох - это кастомная сетка, и тебе придётся тренить её каждый раз под задачу с нуля. Для диффузии нет такого пока.
>>554372 В общем, то ли это дело в соотношении сторон, но почему то ландшафтные картинки этим способом сильно мылятся. Хотя такого нет в обычном PatchModelAddDownscale в Комфи
>>553818 литералли multiple girls sitting in school,
>>554408 > сильно мылятся Ожидаемо, латент нельзя апскейлить больше одного раза, там же всё распределение шума ломается. Вообще не понятно что за шизу коха высерает.
Народ, есть какая прога для потокового удаления фона у пикч и изменения размера? Делаю ремастер для Валета плетей, апскейлю 2d тянок в стиль 2.5d моделью revanimated до практически 4к,овер 500 картинок, вручную это делать как то неохотно. Платные сервисы не предлагать, в extra неплохо bg удаляет но нужно потоком.
Подскажите какие модели и настройки использовать в Control Net для перерендера 3д модели в какой либо стилистике. Допустим есть пикрил 3д рендер, и я хочу чтобы сеть мне сделала этот же пикрил в диджитал пейнтинг или диско эллизиум стайле или смеси каких нибудь разных стилей с брашворком, но при этом не ломала пропорции, позу рук, освещение. Понятное дело придется по мелочам дорабатывать кистью в ФШ, но основу хорошую получить для последующего оверпейнта хочется. Если кто знает уроки/туторы на ютубчике или цивите как делать подобное буду благодарна.
Есть ли в ComfyUI какая нибудь нода задержки перед следующей генерацией, т.е. delay какой-нибудь? Хочу на всю ночь оставить генерацию с Auto Queue, но ноут гудит как паровоз и спать не дает. А так хоть будет остывать перед следующей генерацией.
Ребзя, я уже заебался. Не получается сделать людей разного роста, как указать у котого какой рост должен быть? Возраст игнорится, ребёнка делает размером со старика.
Потыкал я этот комфи, в прицнипе прикольно, но преимуществ перед автоматиком не очень понял. Все то же самое, только в другом виде и плагинов меньше, плюс визуально все сильно захламляется. Из плюсов разве что запускается чуть быстрее. По поводу плагинов - есть какой-нибудь редактор опенпоза нормальный? В менеджере нашел два, один так и не понял как должен работать, видимо недоделка какая-то, второй совсем базовый. Был бы неплох аналог из автоматика, который автоматом парсит пикчу из препроцессора и делает её интерактивной.
>>554398 Значит как приблизительно я и подумал что урезанная кастомная быстрее навороченной глобальной. Ясно, думал оно пиздато вот вот уже за поворотом, как шейдеры навернут в матрице.
>>555085 Если эти два промпта не помогут то твоя модель не знает пропорции лолей. , photo (by Alain Laboile:1.3), photo (by Sally Mann:1.0)
, art (by Anthony van Dyck:1.2), art (by Dorina Costras:1.1), art (by Jessie Willcox Smith:1.2), art (by John Singer Sargent:1.15), art (by Elsa Beskow:1.0), art (by William Adolphe Bouguereau:0.5)
Всем привет, уважаемые нейрогоспода. Кому не влом, можете на пикче "гномку" повыше сделать. но при этом сохранить сексуальность, похожесть одежды и столь же красивое лицо, а у девушки справа лицо сделать более выразительным (на ваш вкус), а то в одном из тредов мне предлагают на фриланс за таким идти и 1000 бачей отваливать минимум, это реально столько стоит? Я правда не в курсе
>>555393 >1000 бачей отваливать минимум, это реально столько стоит? Пчел ты максимум за месяц сможешь научится inpainting. Если нет 8гб vram видеокрты можешь использовать онлайн сервисы (платные). Но у тебя не только гномха низкая, а тянка справа наоборот дылда (если учитывать перспективу, то выше куна получается).
>>555408 Да, поэтому и начала, кому не влом. >10 тысяч, сделаю. >это реально столько стоит? >да Ну хуй знает. В пору тогда свой кирпич сменить и самому с этим ебаться.
>>>555471 >Но у тебя не только гномха низкая, а тянка справа наоборот дылда (если учитывать перспективу, то выше куна получается).
Гномка просто более выделяется. Эстетично картинку немного портит.
>Пчел ты максимум за месяц сможешь научится inpainting. Понимаю, но я кайф от этого не ловлю и учиться месяц(а я пробовал когда эта движуха только начиналась), чтобы хотя бы приблизительно сделать так, как на первой пикче... Всего ради одной пикчи...
>>555478 > назначили конкретную цену за работу > пришел просить, чтобы эту же работу сделали за бесплатно > А если без кривляний? Можешь? Ууууу. С таким подходом с тебя 2к зеленых нужно брать.
>>555457 О. чел, если бы всё было так легко) 99.8% всех лор это тупая хуйни, тупой хуйни, которая не умеет в элементарные вещи, как-то лево или право, наличие предметов в руках, а уж разница в росте и размерах это так, общие места... >>555261 >A1111 - https://github.com/opparco/stable-diffusion-webui-two-shot Куда мне это пихать, что-бы это завелось?
Гайз, просто ответьте на простой вопрос, какая лора больше всех подходит для релейтед (nsfw) артов без претензий на фотореализм, хуизм и прочий соцреализм. Что-бы была максимально послушна и адекватна?
>>555602 >километровая простыня она самая) И твоя картинка ясности не прибавляет) Всё, что я хочу это безболезненно вкатиться на какой-нибудь портативной сборке, что-бы не подпортить себе впечатления.
>>555603 Рост, лево, право, - контролнеты Предметы - инпеинтинг Лоры неизбежно подмешивают своё, я их использую для генерации объекта, потом через IP-адаптер с аттеншен маской переношу в основное. Так можно мешать разные модели и стили, кстати, хоть аниме с реалистик.
>>555606 > она самая) Сократи промпт до минимума, типа old man hugging a school girl, а потом добавляй всякой хуйни по чуть-чуть, по мере необходимости.
>>555606 >она самая) Принцип действия аттеншена в таких сетях - все токены влияют на все, а степень влияния определяется семантической и пространственной близостью друг к другу. (чем два понятия больше связаны и чем они ближе друг к другу в промпте, тем сильнее влияет). Поэтому если ты выдаёшь адовую портянку, в этом салате всё будет влиять на всё. Белая рубашка чёрные штаны - он запутается какого цвета рубашка, потому что она стоит рядом с "белый" и "чёрный", а рубашка может быть с одинаковой вероятностью и такой и такой.
Можно этого избежать, подключив большую LLM для анализа текста, так делают в DeepFloyd, Pixart-alpha, DALLE, и всех сетях покрупней, но требования резко вырастут. В SD есть способы указывать явно что на что влияет, избегая протекания одних токенов в другие (см. пост анона про cutoff выше), но они все работают через пень-колоду, по-моему.
Лучше просто вместе с промптом использовать другие методы, чтобы разгрузить его.
>>555604 Бля, по-моему ты троллишь. Или ты наркоман может? Я просто тоже где-то там живу, могли бы вместе упарывать. Да блять, это >>555132 в разы понятней чем это>>555146
>>555619 В разы понятней - недостаточно, если анон пришел дебагить свой воркфлоу с контролнетом, на котором невозможно определить, подключен ли вообще контролнет, и если подключен, то куда и какой. Поэтому в данном контексте, оба варианта равнозначно охуенны, с точки зрения читаемости. Блядь, одно дело, когда ты точно знаешь, что делаешь, и делаешь это для себя, а другое дело, когда ты пришел спрашивать совета, и ожидаешь, что экстрасенсы поймут нахуя у тебя один единственный рероут на прямой линии и нахуя 90% нодов валяются где-то справа, а потом возвращаются налево к ксамплеру.
>>555616 Чел, CLIP - это не текстовая модель. Проблема со смешиванием токенов в том что оно тренировалось на коротких словосочетаниях из пары слов. Архитектура тут не при чем.
>>555597 То, что анон написал. Мне проще автоматик поднять параллельно и в нем позы редактировать. Попробую портировать, но реализация урезанного плагина не вдохновляет - какие-то хаки на хаках и все равно через жопу работает.
>>555712 Таскать палочки по плоскости это же пиздец муторная ебля по сравнению с 3Д редактором, в котором есть перспектива, инверсная кинематика и библиотека готовых поз. К тому же в этой хуйне нет ни меша, ни карты глубины - нельзя управлять пропорциями перса и модель может повернуть скелет в любую сторону.
На сегодня существует ровно 2 быстрых способа изобразить нужную позу: нарисовать её, прям карандашом опенпоз хуяришь, или скетч, для этого надо уметь рисовать. Или сделать в 3Д редакторе. Всё остальное - 2Д палочки или ебля с даллевским рандомом - от лукавого.
>>555735 Мне наверно никогда не понять нахуя люди пытаются изобретать кривые велосипеды на базе перегруженного браузерного интерфейса во всех этих автоматиках с комфями, в то время когда уже всё давным-давно придумано и сделано 20 раз.
>>555746 Ты хотел сказать, перетаскивающий одно и то же из нормального браузера в ненормальный, в дополнение к которому у тебя всё равно ещё и нормальный будет крутиться на фоне.
>>555741 Не вижу проблемы с "браузерным интерфейсом", учитывая, что браузер и так запущен и немного жса явно будет легче, чем целый комбайн. Ну и вопрос даже не в функционале, хотя и в нем тоже, а в интеграции. Было бы гораздо проще автоматизировать получение данных и препроцессора, редактирование и отправку результата в пайплайн не выходя из интерфейса.
>>555751 Для блендера есть приблуда, интегрирующая комфи прямо в его нативные ноды. https://github.com/AIGODLIKE/ComfyUI-BlenderAI-node Не пробовал её, правда. Может ещё что-то есть, я бы не отказался. А так просто F12, оно рендерит, файл обновляется. Наверняка должны быть какие-то ноды для перечитывания файла в комфи каждый раз, челы туда стримили вебкамеру вообще. В крито-фотошоповских плагинах и так можно ебошить не снимая свитер.
>>555611 Спасибо, я начал с самого главного. Я не знаю как у Спилберга, но у меня привстал) Появление серёжек удлиннило и закурчавило волосы. Всякий раз рулетка, сапёр на максималках)
>>555888 >Но там неудобно, что скелет растягивается, когда перемещаешь руки\ноги. Его можно как-то зафиксировать в размерах? Так есть же инверсная кинематика. Ступню переставляешь и остальное автоматически переставляется, сохраняя пропорции. Или садишь на жопу, и он автоматически ноги подгибает. Там вроде только руки тянутся, чтобы пропорции менять. Как-то можно зафиксировать, но я недостаточно знаю блендер, надо доки почитать, где-то должна быть галка.
>>555858 >Ты специально такой стиль сделал? Это wonderfullcartoon, могу поделиться если что), его выпилили с цивитая, я спецом выбрал его для некой ирреалистичности, реализм только обсирает всё, попробую смешать его с чем-то, но только не знаю с чем пока) Почему именно карас? Что у тебя в качестве основной лоры? Как девчёнку без всего развернуть к старику спиной?
>>555916 Вопрос, как блядь это всё отодвинуть отзумировать? Я у себя указываю full body shot, но этого мало ноги по колени обрезаны, ума не приложу, что делать с этим!
>>555953 >сам всё делает чего делает, так и я могу) Ты сделай, что-бы от макушки до пяток вся полносттью помещалась, и ещё место оставалось, до бесконечности картинку вытягивать тоже нельзя, будет торс и лимбы удлинняться.
>>555963 >как здесь палочки Там нет костей, но ты можешь юзать регдолл-модели, типа тех, которые юзают скульпторы и 2d художники для наглядности, или вообще заказываешь эти куклы на алике, и сам вручную их выставляешь у себя на столе, фоткаешь на телефон и потом с них импейнтишь) Как тебе такое?))
>>553620 Персонажа на второй опознал по количеству пальцев - это Ельцин. А на четвёртой кто? Охлобыстин? Навальный? Кто из них, кстати, иноагент и чем они отличаются?
Старики шикарны, но вот кобылушки, это отдельный пиздец, именно на их ёблах стейбл и решил резко перекурить)
Кто-нибудь, чисто для семпла ебаните, что-бы старик обнимал девушку стоя строго сзади (не как-то блядь сбоку-хуёку), а именно, сука, сзади шоб...
На картинке: попытка пока-что полностью провалена, стоят на пионэрски почтительном расстоянии, при команде (very close) stand behind the girl, старичёк лишь кокетливо подгибает ножку, и это охуеть как смехотворно, я уже начинаю угорать и тихонько подозревать, что используемая модель тупо SFW, помню как при попытке указать, что рука должна быть чуть ниже талии, девчонка резко отстраняется)
И ещё один вопросец, что-бы не искать на каком сиде, что появится, можно-ли задать дипазон сидов, допустим в 50 едениц и ебануть побырику в 5-10 шагов примерную табличку и таки найти там интересные сиды, а не тыкать каждый раз по одной, я конечно прошу прощения за такое, но я вот тока-тока вкатился.
>>556854 >что-бы старик обнимал девушку стоя строго сзади Используй для такого чисто анимешную модель. Реалки не дадут нужных поз простым промптом. Потом снимай результат контролнетом в свою модель.
>>556854 >И ещё один вопросец, что-бы не искать на каком сиде, что появится, можно-ли задать дипазон сидов, допустим в 50 едениц и ебануть побырику в 5-10 шагов примерную табличку и таки найти там интересные сиды, а не тыкать каждый раз по одной.
>>556854 > но вот кобылушки Хуй знает, может референс хуевый был. Ну и размер ебла на пикчах слишком мелкий, чтобы нормально нарисовать, без инпейнта. > что-бы старик обнимал девушку стоя строго сзади Думаю, для такой хуйни нужно canny или softedge, ибо с промта хуйня.
>>556875 >можно-ли задать дипазон сидов, допустим в 50 едениц и ебануть побырику в 5-10 шагов Можно. Семплеру DDIM нужно мало шагов. Шедевры с 12. Больше бессмысленно.
>>556887 >с промта хуйня Но ведь у меня почти получилось, одним-лишь промтом, наверняка на каком-нибудь сиде это всё есть, просто я заебусь протыкивать каждый так...
>>556887 >размер ебла на пикчах слишком мелкий нормальный размер.
>>556980 Euler A - кстати говоря, самый отстойный в плане взаимодействия и скупой, одежда - говно, поставил просто Euler и дедуля взял внучку за руку, поставил: DPM++ 2M Karras и он за талию её взял, как сука я и пишу в промте. И платье охуенное, есть транспарентность из промта.
>>557036 >И платье охуенное И, да, Euler A постоянно лепил какие-то ебаные воротнички, постоянно плечи голые закрывал, хотя сука в промте указаны naked shoulders. Эту залупу по ходу трейнили на какких-то монашках что-ли...
>>557358 Но ведь прекрасно видно что в его делиберейте никогда не бывало файнтюна, в лучшем случае там лоры намешаны. Это просто средняя полторашка, причём довольно мыльная, для конца 2023 года это вообще позор. А то что у него в карточке модели написано - пиздёж такого уровня толстоты, что хочется посмотреть на ебало тех кто верит в него. Про популярность вообще смешной аргумент - быдло хавает то что пиарят, а не то что реально хорошее. И в пиздабольстве хач преуспел, тут уж не отнять его умение обрабатывать лохов, особенно "обучающими" роликами, при том что от того что он говорит просто приступ кринжа начинается - тут рандомный анон из раздела лучше хача разбирается в СД.
>>557384 >>557401 Эпик, Реалистик-вижен. Хочешь сложную композицию - берешь XL типа джаггернаута. Хочешь 2.5D или порнуху - берёшь любую азиатскую или порнушную модель с цивы. Делиберейт не умеет ни в детализованный реалистик, ни в сложную композицию, ни в баб. Даже у самого хача в видосах только односложные фразы, на промпте сложнее трёх слов это говно сразу обсерается, а он как дебил сразу начинает свою любимую мантру "мням-мням ну вот идём в скетч и малюем, ролим сид, перерисовываем скетч и на десятую итерацию малевания получаем мыльного урода без фона".
>>557513 У тебя на пиках как раз и есть мыльная мазня. На бабах мыло легко детектить - нет текстуры кожи и волос, значит мыло. Вот держи лоурезы как у тебя, но без мыла.
>>557493 >порнушную модель с цивы Ну, допустим не любая. Любая, это не понять как, и на чём сделанная наёбка, которая нихуя не работает, и ничего не делает) А вот что-бы реально что получалось, таких совсем немного. Поделитесь плз ссылками на реально рабочие порнушные модели. Если не жалко)
>>557548 > реально рабочие порнушные модели Таких не существует. Голую тян тебе что угодно нарисует, а порнуху ничто не сможет. Там всегда будет такая хтонь, что встанет только у 14-летнего зумера, впервые увидевшего голую бабу. Лучше в Яндекс запрос забить, чем генерить порнуху в СД.
>>557589 >хачекал М-да, в сравнении даже со 2-м, 4-й хачебарейт, это какой-то бесконечный цирковой номер с глотанием шпаг. Кому сейчас усрались девки с волосами а-ля MD на абсолютно пустынных замыленых улицах в унылой позе, которые генерятся 2-3 токенами?
>>555858 Обьясни пожалуйста, что тут происходит, что делает этот скрипт? Зачем он дублирует значения указанные в семплере (кстати, внезапно, они у меня такие-же)?
Ты уже смотрел wonderfullcartoon, что скажешь? Я постоянно бьюсь с азиатщиной, у меня уже кончились скобки) Прямо наглядно при генерации видно, что на малых шагах всё ок, а потом хуяк-хуяк - вылезла китайская рожа, и всё обосрала.
>>557644 > в сравнении даже со 2-м 4 ещё промпт игнорит частично, иногда прям очень сильно распидорашивает мылом. А второй дегенерейт с ночью обосрался, остальные обосравшиеся похоже родственники этого говна, aZovya явно клон этой помойки. Такое ощущение что это файнтюн на синтетическом датасете из той же сетки, от такого как раз происходит так называемое "catastrophic forgetting". Для experience replay специальные алгоритмы есть, так просто кормить сетку своими же генерациями нельзя. Или хач реально лору на МЖ-говне в 10+ эпох ёбнул. >>557680 > всё ужареное на семплах в галлерее, очень мало света и он ебанутый У Эпика детализация одна из лучших среди полторашек, но он любит распидорашиваться, да. >>557685 Самую мелкую. fp32 и EMA-веса тебе не нужны для генерации.
>>557658 >что делает этот скрипт? Выхлоп имг2имг прогоняет еще Loops раз. Раскрывает суть используемого в данный момент чекпоинта. Форореал - будет еще фотореальнее. Аниме - будет анимешнее. Мыло - будет мыльнее.
>>557978 >Мыло - будет мыльнее Разъебашиные глаза ещё более разъебашинными, ты не думал о том, что каждый раз он фейс-рестор врубает автоматом, и ты даже его выключить не можешь никак, по итогу там после 30-ти проходок глаза глядят хуй знает куда вообще)))
>>557990 > ты не думал о том Я думаю, когда смотрю на результат. Вот результат работы скрипта. "Не мыльное" мыло стало не мыльным. Не 32 шага, а всего несколько. >>557543
>>558044 >всего несколько. Тут с глазами ок, несколько это не 30) Но, тем не менее эфект вырезанности есть, особенно на левой картинке, фигура девушки, как-бы более выпкклая.
>>555146 Приступил к копированию твоих спагетти, занятие не из простых. Не понятно, что куда подключается, половина нод скрыты. Непонятно какой промпт.
>>555146 >>558259 Я не знаю троллинг это или нет, но вдруг кто-то туториалы пропустил - помимо экспорта жсона, в картинках хранится метадата воркфлоуов. Сосач их скорее всего режет, но можно грузить куда-то еще, а не ебаться со скринами.
>>558260 >Сосач их скорее всего режет Известный факт.
>а не ебаться со скринами. Можно ставить ноды в нормальном порядке и делать их такого размера чтобы надписи не съедались. Тогда и ебаться не придётся, и самому автору всё будет понятно (через месяц, когда он забудет что там и как).
>>558212 Нет, так ты только скачаешь исходники xformers. Если ты вдруг решил собрать их, то тебе потребуется еще установить компилятор (MSVC Build Tools), установить CudNN, запустить сборку python setup.py bdist_wheel И установить собранный пакет cd ./dist pip install ./xformers* (тут нужно полное имя собранного пакета, например xformers-0.0.22.post7-cp310-cp310-win_amd64.whl)
Но судя по тому, что ты не понимаешь что делаешь, то тебе проще просто установить готовый пакет через pip ./venv/scripts/activate pip install xformers==0.0.20
Либо не пользоваться xformers, а использовать opt-sdp-attention
>>558264 мне высерает вот такую ошибку, мол у меня версия питона слишком высокая (хотя сегодня утром такого не было). я удаляю 3.11 питон, ставлю ту версию, которую оно просит. пытаюсь запустить - "у вас нет нужной версии питона, нужно обновиться до 3.11"
>>558268 >>558269 разобрался. оказывается, у меня почему-то пропала совместимость большинства лора с версией стейбл дифужена, надо было галку поставить.
но встал другой вопрос. почему пропала совместимость? у меня версия 1.6.0, на гитхабе она указана как последняя. почему только что созданная мною лора через civitai не совместима с версией, которая указана как последняя?
>>558315 Запускаешь в папке где у тебя стоит SD (stable-diffusion-webui она называется у Автоматика, а как у хача не знаю) командную строку Пишешь посточно ./venv/scripts/activate pip install xformers==0.0.20
>>558333 Нет. В баб умеет, но в мыльноуродливых. Даже клоузап с красивыми зубами не нарисовать нормально. Разве что с IP-адаптером развлекаться, он лучше чем на полторахе.
>>558340 >50 фотографий хватило бы и 30-ти, главное что-бы все разные с разным светом и микровыражениями. Хач в каком-то относительно недавнем своём видосе рассказывал как трейнить.
Я тоже люблю мордатых) Но брови чёрными было-бы прикольнее.
>>558635 Та же говнина, что и 99% всех этих ебучих лор-хуёр, нихера не работает, не понятно как эту залупу подключать. Покажи мне, может я чёто не так делаю, я хз уже...
>>558669 Очень слабо, у меня на 0.7 вообще ничего не происходит. На: 1.2 начинает рвать одежду, но юбку задрать не выходит) Вот это более-менее: https://civitai.com/models/47460/windyupskirt До 0.8 ебальце практтически не меняется, и да, оказывается у дримшейпера сделть красивую жопу это проблема) 8-я версия, надеюсь к 18-й версии это починят)
>>558814 >сочную В том то и дело, что мне НЕ нужен пердак на пол экрана, мне нужна: small ass, firm butt, tall, slender, fit, atletic body. Чтобы нарисовать сракотан бегемота много ума не надо. SD рисует такие жопы даже младнцам.
>>558814 Блять ну в твоем посте нет ни слова про то, что тебе нужна flat but, собсна, пробуй этот тег. firm butt это вообще как будто промт из машинного переводчика
>>558947 >>558960 Есть предположение, что TurboXL лучше понимает промпт и меньше глючит на сложных промптах как LCM, так как Стабилити специально зафайнтюнили модель под это, но страдает из-за малого разрешения в 512x512. Объединение TurboXL с LCM должно улучшить результат, по крайней мере благодаря поддержке cfg до 2.5, что позволяет модели также учитывать и негативны промпт.
>>558970 > TurboXL лучше понимает промпт По ощущениям как раз наоборот. Турба вообще как кал выглядит в любых вариантах. Никто не запрещает LCM наполовину брать и пользоваться CFG 3-4, имея генерации всё за те же 6-8 шагов.
>>559000 Ну результат не оче один хуй. 3 - дип шринк с двумя шагами - VAEdecode занимает дольше, чем сама генерация. Кстати, SDTurboScheduler - говно ебаное.
>>558141 Как и во всех мини-йоба-быстрых моделях - он местами рисует ничего так, местами - хуйню. И как seed не тасуй - атака клонов регулярная. Wuerstchen аналогичную хуйню рисует.
Неофит. В старом треде наткнулся на эти арты... кто этот создатель? Мастера SD не подскажете что за модель используется, какими промптами сие залы с эльфийками получить... Хотя бы модель, если кто знает. Я, блять, просто в восторге от этих работ...
ребзи, возможно ли превратить данный рендер в реальную девушку, тоесть типа тоже самое только через имдж ту имдж прогнать и сделать допустим более реалистичную кожу, но вот с ебалом будут проблемы. Кто то может попроьовать?
>>559101 хотя я так посидел подумал... по сути... можно взять любую базовую реалистичную всеохватывающую модель. Накидать туда lora разных, на одежду, эльфийские ушки, фэнтези и т.д. и далее уже дело техники... правильно вводить промты.
>>559017 А причем тут сосисочка? Она же вроде не быстрая. Проблем у сосисочки две - 1) она явно недотренирована и 2) там латентное сжатие охуеть (что позволяет им тренировать задёшево, но приводит к шакалам иногда)
>>559130 Так там тоже можно. Причем можно несколько окон захвата одновременно включать и кормить ими контролнет. Хотя маску там не очень удобно делать.
>>559183 IPAdapter это не контролнет, это даун на автоматике его так обозвал зачем-то. Он меняет веса, т.е. действует по совершенно иному принципу чем контролнет, это скорее лора из одной картинки, выжимаемая без обучения через CLIP-ViT заземлённый на SD. Ну и от разрешения там ничего не зависит, IPadapter всё равно 224х224 пикчу входную принимает, лучше сам режь чтобы точно то что надо попало в кадр.
>>559239 Более одной пикчи подключать не стоит, если это одно ебло, положительного эффекта не будет. Но можно подключить две и более, например, одну с еблоадапетером, другу для шмоток или еще чего с обычным адаптером.
>>559243 >>559249 Не знаю как в поломатике, в комфи есть нода-энкодер, которая перегоняет несколько пикч в эмбеды для CLIP-ViT и получает что-то вроде кумулятивного эффекта. Если объект на всех один и тот же, то некий эффект есть. Ну и так-то можно последовательно несколько нод врубать, т.к. они находятся на Model сопле и просто модифицируют веса.
Также в комфи-реализации есть пиздатейшая аттеншен маска, можно выделить лицо любым сегментером и применять только на него. С ней можно даже мешать выхлоп разных моделей на разных объектах, например смешивать аниме персонажей с реалистичными.
>>559249 >последний Тогда можно сделать панно из 4-х, допустим, изображений. Таким образом можно ебашить 'лоры' художников из нескольких работ с характерным стилем, тогда охват будет качественнее.
>>559191 Это ты даун. CN - это кусок UNET, натренированый на другой нетекстовый кондишен. В IP-адаптере вместо кодирования текста клипом, кодируется пикча визуальной частью клипа. > IPadapter всё равно 224х224 пикчу входную принимает Это не адаптер принимает, а CLIP-препроцессор.
И что я делаю не так? Картинка там, само собой, загружена, просто показывать не хочу Почему он мне вырезает только фрагмент исходника, и по нему пытается лицо сделать (очевидно, неудачно)
Насколько реально делать видео в 25 кадров (6 фпс) в разрешении 512х1024 примерно с видеопамятью 6 гб? Это возможно вообще?
Насчет времени похуй, пусть хоть 3 часа генерируется, вопрос сам в возможности вообще это делать и не охуеет ли видео дифьюжен от такого малого количества видеопамяти. Оперативы 32 гб если что.
>>559560 >>559504 Могу сказать за animatediff. SVD думаю не сильно должен отличаться. Нужны карточка Nvidia, минимум 32 гига оперы и свежие дрова. Shared memory в настройках дров должен быть включен. Ну и модельки только 1.5. 3070 на 8гб рисует в animatediff 24 кадра без апскейла примерно за 3 минуты. Опционально можно включить уплавнялку и получить 24-32 fps.
>>559743 Что значит без апскейла? В плане какое изначальное разрешение ты ставишь? Если 512х512, то без апскейла хуево, если что-то в районе 500к пикселей на итоговом результате, но тормально
>>559748 480х640. 300к примерно. Если нужно большое разрешение - всегда можно сохранить генерацию в отдельные кадры, батчем их заапскейлить и сшить в видео/гифку вручную. И adetailer для лиц лучше не включать. Имхо лучше сгенерировать несколько вариантов в среднем качестве, но быстро и сделать апскейл лучшего варианта, чем все это время ждать одну генерацию и разочароваться.
Может ли видеокарта сгореть при интенсивной нагрузке? Ну в том смысле что если сильно и долго ее нагружать? Я так понимаю что при работе в основном горят банки памяти, никто, кто тут юзал СД очень долго, не замечал, что банки памяти могут потемнеть или испротиться?
>>559773 А СД вообще склонен перегружать видеокарту? Выше именно рекомендованных производителем значений. Я просто знаю пару примеров, когда программа могла слать нахуй биос с его возможно стоящим ограничением по нагрузке и и сжигала карту нахуй, какие-то видеоигры даже так делали, вроде Я просто хуй знает мне как-то страшно, когда видеокарта доходит до 100% использования памяти и сидит так с кайфом, вот как понять, больно ей или нет? А вообще банки серые У меня серые
Нашёл я как побороть безобразные пердаки. Методом тыка нащупал довольно мощный токен для подтянутой маленькой попки: (slim glutes) - значение до 0.8, больше не нужно.Далее, жилистое тело, как у балерин: (lean body) больше, чем 1.5 не рекомендую, получаются очень красивые накаченые, живые руки, ноги. Красивая спина: (blades:1.1). Здоровая худоба: (skinny:1.4). Но и свет конечно: (shining light).
>>559826 пиздец у нее ебало как у траля из 12-го года с папблика мемчики ААЗАЗАЗЗАЗАЗА ЛАЛКА 21-0 ЗАТРАЛИН У ТЕБЯ БАТРУДИНАВ БУДАПЕШТ БАГЕТ)))0000))))000000000 ЛОЛКА ДИЛАЙ САСАЙЙЙЙ)))0000)))))
Перегенерируй ей обтекатель в инпеинте ну это пиздец
>>559935 турбошиза, сходи ка ты нахуй отсюда, ты уже сука заебал здесь всех своей турбой. ты хоть с турбой, хоть без турбы, сделать нихера не можешь, дебила ты кусок. вот-жеж блядь, сверхидея у еблана...
>>559949 >прорыв Наебалово... С 1-й по 6-й - живые люди. это не персы. Киннект уже 3 года назад к Virt-a-Mate прикрутили, мокапов настрогали уже хер знает сколько.
>>559962 > не XL версию Turbo модели Да. Не XL, а 2.1-версию. Нахуй пусть идут эти шакалы. Уже скоро год будет с последних прорывов по качеству генераций, блять. Заебали.
Пачунасы, а где вы выкладываете свои художества? Как-то давненько пробовал инстапомойку вести, нахуй забанили лол Знаю только про артстейшн, а есть чего ещё? А то делать в стол как-то не очень, а так хоть не просто так конечно нет
Скоро догоним Д3. Это уже похоже на реальный прогресс, а не все эти lcm, и остальной турбо-хлам. DreamSync: Aligning Text-to-Image Generation with Image Understanding Feedback https://arxiv.org/abs/2311.17946
>>560011 > выкладываете свои художества? Такое кривое месиво даже здесь лучше не выкладывать. Хотя тут не твоя вина, сд модели за 1.5 года так и не научились нормально генерировать пики. Ждём ещё год.
>>560273 > А смысл? Тренировать всё равно никто не будет. Будут, с этим методом есть смысл, а вот тупо тренить на картинках sdxl как делают сейчас всякие джагернауты смысла ноль. DreamSync опирается на недавнее открытие системы оценки TIFA: большие модели визуального языка (VLM) могут эффективно выявлять мелкие несоответствия между сгенерированными изображениями и входными текстовыми данными. DreamSync использует эту информацию для обучения моделей T2I без каких-либо помеченных данных; он совершенствует модели T2I, используя собственные поколения. Во-первых, он предлагает модели сгенерировать несколько изображений-кандидатов для данного входного текста. Затем он использует два VLM для выбора лучшего поколения: модель визуального ответа на вопросы, которая измеряет соответствие сгенерированных изображений тексту, и другую, которая измеряет эстетическое качество поколения. После выбора мы используем LoRA для итеративной точной настройки модели T2I, чтобы направить ее поколение к выбранным лучшим поколениям. DreamSync не требует каких-либо дополнительных комментариев, выполняемых человеком. изменения архитектуры модели или обучение с подкреплением. Несмотря на свою простоту, DreamSync улучшает как семантическое соответствие, так и эстетическую привлекательность двух моделей T2I на основе диффузии.
>>560287 > с этим методом DPOK от гугла уже пол года есть, код обучения есть, но никто так и не попытался даже. А тут вермишель ещё больше, васяны такое 146% не осилят, тем более без кода ценность этого только на красивые картинки в pdf посмотреть.
>>560244 >эпикиреализм Одно лицо на всех моделях, даже "Том Круз" не спасает. Одни модели годны для реализма, другие для арта, и почти никогда для всего. Арт - дримшейпер (с оговорками), Реализм - Киберреализм и Эпик. Всё...
>>560228>>560287>>560295 Ну это просто другой метод генерации синтетического датасета. Что авто-теги бери, что разницу между тегами и пикчей - оно всё равно опирается на стороннюю VLM, которую тоже хорошую надо иметь. Все тащемта и так на синтетике давно тренируются.
Думаю, что не я один такой в треде с 2gb vram. Так что спрошу. Кто какие оптимизации юзает для ускорения генераций, кроме LCM? Интересуют как общие, подходящие к любому UI, так и специфические для ComfyUI.
>>560338 > метод генерации синтетического датасета Чел, это reinforcement learning, никакой датасет там не генерируется, там реварды. А на синтетике только дауны тренируют.
>>560394 > Что вы хотите-то вообще? Тут местным шизам нужна целлюлитная прыщавая 4к текстурка кожи, это главный критерий. Остальное вообще значения не имеет.
>>560396 >А на синтетике только дауны тренируют. Блятьлол, так весь этот метод чистая синтетика, на схеме нет никаких сторонних входных данных кроме промптов на натуральном языке (и даже их можно через LLM сгенерить).
Тащемта абсолютно все в наши дни делают на синтетике, даже примитивный боору теггер это уже наполовину синтетика, лоры-слайдеры чистая синтетика, пиксарт, сосисочка, и все современные модели тренились на синтетике (выхлоп MJ в частности), я уж не говорю про далле-3 с его хитроёбаными кэпшенами. Правильно сделанная синтетика работает хорошо.
>>560228 Какое-то скрещивание знаний визуальной и генеративной модели. Пайплайн выглядит тривиальным, попробую-ка портянку для койевского скрипта забабахать. Можно взять CogVLM для визуальной части, GPT-4 для языковой.
>>560702 > Его специально так сделали, в качестве демонстрации. Нет лол. Тут есть один шиз с 4090, и ему неприятно генерить меньше чем на 100 шагах, типа зря покупал, поэтому он постит все люто пережаренное
>>560541 >dyed Судя по пикрилу почти не работат. У меня красит волосы в жёлтый цвет, становится похожим на циплёнка. Темноты не добавляет, пробовал на разных, варианты Dark:, night, dusk, black - нихуя не работают.
>>560713 >низком денойзе. Работает, но не везде (только на реалистик моделях): (dark blonde:1.4), дальше красит одежду, на картинке максимальная "тёмность".
>>560148 Раздвоение и мутации тел и персонажей пофиксили, используя метод Deep Shrink от Kohya нейронка уже может сразу генерить через txt2img картинки разрешением выше стандартного без таких эффектов, как голова на голову, тело на тело или сиськи на сиськи. https://github.com/wcde/sd-webui-kohya-hiresfix
>>560772 >таких эффектов Что-бы такого не было нужно самому голову включать, и подбирать соотношение сторон так, что-бы этого не случалось. Даже между full body shot и cowboy shot есть разница в соотношениях высоты и ширины.
>>560775 Просто кто-то знает как использовать современный противогаз, а кто-то продолжает использовать дедовский советский, ведь все новое нам НИНУЖНО.