Stable Diffusion - LoRA
Ғылым және технология
Portable LoRA ➜ github.com/serpotapov/Kohya_s...
► Boosty (эксклюзив) ➜ boosty.to/xpuct
► Telegram ➜ t.me/win10tweaker
► Discord ➜ / discord
🔥 Deliberate: deliberate.pro
🔥 Reliberate: huggingface.co/XpucT/Relibera...
🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
Плейлист Stable Diffusion: • Stable Diffusion
МОЯ ВЕРСИЯ Stable Diffusion: • Stable Diffusion Porta...
#StableDiffusion #LoRA #kohya_ss
Пікірлер: 1 100
*✓ НАИБОЛЕЕ АКТУАЛЬНАЯ ИНФОРМАЦИЯ ПО LORA СЕГОДНЯ В ЭТОМ ВИДЕО:* boosty.to/lergeyseonov/posts/c29517db-ce64-4f3f-8144-8d70961e642e?share=post_link
@darkjudic
Күн бұрын
спасибо, а всё же когда лучше использовать лору, эмбединг, гипернетворк или тренировку полноценной модели?
Ну, пора разводить девушек на 15-30 фото лица, а не эти ваши "нюдцы"
Thanks for taking the time, I'll eventually get through the whole thing, but at the moment, this has been a helpful perspective of what a LoRA is.
Абсолютное уважение за это видео. И за portable версию. Всё работает просто как часы, что для open source вообще и для экосистемы A1111 в особенности просто фантастика. Мало кто понимает, какой труд был проделан автором, чтобы все могли это поделать у себя дома.
Огромнейшая благодарность за такой туториал. Всё получается на ура!)
Просмотрел все видео на х2, голова кажется нагрелась и сейчас начну стрелять лазерами из глаз. Зарядился зарядом Хачатура. И кажется люди теперь медленно разговаривают. Но реально круто, инфа топ, спасибо! 🎉
@user-gl3ou4jg3u
6 ай бұрын
Других смотрю на х2 - это видео и другие на х1 и уже голова начинает кипеть) настолько погруженный автор в тему и такой концентрат сока дает))
@fox082
4 ай бұрын
Видео записано для коренных москвичей. Чтобы успевали понимать что к чему. Уральцы, например, сами по себе разговаривают и понимают быстро, примерно в 2 раза быстрее, чем обычно подбешивают москвичей. Уральцам лучше смотреть на скорости х2
Самое лучшее видео про обучение модели! Благодарю 🙏
Мега лайк! Спасибо большущее, за труды!
Респект и уважуха! Спасибо за детальное описание! Очень круто! Это просто магия.
Наконец-то дождались, инструкция по LoRA! Спасибо что прислушиваешься к просьбам подписчиков, это неоценимо)
Вот и я добрался с работы до видосика!!! Ты как всегда Зажег!))))
Божественный видос! Спасибо большое! Очень интересно побежал фоткать себя и друзей) Очень информативно и на самом деле коротко) Я смотрел на 1.5 всё очень понятно от и до конца. Спасибо!
Ахаха, обожаю эти вставки с дисторшном контент как всегда невероятно полезный, спасибо!
Шикарно. Благодарю вас
Титанический труд, шикарный контент. Этот час пролетел на одном дыхании. Количество полезной информации прямо запредельное. Спасибо!!
Дождался LORA. Услышал все что хотел. Спасибо.
Спасибо! учусь пользоваться SD по Вашим роликам, и только по Вашим рекомендациям! все четко и понятно, доходит быстро)))
Каждый раз, когда вижу новое видео Хачатура, радуюсь как ребёнок новому мультику)
Круто. Ждал ваш ролик по этой теме. Хотелось ясной-ясности, а то есть там всякие..☺️
Наконец-то !!!! Только сейчас смотреть начинаю, надеюсь поможешь как всегда, спасибо !!!)
Других смотрю на х2 - это видео и другие на х1 и уже голова начинает кипеть) настолько погруженный автор в тему и такой концентрат сока дает))
Жаль нельзя два лайка поставить, спасибо за сборку и видео! У кого не работает и ругается на [CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 8.00 GiB total capacity; 7.14 GiB already allocated; ] (как было у меня , видяха 1080 GTX) предлагаю сделать так: 1) протереть глаза и запускать трейн на вкладке Dreambooth LoRA =) 2) поставить Mixed/Saved precision : fp16/fp16, 3) optimizer на ADAMW, 4)лайк подписка Хачатуру
@vicdun12.21
10 ай бұрын
тоже на адам8 ошибку выдавало((( 1080Ti
@user-kc2lk2ub7v
8 ай бұрын
такая же фигня на 1080ТI, поддерживаю на таких настройках работает
@orgax
7 ай бұрын
Ошибка на 3070 была. Теперь виснет на 0% на 1 шаге, если это типа такая скорость то тренировка 30 картинок будет буквально полгода длиться, не понимаю что не так настроено
@joniharon511
6 ай бұрын
@@orgax у меня вовсе даже тренить не начинает, пишет что не найден xformers.
@Demonfrompripyat
2 ай бұрын
это всё понятно, но он сказал, что будет всё говно и оно так и есть. тоже 1080ti
Очень крутые гайды и все же есть вопрос смотреть каждый часовой ролик в поисках конкретной части долго. Однако вот есть вопрос у меня есть модель которая была тренирована на основе другой модели и я нашел более крутую модель на которой хочу переучить текущую. Есть ли у вас где то гайд или ролик где эта тема затрагивается. Спасибо большое.
Tremendous video, I love the cut through the BS style. I learned a tremendous amount from this video and in general all your videos. I need to translate and subtitle them but that even gives me more in depth information as I have the transcript as well :) Cheers XpucT!
@muhitdin5590
8 ай бұрын
Half of the translation will be just curses and butthurt 😂😂
@VitalikMc5
8 ай бұрын
It's boring to live on earth without knowing Russian language.😆
"...эпох, эпок - должно быть 1, иначе у вас будет ПОЛНЫЙ ЕПОК, если Вы выберете число больше..." 🤣спасибо за видео, на одном дыхании
Огнище!!! Хачатур и Сергей - мега спасибо! Лора - круть!
Просто- ОГОНЬ! Хачатур- это "делай как я". И это правильно. Молодца.
ура ура новое видео, вечер пройдет восхитительно 😘👍
Прошло уже больше 8-ми месяцев с угроз блокировки ютуба, что ещё сильнее подтверждает слухи, что ютуб не блокируют, только потому что ждут выхода нового ролика от Хачатура 👍
Хачатур, большое спасибо! Есть что проверить и попробовать)))
Хачатур, премного тебе благодарен понятно, просто, качественно, смешно, классно. учиться довольно приятно благодаря тебе
Спасибо, за ролик, как всегда всё чётко и по делу в отличии от многих остальных блогеров! Очень жду роликов по коллабу, т.к лучше тебя никто не объяснит.))
@XpucT
Жыл бұрын
Привет 🖐 Уже: boosty.to/xpuct/posts/987f6426-909a-4066-8429-8fd4f377728e?share=post_link
Спасибо огромное за portable Lora, а то с обычной установкой парился 2 часа, в итоге забил. А тут клик, клик и усе в ажуре. И как всегда крутая подача видео, для нормальных и тупых))). Живот болит от ржачки)) Все очень понятно, и результаты шикарные!!! Спасибо, от души!!
@K-A_Z_A-K_S_URALA
Жыл бұрын
приветствую слушай я вот все делаю по видео ...загружаю светлую модель голубоглазую..а выходят китаянки темные ..что делаю не так подскажешь?..уже 3 раза тренировал..и 16 фото добавлял и 20 и 30))не пойму(((
@ketrinkate
8 ай бұрын
@@K-A_Z_A-K_S_URALA та же история. уже несколько раз делаю и все бесполезно(
@Sekeluhaa
3 ай бұрын
@@K-A_Z_A-K_S_URALA @ketrinkate попробуй прибавить влияние лоры на максимум и убавь CFG Scale,я убавил CFG Scale на минимум и только так максимальный результат
@Sekeluhaa
3 ай бұрын
@@ketrinkateпопробуй прибавить влияние лоры на максимум и убавь CFG Scale,я убавил CFG Scale на минимум и только так максимальный результат
@K-A_Z_A-K_S_URALA
3 ай бұрын
хорошо благодарю@@Sekeluhaa
Вот это сейчас реально неожиданно было) не за горами анимация походу😅
очень здорово , у тебя есть терпение для своей страсти 🫡 успех
Хачатур, большое спасибо тебе за твой НЕВЪЕБЕННЫЙ контент И Cереге лютый респект за лору Салют из Торонто
@XpucT
Жыл бұрын
Такой вопрос, а если нужно обучить лору на длинных фото (512х768), то насколько испортиться результат если изменить размер в настройках? Или в таких случаях нужно расстягивать каждое изображения в граф. редакторе до размеров 512х512?
@XpucT
Жыл бұрын
Если весь сет будет из 512x768 и в дальнейшем генерация будет точно в таком же 512x768, то смело пишем в LoRA 512x768 - это то исключение, которое допустимо. Спасибо за вопрос.
@EZHEVNKA
9 ай бұрын
@@XpucT правильно же, что если лора обучена на 512х512 то при генерации артов 512х768 с использованием этой лоры, качество лоры будет не таким? или вообще лучше генерить без нее и потом в инпеинте подставлять?
Хачатура, спасибо за твои работы! Лайвхак ребята - Если у вас выдает ошибку - это значит вы не успеваете удалить папку sample, ее надо моментально как появилось удалять, тогда всё работает!
Спасибо за видеоуроки, пользуюсь SD очень давно, в том числе и Deliberate, но только недавно узнал, что у тебя есть канал, где я почерпнул много интересного, тк самоучка. Кстати, по моему опыту обучения лоры (после твоего видео пробовал разные способы), наилучший результат выходит при хороших качественных фото 512x768. И, если обучать с однотипных селфи, то кидать более 15-20 фото действительно будут лишним, но если обучать по разнообразным фото (разные прически, эмоции, одежда) + если у человека разные образы (например, фотомодель), то в этом случае допустимо и 35-40 фото, так даже результат будет лучше, наиболее близок к оригиналу. Но важно, чтобы выражения лица должны быть разные, плюс нейросеть копирует одежду, фигуру (что важно, если делаешь девушку) и разные причёски, что тоже потом даёт лучший результат.
Для тех кто будет искать - куда кидать LoRA.json 7:30 минута. Мало-ли. Так-то на видео виден путь. Но так будет полезней.
Про Эпоки зря так. Штука крайне полезная, и позволяет сравнить этапы обучения и выбрать наиболее удачный. (я обучал стилизованных персонажей. По достижению определенного количество шагов, трейн начинал становится хуже, и тут сильно помогла выборка разных эпох). Кроме того, это позволяет создавать некие точки сохранения, что в случае форс мажора можно будет начать именно с них, а не с нуля. Насчет размера, тут возможно уже претензия скорее не совсем актуальна, так как видео было сделано относительно давно, и модели обучаются на более высоком разрешении. Тут нужно уже смотреть на саму модель и информацию, на каком разрешении она обучалась. Но подъем до 640 уже разительно увеличивает качество последующих генераций. Ну и ещё, стоило уточнить почему (Папку нужно указывать где лежит папка с фотографиями) - это позволяет Лору обучить сразу на нескольких объектов. Т.е. по факту в один файл лора мы можем на обучении поместить, к примеру, сразу нескольких людей. Название же папки с фотографиями определяет тригерное слово обучаемого объекта. Возможность дообучить модель тоже крайне полезная и нужна не только когда (вы дурак и прервали обучения). Нужно к примеру, если вы делайте огромную модель, и используйте больше 100 изображений. Как если делайте определенный стиль или обучайте лору нескольким персонажам. И если у вас трейн прошел не совсем удачно и какие то моменты она подтянула плохо. (имеет смысл собрать ещё материалов с более наглядным внешним видом тех частей объекта, что нейронка не совсем корректно поняла). Я так поступил с лорой персонажа, которая нейронка съела вместе с одеждой и стала считать что одежда часть её тела. Я закинул в неё три удачные генерации оголенные модели, но с её анатомией и пропорциями. И после такого дообучения, лора стала более гибкая в подборе одежде к необходимому персонажу.
@dianaorion2
3 ай бұрын
Уважаемый юзер. А вы не скажете, где можно узнать, КАК продолжить обучать лору или модель, если пришлось трейнинг остановить? То есть я не знаю, какие файлы куда ставить, чтобы продолжить. Где-то есть инфа по этому поводу? (огромное спасибо, если ответите)
@user-zy9ov2vm8q
3 ай бұрын
@@dianaorion2 Заходите в раздел "Parameters" и ищите раздел "LoRA network weights", там кнопка в виде файла будет. В открывшимся окне выбирайте последний сохраненный сейфтензер с лорой. По факту, таким образом можно дообучать даже скаченные с интернета чужие файлы LORA. Только важно, чтобы параметры Network Rank совпадали.
@kail1672
18 күн бұрын
Если вы разрабатывали определённые стили, то можете пожалуйста поделиться своим опытом или дать ссылки на полезные руководства/справочники, так как сам хочу обучить модель конкретному стилю рисования. Буду очень вам благодарен.
Огромное спасибо! Лучший ролик по теме
Спасибо большое, очень полезная информация для новичков!
Досмотрел. Кайф (со вставок - тащусь от души). Для любителей «шоб с картинкою», типа меня, есть 2 способа (простой и совсем простой) добавить обложку для Lora: 1. Рядом с файлом, где находится тётя «Лора», кладете любую png картинку с таким же именем. Пример: iloveYourmomyLora.png 2. Генерируете картинку, открываете вкладку с «Лорами» в UI. и наводите курсор на название «Лоры». Над ним появится надпись «replace preview”. Вот на нее и кликайте.
Подача шикарна, как и материал....Ты сделал мой день, настроение супер
Превью суперское 🔥🔥🔥
На карте 1060 6gb почему-то не хочет тренироваться - не хватает памяти. В конце видео вы сказали, что запишете видос про Коллаб для тренировки. Посмотрел все видео на канале - такого не было. Может хоть ссылку дадите на безглючный рабочий коллаб для тренировки?
Огромное спасибо за ролик. У меня один вопрос, на который нигде не смог найти ответа. Есть рендеры меча в разных ракурсах. Реально ли как-то обучить LoRA, чтобы сгенерированные персонажи держали этот или похожий меч в руках?
Ну ты неимоверно крутой человечище! Особенно нравится подача и со знанием дела. Я сам тоже люблю закапываться в самые недра! Спасибо!
Ну неплохой гайд. Только есть один момент вы пошли по долгому пути. Там ечть вкладка tool. В которой просто также вставляете папки, папку с проектом и каличество проходов. Нажимаете сгенерировать папки и вторая серая кнопка отправить папки. И он распределит и создвст все как нужно.
огромное спасибо за ваше потраченное время👍👍👍
Спасибо, за "приветы")) Всё по делу👍
Как всегда прекрасен! Спасибо за проделанную работу! Смотрел видео от Оливио и других и вообще не вдуплил, как работает Лора. А тут прям в сердечко)
Существует ли связь между количеством материала для тренировки LoRA и ее итоговым качеством?
Спасибо за качественный контент!
Самое интересное, что я только думал как так сделать, чтобы не через руп. Ничего не искал. Но Ютуб знает что мне нужно. Не первый раз замечаю. ИИ уже работает в гугл и читает мысли. Лайк и подписка.
Спасибо за видео! Ждал от тебя эту тему) И по поводу имени японца (осторожно, японист в чате): если это именно японец и у него так и написано Kohya, то он будет по-русски записываться как «Коя». Там в чём фишка: буква h используется для показания долгого звука. По-японски транскрибироваться азбукой будет こうや, на транслите kouya, но по факту типа «кооя» с долгой о. Но суть в том, что в именах собственных приняли систему, где это длинное о будет удлиняться через h, как в междометии «oh». Но у нас по-русски при написании иногда удвоение опускают, а так Коя или Кооя будут одинаково правильными. А так обычно видят Х и говорят Кохя или Кохья без понимания этих нюансов. Решил об этом написать отдельно, раз ты поднял эту тему в видео. Очень ценю, что ты так внимательно к именам относишься!
@XpucT
Жыл бұрын
☝ Красавчик
@Reality-Games
Жыл бұрын
я его вообще костей называю) ему все равно а мне проще)
@morskoyzmey
10 ай бұрын
@@Reality-Games а Коля еще проще
@user-ss9ey9gh2v
10 ай бұрын
Выучить кану быстрее, чем эти тупорылые правила транслитерации. Видимо сидели проффесора и за гранты думали, чтобы ещё такое напридумать чтобы наукообразнее выглядело
Привет, я так понимаю программа обновилась и этот гайд бпольше не актуален?)
более доступного, с такой подачей материала я еще не встречал, огромное пасибо за материалы)))
проверил связку, хорошо работает спасибо
Премного благодарен! Отдельный респект за терпение и подробное разжёвывание для неспешных пацанов)
Если кто не понял что за папка такая "samples", которую типа надо удалять - не указывайте входную папку и выходную в одно и то же место и никакие samples удалять не придется. Ошибка из за того что во входной папке должны быть только папки для обучения, у которых в имени задано количество шагов, а в имени папке samples нет никакой цифры, отсюда ошибка. Если выходная папка будет другой то и samples будет создаваться там и не будет мешать обучению.
@SimonsCatSE
9 ай бұрын
Спасибо, начало хоть что-то делать, но теперь ошибку CUDA out of memory даёт, не знаю почему, видюха 8гб
@alexp2179
9 ай бұрын
@@SimonsCatSE для начала нужно оставить только изображения 512*512, только batch size=1 и взять невысокий network rank типа 32 или меньше и Alpha (они вроде тоже влияют на память)
@SimonsCatSE
9 ай бұрын
@@alexp2179 спасибо, буду пробовать
shnorhakalutyan ahagain ognecir inch asem maladec
Спасибо вам. Материал агнище
Вопрос: если тренировать на основе растений, нужно ли напротив этих 30 фотографий в текстовых файлах детально указывать, что на фото? Или СД сам разберет, где какой стебелек и листочек? Думаю, лучше спросить, чем делать большой, но, возможно, бесполезный кусок работы.
Спасибо за видео, я устанавливал руками все это раньше, вроде беспроблемно, был до 20 минуты вопрос установлен ли cudn для 30 и 40 серии, но молодцы добавили и это, снимаю шляпу) Про BF16 не знал, использовал с FP16 на своей 4070ti Данный способ был проще и быстрее для меня, чем прошлое ваше видео про Train Спасибо что тратите время как разработчик и разбираете то, чем мы пользуемся, обычный человек никогда бы не разобрался в некоторых моментов. Продолжайте дальше в том же духе! Для видео надо уже добавлять дисклеймер что любые перемотки вы совершаете на свой страх и риск, потому что каждая секунда видео на вес золота) Ваша подача и сам контент на 200% окупает мою подписку на бусти Всех благ, Хачатур!
Лайк и респект, не глядя!)
Крутяк, как появится время попробую
Тоже мне разраб, не может написать приблуду для автоматического увеличиения размера камеры при повышении градуса пердакагорения, все руками крутит 🥴 Шикарны видос, спасибо! 🥳
Огромное спасибо за видео! Очень подробно и понятно объясняется. А как происходит обучение сеток на основе визуального стиля художника? Когда полностью рисуются персонажи и окружение в этом стиле? т.е. с лицами понятно - нашёл 15-30 лиц персонажа и будет этот персонаж, но есть же сетки на основе работ комиксистов, например, и там любые персонажи и любое окружение в этом стиле.
Спасибо было очень интересно !!!!
тутор на час, все как мы любим))
Мастеру Хачатуру большое спасибо!
Могла бы подписалась три раза. Я так хотела портативную Лору. Потому что все что в интернетах, это не для обычного обывателя. И когда я почти дозрела до установки всей этой страшной фигни, такая радость.
@XpucT
Жыл бұрын
спасибо, долго ждал
Очень интересное и полезное видео, спасибо автору! Сделала все по пунктам из видео, все настройки как показано, но результат очень далек от того, что у автора. Очень сломанные лица, глаза плывут, голова не совпадает с телом( Может кто-то знает, где посмотреть как поправить или что может быть не так?
Хачатур, спасибо! Ты для меня новую вселенную открыл)) До этого я и в Миджорней баловался, зарегался в бета-тесте Леонардо, а тут оказывается эвона чо! Делиберейт + SD = потрясающая связка! Не смотря на то, что я актёр дубляжа, уже три дня сижу и генерирую, как дэбик картинку за картинкой и не могу остановиться. А теперь еще и Лариса подъехала (то бишь, Лора) Продолжай в том же духе, очень с юморком, грамотно и интересно рассказываешь, а главное - суть без воды. Суть от разраба, а не от неофитов.
"От эффекта ДаблЁбл никто не застрахован" просто вынесло Бля лучший учитель
Спасибо большое за видео !
Ты супер красавчик и мой кумир. Это так надо снимать видосы.
Пожалуйста, подскажите, как сделать режим использования видеопамяти более щадящим? Не хватает памяти, пишет. В видеокарте установлено 4Гб (понятно, что маловато) RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:81] data. DefaultCPUAllocator: not enough memory: you tried to allocate 1638400 bytes...
Устанавливал строго по инструкции. В интерфейсе отсутствует вкладка "dreambooth Lora". Пробовал запустить training во вкладках "dreambooth" и "Lora" - процесс всегда прерывается ошибкой "returned non-zero exit status 1" . Перепробовал все способы и опции, указанные здесь в комментариях и на других форумах - ничего не помогло. Если кто знает решение - напишите, буду благодарен.
@titaniMOZG
3 ай бұрын
Так же фигня. Читал, что в память упирается, но у меня 3070 и в диспетчере не вижу, чтобы память вообще как-то расходовалась активно.
@studiotrip9859
3 ай бұрын
в "Pretrained model name or path" укажи свой путь к .safetensors (у меня при открытии папки с моделями .safetensors файлов небыло и я просто дописал его название) файлам, ибо у меня по умолчанию стояло вообще E:/... хотя у меня даже диска E нет. Надеюсь вам поможет
@pgwglassmail707
2 ай бұрын
Закройте консоль SD. Она занимает память. Одновременно две консоли SD и лора не должны работать.
@user-wl6ut6uy2c
Ай бұрын
Нужно в параметрах Optimizer поставить на AdamW, и Mixed precision на fp16, это более щадящие настройки для компа (для более слабых видюх), мб ты еще что-то неправильно поставил, но у меня были эти ошибки
Как же нравится бомбёж, Бальзас на душу.
Хороший видос. Умный мужик. Подписался.
хотелось бы видеть для расширения собственного кругозора: 1) результаты работы ресторфейса 2) признаки перетренерованности нейросети
Не, ну это 10 епоков из 10👍
Лучший, спасибо большое)
Спасибо огромное, сколько читал статей, и как вы говорите смотрел видео для тех кому надо быстро, и постоянно сталкивался с какой то проблемой, в итоге решил посмотреть часовое видео и не пожалел, все работает как надо
@XpucT
7 ай бұрын
❤
@__Monaco
6 ай бұрын
@@XpucT прошу прощения если ответ есть в видео, но я три раза его смотрел - не нашел. Выпадает постоянно: A matching Triton is not available, some optimizations will not be enabled. Error caught was: DLL load failed while importing libtriton: The specified module could not be found.
@XpucT
6 ай бұрын
@@__Monaco какая видеокарта? LoRA и конфиг брали Мои?
@__Monaco
6 ай бұрын
@@XpucT lora и конфиг ваши. Карта nvidia rtx 3050 ti laptop
@XpucT
6 ай бұрын
@@__Monaco вероятно карта 3050 не поддерживает алгоритма AdamW8Bit. Переключитесь просто на AdamW.
Добрый день! Спасибо за видео! Не могли бы вы пройтись по теме ошибок, в частности как решить проблему с ошибкой нехватки памяти: allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF. Сколько ковырялся с этой ошибкой и лазил по форумам, заметил что возникает она и на слабых вилюхах и на RTX последних поколений и не важно какой объем памяти. Реально большая проблема. Буду очень признателен.
Интересное дополнение, сначала я кропнул лицо или тело на исходных фотках дабы избавиться от лишних предметов, потом перевёл в формат 512,512 ,отключил бакетинг, все сеттинги как описано Хачатуром. Получилось неплохо, но потом в качестве эксперимента я настал их переводить в 512,512, а оставил в высоком разрешении и включил бакетинг, модель оказалась в разы лучше! По времени тренинга практически одинаково.
@smiledurb
10 ай бұрын
Подскажи пожалуйста, а в настройках менял разрешение или использовал конфиг файл от Хруста без изменений?
@trendgiver
10 ай бұрын
@@smiledurb В настройках у меня было стандартное 512 х 512. Я в последнее время вообще перешёл на lycoris, очень советую поэкспериментировать, там результаты порой получаются круче. Плюс я также заметил, что captioning, тоже играет немаловажную роль. И ещё, как и в случае нормальной лоры, если много картинок, то можно сократить колличество эпох.
Шикарный мужчина, шикарно всё объясняет
Ну наконец-то новое видео!
Ждём такой же подробный разбор как обучить чекпоинт
I watch you alote and I really dont understand what are you saying in Russia, but understand the process, i only watch the mouse haha ty bro
@eyoo369
Жыл бұрын
Same here, English subs would've been greatly appreciated
Спасибо за маты, сижу ржу. Таки в длинных туториалах приколы\маты то что нужно))
Подскажите, пожалуйста, при тренировке видео карта напрягается на 1-3% это нормально? Видюха RTX4070ti. В настройках оставил стандартные настройки из конфига вашего граального. Когда делаю фото для обучения, например, голова по плечи, могу ли я добавлять фото в полный рост что бы получить генерацию во весь рост? Или лучше делать отдельную модель в полный рост?
Пришел к блогеру за учением, а получил пиздюлей))) спасибо за видео!
Вопрос: после нажатия Train Model процесс бесконечно зависает на этапе "prepare tokenizer". Все настройки сделаны по руководству. Mixed precision и Save precision - bf16, т.к. видеокарта 2070 Super. WIN 10. В чем может быть ошибка?
@user-mo8ng7gq6n
Жыл бұрын
такая же проблема( Если получится выяснить как решить - напишите пожалуйста
@Viktor_Brig
Жыл бұрын
То же самое, только скачал, поставил как сказано, сверяясь с каждым шагом и зависает процесс . Возможно это свежий баг, до этого скачанная неделю назад версия работала, только результат фиговый получался, нерабочие модели получались, в то же время модели лоры на колабе все норм. Решил снести и поставить свежую портайбл версию и такая засада.
@Viktor_Brig
Жыл бұрын
Отключение брандмауэра и антивируса так ничего не дало, думал может виснет от того, что не может до этого токенайзера достучаться из--за ограничения сети, но похоже дело не в этом. Да, при закрытии выдает на несколько секунд инфу, ютуб все комментарии трет, при малейшем подозрении на ссылку, поэтому попробую текстом прописать: prepare tokenizer Traceback (most recent call last): File "путь к ranpy точка ру ", line 196, in _run_module_as_main return _run_code(code, main_globals, None, File "путь к ranpy точка ру", line 86, in _run_code
@konstantintokar8085
Жыл бұрын
Попробуйте поставить версию с гитхаба. Сейчас это сильно проще чем портабельная версия. Вообще SD так быстро развивается что такого рода проблемы выскакивают постоянно.
Хачатур, ты просто неподражаем! Мне как фотографу да это прям супер!
@91Zahor
Жыл бұрын
если не секрет, а какие задачи подобный инструмент может решать для фотографа?
Огромное спасибо за весь ваш труд с Сергеем. Очень подробно все рассказываете. Подскажите момент после удаление sample вылетает AssertionError: resolution is required / и чуть ниже CalledProcessError: Command '['D:\\LORA\\Kohya_ss-GUI-LoRA-Portable-main\\venv\\Scripts\\python.exe', где я накосячил?
@DrizztDoUrden-zn3ik
9 ай бұрын
Надо поменять вместо AdamW 8 bit просто AdamW
@eugene_ink9143
9 ай бұрын
@@DrizztDoUrden-zn3ik это работает если видяха 10серии и не тянет 8б. В моем случае помогла переустановка Лоры