Stable Diffusion - Train
Ғылым және технология
Угадайка:
win10tweaker.ru/forum/topic/s...
Telegram: t.me/win10tweaker
Boosty (эксклюзив) ➜ boosty.to/xpuct
Где брать модели:
🔥 Deliberate: deliberate.pro
🔥 Reliberate: huggingface.co/XpucT/Relibera...
🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
Stable Diffusion плейлист: • Stable Diffusion
#StableDiffusion #Train #Art
Пікірлер: 628
На данный момент это видео является хорошей базой для понимания, однако, на данный момент мы полностью перешли на LoRA: kzread.info/dash/bejne/c2Vpr5ackrizZc4.html
@user-vh4pd2dp1n
Жыл бұрын
спасибо!
@MAX.VERAGO
Жыл бұрын
Благодарю за видео! Hypernetwork не могу найти кнопку, уже вроде все обновил и конфиги твои с бусти поставил, все равно там под кнопкой Generate у меня 5 иконок и одна кнопка (styles)
@yarikbeatz
Жыл бұрын
@@MAX.VERAGO под кнопкой generate средняя иконка show extra networks и слева при нажатии появится несколько вкладок. Вторая и есть hypernetworks.
@macaboyeasyfastproduction5431
Жыл бұрын
Выдаёт ошибку при Preprocess, какие есть варианты решения ? SD через Googl Colab (AUTOMATIC1111), Путь к папке указываю на ноуте ( на Google Disk тоже указывал и тоже ошибка) Ошибка выглядит вот так : FileNotFoundError: [Errno 2] No such file or directory: '/content/gdrive/MyDrive/sd/stable-diffusion-webui/E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1'
@macaboyeasyfastproduction5431
Жыл бұрын
а в полном виде вот так: Error completing request Arguments: ('task(b3e667en3wvtjil)', 'E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1', 'E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1\\trumpet1png', 1200, 512, 'ignore', False, False, False, False, 0.5, 0.2, False, 0.9, 0.15, 0.5, False, False, 384, 768, 4096, 409600, 'Maximize area', 0.1) {} Traceback (most recent call last): File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/call_queue.py", line 56, in f res = list(func(*args, **kwargs)) File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/call_queue.py", line 37, in f res = func(*args, **kwargs) File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/textual_inversion/ui.py", line 19, in preprocess modules.textual_inversion.preprocess.preprocess(*args) File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/textual_inversion/preprocess.py", line 22, in preprocess preprocess_work(process_src, process_dst, process_width, process_height, preprocess_txt_action, process_flip, process_split, process_caption, process_caption_deepbooru, split_threshold, overlap_ratio, process_focal_crop, process_focal_crop_face_weight, process_focal_crop_entropy_weight, process_focal_crop_edges_weight, process_focal_crop_debug, process_multicrop, process_multicrop_mindim, process_multicrop_maxdim, process_multicrop_minarea, process_multicrop_maxarea, process_multicrop_objective, process_multicrop_threshold) File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/textual_inversion/preprocess.py", line 146, in preprocess_work files = listfiles(src) File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/textual_inversion/preprocess.py", line 34, in listfiles return os.listdir(dirname) FileNotFoundError: [Errno 2] No such file or directory: '/content/gdrive/MyDrive/sd/stable-diffusion-webui/E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1'
Сломал stable diffusion, переустановил, час по новой надо галочки расставлять и все такое, сделал памятку) 5:48 модель 5:52 отключить HN 6:27 saves optimizer 21:09 все галочки Modules 22:46 название 23:04 overwrite на всякий случай 23:14 Create HN 23:26 Preprocess галочки не нужны для человека 31:06 Train Hypernetwork Learning rate 2e-5:800, 8e-6:1600, 5e-6 32:12 редактирование py.ui 37:02 max steps 3200-10000, количество фото 12-38 41:11 read parameters поставить галку 43:15 выбрать свой HN 43:35 папка с фото для обучения PNG 43:42 содержание файла custom 46:27 нажимаем Train custom.txt a photo of a [filewords] a cropped photo of the [filewords] the photo of a [filewords] a photo of my [filewords] a close-up photo of a [filewords] a close up photo of a [filewords] a bright photo of the [filewords] a cropped photo of a [filewords] a photo of the [filewords] a good photo of the [filewords] a photo of one [filewords] a close-up photo of the [filewords] a good photo of a [filewords]
@alan112223
Жыл бұрын
legendary
@blabber2539
Жыл бұрын
святой
@MrZuzlik
Жыл бұрын
у меня тоже SD сломалась после тренирвки( Ты не понял из-за чего? И как ее переустановить? Просто снести всю папку и установить снова?
@HAPKOMAHFACE
Жыл бұрын
@@MrZuzlik я обычно так делаю, да. Удаляю папку и по новой) А ломается когда как профессионал начинаешь в настройках копаться, вписывать всякие аргументы в батник и т.д.)
@K-A_Z_A-K_S_URALA
Жыл бұрын
23:34 указываем папки
2e-5:800,8e-6:1600,5e-6
Вот это да. Если ты продолжишь пилить такой годный контент по нейросетям, ты будешь самым крутым ютубером по теме, как минимум в РУ-сегменте. Мое почтение! Как же ты хорошо разобрался во всех деталях, во всех галочках. Круто что ты разбираешься сам во всем, а не тупо пересказываешь чужие туториалы. Короче ты крутой чувак.
@XpucT
Жыл бұрын
@Ruinskiy
Жыл бұрын
Запретят в снг. Власти сказали что дипфейки и такие картинки противоречат партии
@aurenis5979
Жыл бұрын
@@Ruinskiy эм.. если я не ошибаюсь то нельзя такое делать без разрешения посторонних людей... Себя для личного пользования и друзей для их личного пользования вполне норм. Да и пока ты не меняешь лица на порноактерах думаю всем пофигу на эти дипфейки.
@7gennews
Жыл бұрын
да, очень круто, а теперь по этому гайду, расскажи, что такое batch size, gradient accumulation steps, latent sampling methods =) Не получится, потому, что он половину всего упустил, много воды и сумбура, мало структуры, можно было бы сделать лаконично, по сценарию, с разбором важных вещей и без воды и без метаний то туда, то сюда. Мне, например, много вещей не понятно, от просмотра часового лайв монолога понятнее не стало. Прошу не расценивать меня как хейтера, просто отзыв человека, который на начальном этапе в разборе темы обучения нейронок, но немного понимает как работает обучение реальное. Исходить нужно всегда из задачи. прим. хочу обучить нейросеть на выдачу результатов в моем стиле. прим. Хочу ввести: Дуэйн джонсон на пляже играет в теннис в стиле 'мой_стиль'. Для этого нужно обучить нейросеть. Для начала нужно ознакомить с базовыми понятиями и терминами, объяснить что такое обучение гиперсети, как оно работает и т.д. (в кратце) дальше показать пример, есть вот обученная гиперсеть, заходим в текст2имг, пишем: Дуэйн джонсон на пляже играет в теннис в стиле 'мой_стиль' или Джеймс Кэмерон на марсе ездит на велосипеде в стиле 'мой_стиль'. Теперь приступим к обучению, хаходим во вкладку трэйн... далее все четко и по пунктам. Это так в моем представлении называется хороший гайд. А куча сумбура, пусть и с полезной информацией - это "крутой чувак", "вау", "ну ты шаришь", но никак не отличный гайд. Еще раз прошу прощения если слишком резко. Это я к тому, что не всегда восторженные возгласы толпы - показатель качественного обучения. Мб чувак не шарит в аннгглийском, пытался смотреть англ гайды нифига не понимая, а тут наткнулся на первое видео на русском и у него от этого факта восторг и хорошие отзывы, хотя он даже еще SD не установил.
@timkoplus
Жыл бұрын
@@7gennews я бы с удовольствием посмотрел ваше видео, где все четко и структурно.
Вроде бы видео сделаны просто и без монтажа, но при этом приятные и полезные. Спасибо!
@TheSchpuntov
Жыл бұрын
Без монтажа снимают только профи которые знают тему от и до)) им подписота просто до задницы, их распирает, от инфы))
Подскажите, пожалуйста, почему после Train не появляется Hipernetwork в меню: Script\ X/Y/Z plot ? Использую Google Colab. Может надо руками перенести созданные файлы?
Хачатур, спасибо, что делитесь с нами результатами своих исследований! Очень информативно, очень ёмко, максимально разжевано. Честно говоря кайфую от подачи материала - приятный, хорошо поставленный голос, расслабляющий музон на фоне, капелька юмора, можно слушать часами :) Многих спикеров приходилось слушать и хороших в том числе, но автор твердо обосновался на верхней строчке моего топа :)
@XpucT
Жыл бұрын
❤❤❤
Вы в видео несколько раз упомянули (например на 19:55 ), что файлы с описанием не нужны если обучаете предмет, но нужны когда обучаете людей, но потом так и не используете их, говоря, что достаточно "a man" прописать и не указывать, чтобы итог был гибким и мог делать любую одежду и внешность. В итоге они нужны или совсем нет? :-) И какой разброс допуска внешности фотографий? Лицо анфас и чуть вбок это точно, очков или каких-то посторонних предметов быть не должно, свет и цвет должны быть нормальными и примерно одинаковыми везде (чтобы не было какой-нибудь фотки из клуба с красным неоном на лице), нужно как клоузап лицо так и несколько (1,2, сколько?) фотографий ниже груди, нужен разнообразный фон (или лучше везде сделать белый как на паспорт?). Дальше уже вопросы, нужно ли обязательно разную одежду? И можно ли? Должна ли быть одна и та же прическа или стрижка? Должен ли быть открыт или закрыт рот? Нужны ли фото в полный рост? Всё это поломает трейн или наборот разнообразит его? Было бы здорово точно так же как Вы всегда делаете математически рассчитать и сказать что именно должно входить в идеальный батч для обучения, допустим, из 20 фото: 10 анфас как на паспорт с одинаковой прической как база, 3 фото анфас по грудь для гибкости, 3 фото с чуть повернутой головой, 2 фото с другой прической, 2 фото с улыбкой с зубами, 1 фото пьяного и спящего уткнувшись в подушку. :-D Чтобы чётко понимать какая должна быть идеальная подборка, чтобы получилось качественно, не считая мелких дефектов о которых Вы упоминали наподобие родинки-второго кадыка и вмятинах на черепе. :-) Я просто тоже люблю не наобум делать, тем более что у меня карта слабая (1060 6гигов) и у меня цена ошибки при трейне это целая ночь потраченная впустую, а мб и ночь + половина дня. Как обычно, это не какое-то требование, а пожелание, чтобы раз и навсегда все (как минимум мои) вопросы по изображениям для трейна закрыть. Есть ещё вопрос трейна определённого предмета, например огнестрельного или холодного оружия, или инструмента по типу топора лесоруба. Там все такие же правила или нет? Здесь или на Бусти.
@antonivanov5782
Жыл бұрын
согласен с тобой, интересно было бы узнать ответы на эти вопросы. Как обучать нейросеть на другие предметы, например одежду, интерьер, экстерьер. Должен быть один и тот же человек под разными ракурсами сфотографированный в одной и той же одежде, либо можно использовать разных людей, но в одной и той же одежде?
Мужик, ты просто ГЕНИЙ! Спасибо большое за твою работу! Колокольчик подписка однозначно) Ждем следующих видосов!
Потрясающие видео, очень понятно и очень помогает освоить эту тему. Спасибо!
Вчера только посмотрел выпуск про скрипты и уж не надеялся, что так скоро выйдет видео по train и вот тебе Серёжа... Спасибо Хачатур!
Огромное спасибо!!!! Пару дней мучался. Все никак получалось, чтобы нейронка так похоже начала рисовать. Благодаря золотой пропорции в настройках , которые вы указали , все отлично получилось!
@XpucT
Жыл бұрын
Спасибо за подробное видео. С радостью слежу за новыми выпусками)
Так это повод зайти в магазин, взять чаёк и печеньки. Вечер не пройдёт напрасно.
Ставлю лайк не глядя) Все просили и все получили) Спасибо!🙏
Спасибо за проделанную работу! 👍
Большое спасибо за информацию, обязательно буду пробовать. Буду ждать следующие видео.
Хорош! Спасибо что делаешь мир лучше!
Христ, спасибо за шикарнейшие видосы! Вопрос: в видосе использовали модель f222_v1, вчера качнул и использую deliberate_v2, можно ли обучать на deliberate_v2. Это первый вопрос. Еще один: можно ли отдельно обучить руки (фоткаем руки) и лица (соответственно лицо крупным планом). Ну и финальный: проходят ли встречи в мск, с удовольствием бы встретился и посидел)
Обалденное видео! Благодарю!!!! Так и знал, что опять всю ночь спать не буду :))
Сначала подумал, что будет какой-то шляпный видос полный воды на целый час, но по факту очень хороший, подробный и полезный гайд, один из лучших наверное по stable diffusion и вдвойне приятнее, что он на родном языке :) Автору точно респект
Крутой фотоальбом у тебя. Видео топ, про аи рассказываешь идеально!
Если сделаете видеоурок по тому, каким образом можно создавать концептуальные арты с одними и теми же персонажами в духе комиксов, это вообще взорвёт сеть, поскольку такого инструмента ждёт множество людей, которым хочется рассказывать свои истории, а учиться рисовать, осваивая новую профессию с нуля - уже практически нереально!
@ramilgr7467
Жыл бұрын
к сожалению, а может и к счастью) это пока не возможно.
Всегда поражаюсь, насколько все умные чуваки не умеют объяснять и учить других. Просто показать как проставить галочки и запустить тренировку никак, надо миллион раз отвлекаться и перескакивать с темы на тему, вываливать кучу информации и прыгать от одного к другому. У меня не создаётся папка "аванес" (назовем ее так), вскакивает сообщение "Created: None" и я час гоняю видео, чтобы понять что сделала не так и так и не могу поймать ход мысли автора, который объясняет мне все на свете сейчас и из всей этой информации я никак не могу выкопать зерно истины))))
@alexanderdan5187
Жыл бұрын
Не даром говорят: "Кратность - сестра таланта!"
@trappgwalla300
8 ай бұрын
Та же самая проблема, решили как убрать эту ошибку?
@ederato4473
7 ай бұрын
@@trappgwalla300тяжело не в тех случаях, когда автор все подробно объясняет, а в тех случаях, когда слушатель глупый, или не хочет подумать. Хачатур в комментариях написал для тех кто в танке что Created:none это норма. Да и тем более, неужели вам всем так лень посмотреть просто в папку, где должен лежать этот файл? Вы возможно удивитесь, но даже при этой надписи, он все равно создаётся, и трейн все равно будет идти. Просто делайте по инструкции от Хачатура, тыкайте то, что он тыкает, и не надо ни шага влево, ни шага вправо от того, что он делает, раз вы такие глупые. Эксперименты не для вас явно....
@your_china
4 ай бұрын
Согласен! Так - то, мужику в любом случае спасибо... Но из большинства роликов можно, как минимум, половину "воды" удалить, и они от этого только выиграют. Меня никогда не пугал размер материала, если всё по делу. Но тут оооочень часто просто ждёшь, когда же автор перейдёт к сути. P. S. Но опять же, я без претензий. Как говорится... Дареному коню в зубы не смотрят. Просто мнение)
@svetlanaklinova4876
2 ай бұрын
Проверено опытом: Если человек не умеет объяснить, значит он сам не до конца понимает тему. И подсознательно использует словоблудие, чтобы замылить пробелы собственного непонимания для себя и для слушателя.
Спасибо 👏 наверное за полгода первый ролик, который смотрел на Ютубе на нормальной скорости х1)) годнота👍 интересно как далеко шагнут нейросети лет через 5-10, может новые профессии появятся, промптеры по нейросетям, например))
@vadimkrs
Жыл бұрын
Я тут в Германии уже серьёзно видел объявление "Ищем Промптера для GPT-3". :)
@polloq
Жыл бұрын
@@vadimkrs вот вот👍
Жалко ПК слабый, но лучший сериал по Stable Diffusion продолжаю смотреть)
Кот так прыгнул, я думал сейчас Хачатура опрокинет вместе со стулом😂
@XpucT
Жыл бұрын
Боже, чувак спасибо. Ты и есть боженька, так что дважды спасибо
Спасибо за контент. Делал подборку что посмотреть для начала внучке, что бы самому всё не обяснять)) По поводу Указания возраста. Хотя вариант не абсолютное решение, но с указанием возраста я тоже намучался)) Моё решение, использовать при указании только подсказку пола и возроста. Вместо woman или girl, двадцатилетняя она))) - (she_20yo) или ((cute_she_20yo)) и т.д. Как правило получается наиболее близко к желаймому. Правда иногда приходится усиливать скобками, поскольку давит остальная подсказка, как правило подтягивая к некому среднему возрасту. Чем сложнее подсказка или отрицательная подсказка, тем сильнее нужно напрпвить внимание сети на возраст модели скобками.
Большое спасибо. Очень хотелось бы все же услышать как тренировать LORA. А еще о разнице между hypernetwork, VAE и обученными моделями формата ckpt.
@TRIPLEGLOCK
7 ай бұрын
В одном видео человек говорил что лору лучше не тренировать. оно того не стоит, но решать конечно же вам)
А у меня в настройках нет Hypernetwork, чтобы снять галочку...
Спасибо за вашу работу!
Эпичный прыжок кота :) Смотрю дальше, лайк уже поставил!
@XpucT
Жыл бұрын
Спасибо за очередной видос по нейросетям, не смотря на то что все кажется разжованным, пока смог только генерить нечто похожее на себя, а как сделать из себя вот этого злодея как на заставке так и не понял, как только добавляю что то в запрос уже становлюсь не похож на себя )) И все еще хотелось бы подобное видео по арту, например игровые мечи, автоматы или танки.... что бы можно было сгенерировать нечто новое... Но в любом случае спасибо за труд, тут один раз тренировал сеть 2 часа и то устал ))
@XpucT
Жыл бұрын
boosty.to/xpuct/posts/203b79e7-a98d-4b1f-a6d2-c80b52d904a7
Блин так круто. Я обучал ( пытался обучать и получается ну мягко говоря не очень) а тут все по полкам разложили. Вы сударь ВСЕОТЕЦ !!!! Респект. Было бы круто посмотреть как можно сделать видео ( нарывался на ютубе что делают типа клипы даже)
Супер, спасибо большое❤️
Да чтож такое, я лпять иду домой. А тут такая радость.
Ждемс следующего видео!
Привет, 👋 Как раз перед сном гляну =), будет круто, спасибо.
Респект за крутейший гайд! Вопрос: - Если я в очках, и хочу что бы я генерировался хорошо именно в моих очках... Датасет лучше готовить с фото где я исключительно в очках, или можно миксовать? или ваще лучше без очков? Я пробую по разному, но это мои первые модельки, и пока всё хреново получается )))))
Applying xformers cross attention optimization после окончания обучения уже больше 5 часов, интерфейс не запускается. Тренировал через гугл colab. Когда оптимизирует и стоит ли вообще ждать? Вообще когда тренированая модель считается законченной и можно отрубать скрипт, перезапускать и начинать пользоваться натренированной моделью?
Сергей! Реально все круто!!!) НО! Блин! Понимаю, что трудно обо всем рассказать. Очень важно осмыслить результат того, что в итоге получается, а вы так быстро перепрыгиваете с одного на другое, что не успеваешь понять и осознать что из этого вышло). Хотя заметил все программисты такие)))
Огромное вам спасибо! Единственный канал с годным контентом по этой нейросетке! В дополнение к уже отснятым роликам, я безумно хотел бы чтоб вы сняли тутор по созданию анимации, по типу "нейросеть показала историю мира" где поочередно сменяются картинки плавно перетекая из одной в другую, начиная от динозавров заканчивая цивилизациями будущего.. Как делать подобные шедевры? Лично я всегда поражаюсь, когда вижу такие ролики, думаю куча народу как и я ждут подобный тутор от Вас!
@XpucT
Жыл бұрын
Взял на заметку 👍
@user-hp5qh9gy2i
Жыл бұрын
@@XpucT Подскажите пожалуйста, а возможен ли рендер на нескольких видеокартах одновременно? Например на майнинг ферме
@XpucT
Жыл бұрын
@@user-hp5qh9gy2i не проверял ┐('~`;)┌
Блин, ссылку на артстейшн походу обрезало... Посмотри пожалуйста в комментариях на проверке =) Просто чтобы понимал, о чем я говорю. В общем =) Пишу еще раз, но без ссылки... Во-первых, большая благодарность за то, что записал такое подробное видео, а во-вторых - вопрос =) Если у меня есть 3D-модель, моя работа в полный рост, потом closeup и прочие. Как правильно тренить? Сразу кидать все ракурсы или отдельно - лицо, отдельно - туловище и отдельно - closeup глаз там, носа и так далее? Подскажи пожалуйста. Я сейчас кинул на 10 000 шагов и все ракурсы. посмотрю, что получается.. но мало ли =) на всякий спросил =) Хорошего дня и настроения!
Это надо же было так все запутать, кто захочет повторить хрен разберется :) Написал в prompt template - [filewords], а тренировал в папке без описаний, только с картинками
Хачатур, спасибо за видео. Супер информативно! Но есть вопрос. Не совсем понятно, как после тренировки генерить картинки с лицом натренированной модели. Может расскажешь нам, своим ученикам. Было бы круто!
Еще вопросик, если можно? Google Colab часто вылетает и прерывает тренировку молели, приходится все перезапускать. Можно ли дотренировать модель, например, с 4500 шагов, которые он успел сделать, до заявленных 10000 и закончить тренировку?
Здравствуй! Я понимаю, что моя просьба не имеет отношения к теме видео - но всё-же хотел попросить кое-о чём: Я думаю было бы полезно снять видео про флаги у Enum'ов (аттрибут [Flags]), которое было бы в плейлисте с уроками по C#, так как я заметил что некоторые люди создают куча полей типа bool, когда можно элегентно обойтись одной переменной с этими самыми флагами!
У меня получилось, правда со второго раза :) пересматривала видео два раза, вникала и пошагово выполняла. Просто хотела поделиться и оставить комментарий в поддержку канала.
Большое спасибо за уроки! У меня вопрос, как мне при последующей генерации сохранить телосложение человека? Если на всех фото для тренировки есть только лицо но нет фигура, как нейросеть сможет ее определить? Стоит ли грузить в папку для тренировки фотографии в полный рост?
Привет, потыкал дримбуф с твоей моделью работает хорошо, довели до ума наконец. Только одна проблемка. Нет туториалов нигде, каждый тыкает вслепую. Хачатур спасай интернет, ты нам нужен
Низкий поклон тебе Боярин !
Приветствую. Пользуюсь portable версией с Вашего канала. Два дня назад отлично получилось натренировать модель через hypernetwork по видео. Однако вчера хотел попробовать потренировать на другом человеке, но обнаружил, что из вкладки "Settings" пропали настройки hypernetwork и возможность его выбора. Также в script-> X/Y plot исчез пункт hypernetwork. С чем это может быть связано?
@adamiyy
Жыл бұрын
Перенесли, одна из мелких кнопок рядом с generate
И кто то ещё сомневается кто круче всех в этой теме??Я снимаю шляпу перед автором,моё почтение,материал подаётся настолько подробно что сами разрабы SD наверное столько не знают),плюс один поклонник,очень жду новых видосов по данной теме.
Здравствуйте. А на train можно тренировать только людей, или подойдут фоны без персонажей в простом мультяшном стиле тоже? Как я понял, create hypernetwork - как раз для меня подходит, то есть Train во вкладке train не нужен?
Спасибо за полноценный гайд, очень помог, результаты кстати на самом деле выглядят лучше по сравнению с dreambooth
Было бы круто увидеть гайд на обучение для моделей на основе sd 2.1 х768)
Хотелось бы посмотреть ещё про твои настройки внутри всех вот этих файлов программы и про стили
Ляяяя - мне нужно следующее видео!
Возможно, вопрос к последующим видео. Как научить нейронку рисовать двух разных персонажей в одном изображении , не используя dreambooth ?
А если я использую sd через google colab, в нем можно так же обучать свою модель? Если да, то как загрузить фотки? Через данный способ не получается 😒
Хачатур привет на 11-й минуте, где ты показываешь свои фотки, там тебя не узнать прям. Как всегда ролик крутой, респект.
интересно очень!
Спасибо за труды!!! Я даже Win 10 Tweaker купил. )))
@XpucT
Жыл бұрын
☝ Красавчик
Не могли бы вы рассказать про морфинг между между своими моделями в качестве видео. например из Светы в рыбу), через трансформацию форм. Если это возможно. Есть дополнение Deforum, но там очень тяжело контролировать данные и можно ли делать переходы между моделями. Спасибо!
Большое вам спасибо!!!
После нажатия "create hypernetwork" там где у вас выскакивает created и путь у меня "none" в чем причина?
Как всегда потрясающе. Посмотрел три видео на одном дыхании. Жаль только нет времени пробовать. Даже послушал некоторые комментарии. В частности очень полезный от Denis Evdokimov . Правда жалею что не делал скриншоты. Что теперь делать пересматривать заново, но уже на первой скорости И походу ставить все галочки? Нет какой-то возможности повторить всё одним махом? Может какой-то экспорт настроек от метро - Хачатура, или кого-нибудь другого. Чтобы нигде не ошибиться и по 100 раз не переделывать, а просто вставить свои фотографии и нажать старт.
Спасибо за видео! А как сохранить свои настройки train ? Каждый раз приходится ручками расставлять (при перезагрузке ui или перезапуске sd), сорри за глупый вопрос.
AssertionError: Training models with lowvram is not possible можете посоветовать, пожалуйста? Что делать
Какая актуальная модель для обучения на данный момент? Deliberate 2.0 подходит?
Хачатур, привет. Тестил OpenAi? Что думаешь по поводу него? Настолько ли прекрасен рай, как его рисуют? :)
@XpucT
Жыл бұрын
Привет 🖐 Если Ты про ChatGPT, то на Boosty выкладывал. Посмотри. Ссылка под видео 👍
во вкладке Train, отсутствует вкладка "Preprocess images" Можно узнать, почему?
@user-mg7zh3mq9y
15 күн бұрын
Вам удалось решить проблему? У меня такая же история.
спасибо большое за видео, не получается сделать обучение, запускается и пишет Training finished at 0 steps.
Так и не нашел где проверить или выключить Hypernetwork... Под кнопкой Generate нажал Shov extra а там во вкладке Hypernetworks: "Nothing here. Add some content to the following directories: C:\stable-diffusion-portable-main\models\hypernetworks" Вроде все скачал как было в видео. Куда дальше двигаться, как бороться? Спасибо за ответ :)
Вы спрашивали - какую тему в нейросетях вам осветить? Моё мнение такое, с тем уровнем погружения в тему, которая у вас имеет место быть - Интересует всё что вы осветите.
@XpucT
Жыл бұрын
большое спасибо за вашу работу, комментарий в поддержку автора
@XpucT
Жыл бұрын
Спасибо 🙏
круто , спасибо ,понравилось
Привет! Большое спасибо за видео. Есть такой вопрос. Видео было записано еще до релиза модели Deliberate, и hypernetwork тренирует на модели f222. Имеет ли смысл при создании hypernetwork сейчас использовать уже Deliberate?
@XpucT
Жыл бұрын
Привет 🖐 На данный момент людей и персонажей лучше делать в LORA. Посмотрите видео: kzread.info/head/PL05SB3rBbUsprkMgH3yDV12MuuIbO5KEq Оно так и называется LoRA. На превью традиционно Я в роли Джокера.
@Alexarhat2
Жыл бұрын
@@XpucT спасибо!
Гений нашего времени!
Хачатур, Добрый вечер! подскажи можно как то stable diffusion удаленно на телефон запускать, но без стороннего сервиса их? на локальный адрес что бы можно было заходить не только с основного пк на котором запущена
@XpucT
Жыл бұрын
Добрый 🖐 Пока не пробовал. Но запишу себе в заметки.
Привет, хотел задать вопрос, как отредактировать твой Negative prompt по умолчанию? Просто мне нужны другие параметры, а постоянно менять при запуске не хочется
@mikhail5402
Жыл бұрын
В папке файл stable-diffusion\ui-config.json> строка "txt2img/Negative prompt/value"
@risinik
Жыл бұрын
@@mikhail5402 благодарю
Подскажите кто нибудь. Я натренировал модель на себе. Всё сохранилось в hypernrtwork и как теперь теперь её использовать для генерации своих изображений?
Доброго дня, Хачатур. Такой вопрос. Когда создаю hypernetwork и потом его выбираю в трейне, у него не отображается контрольная сумма.
Спасибо огромное
Дядюшка Хачатур понимаю что вопрос не в том место но все же стоит ждать обновлений в Win 10 Tweaker? будет что то новое в функционале?
@XpucT
Жыл бұрын
Само собой. Постоянно обновляю. Просто пока видео не снимал по нему. А так, загляни в историю версий ➜ win10tweaker.ru/changelog 👍
Спасибо за видео . Вопрос, почему при припроцессе происходит бесконечное ожидание процесса ?
Здравствуйте, уважаемый Аванесян! Хотел выразить Вам огромную благодарность за Вашу инструкцию с подробной настройкой и акцентированием на всех важных мелочах! Мне по работе нужно было научиться обучать Stable Diffusion, я потратил более 8 часов на различные туториалы, как зарубежные так и на русском языке. Столько сил и нервов было убито в попытках заставить работать Dreambooth, её настройке и попытках разобраться во всём, столько переустановок SD и всё бестолку. У меня то выскакивала ошибка о недостаточной видеопамяти, то генерация начиналась, но была настолько медленной, что смысла не имела от слова совсем. Особенно если учесть, что последняя версия Dreambooth переработала интерфейс и доступыне параметры настроек, гайдов по которым ещё ни у кого нет. Да и не имеет смысла, так как на гитхабе жалуются что программа больше не работает на картах от 8 гб, даже с костылями по оптимизации (я пробовал всё). Я уже отчаялся и думал забить на всё, но тут случайно наткнулся на ваше видео... Вы дали ясность во многих моментах, которые я до этого не понимал, что оказывается всё намного проще чем я думал. Я сделал всё по вашей инструкции и о чудо, всё заработало! Генерация на 3200 шагов прошла за 30 минут, после чего никаких ошибок программа не выдала. Так как изображения я подготовил правильные и отредактировал по вашей рекомендации (убрал фон, отобрал правильные положения лица), итоговый результат потрясает! Это именно то, чего я хотел! По этому я хотел бы отблагодарить Вас донатом на Boosty. Спасибо ещё раз!
@XpucT
Жыл бұрын
Спасибо большое! Это очень приятно ♥
@umanskir.2
Жыл бұрын
Привет! У тебя судя по всему видеокарта 8 Гб?
@aearone
Жыл бұрын
@@umanskir.2 Именно так, 3060 ti
@umanskir.2
Жыл бұрын
@@aearone спасибо за ответ. Думаю, с моей 1060 6 Gb, всё-таки лучше работать с колабом.)
@dorian_erty
Жыл бұрын
так он же говорил не надо убирать фон. Или убирать? Или размыть? Я чето запутался уже
Приветствую! Спасибо за полезные видео! Пользуюсь Stable Diffision через Google Colab. Столкнулся с такой проблемой в настройках нет вкладки с hypernetworks. Провел тренировку модели, а как ее теперь применить, не знаю. Может кто сталкивался, подскажите решение.
@vasilyil1160
Жыл бұрын
Вы решили проблему? У меня тоже самое
Лучший!
Подскажите, как начать тренировку в версии stable diffusion UI v2.4.23 там только 4 вкладки: генерация; настройки; помощь и что нового ?
@XpucT
Жыл бұрын
Вы пропустили видео про Stable Diffusion Portable?
В последний версии hypernetwork вызывается через поле с Promtp-ами. А вы говорили о переобучении на основе старого фильтра hypernetwork, после обновления в ui так делать невозможно?
@XpucT
Жыл бұрын
Уже нет.
Кто-нибудь подскажите пожалуйста, а как на предметы натренировать? Чтоб он моделировал отдельно детали интерьера, чайники, микроволновки, ложки и пр.?
Привет! Я опытным путем выяснил, что тренировать имеет смысл разными пачками кейвордов последовательно, чтобы отсеять и по форме, и по содержанию шум качественно
Спасибо вам за урок!!! Планируете ли вы рассматривать Deform? Очень интересует данная тема. Для вас лайк комент по умолчанию
@XpucT
Жыл бұрын
Про Deforum говорил в предпоследнем видео. До практического применения Deforum не подрос. Пока это потеря времени.
Благодарю за инфу по параметрам обучения! Особенно за 12 портретов! Мои опыты показали, что этого достаточно для создания персонажа. Можно продолжать обучение удачными образцами из её же выдачи. Могу только добавить, что пара фоток не совсем анфас(15-45 градусов поворота головы) в этих портретах будет очень полезна. А можно ли при обучении добавлять в теги картинки конструкции типа "it is wooden" или "it is plastic"? И ещё - какие есть инструменты для массового добавления тегов? Мне ещё надо бы массовое извлечение в один файл, чтобы понимать в целом, какие конструкции она сама предпочитает использовать для пометок. Угарные теги она она иногда выдаёт, надо сказать. И euler - это Эйлер🙂
Спасибо за видео. Но у моей видеокарты не хватает мощей(( Сделайте пожалуйста обучалку для Гугл Колаб, понятно что на своем пк лучше без посредников так сказать и т.д., но тут выбор либо вообще не как либо колаб! Думаю не только я буду вам признателен в этом!
Благодарю!
Я, пожалуй, побил рекорд по пересматриванию этого видео. По личным ощущениям. У меня один раз получилось сделать классный гипернетворк. Работающий на 1-ом из пяти картинок. Но с 7-ой наверное попытки.
повторно смотрю и хочу еще раз поблагодарить за видео) сначала делала на своем компе - не вывез😵💫 в гугл коллабе все получилось.
@MrMavlad
Жыл бұрын
Скажите, пожалуйста, а у вас не было проблем с появлением hipernetwork в меню Scripts\ X/Y/Z plot после обучения? В папке на гугл диске результат убучения есть, но как подключить к обработке - не пойму!