Данная информация указана под готовой картинкой. Данное руководство основывается исключительно на моем опыте, здесь вы научите пользоваться webui от AUTOMATIC1111. Я постараюсь привести как можно больше примеров для удобного восприятия – вы без каких либо сложностей сможете повторить их у себя на компьютере. Вообще, если вы новичок в этом деле, то поначалу для генерации простых картинок можно вообще не использовать отрицательный промт. Но для создания более детальных и красивых картинок он необходим. Чем он выше, тем менее свободно нейросеть будет интерпретировать текстовое описание изображения, «додумывать» недостающие элементы и т.д.
Есть поля для ввода описания Prompt (2) и Negative Prompt (3), и есть область для загрузки изображения (5). Загадочная кнопка Interrogate CLIP в интерфейсе AUTOMATIC1111 угадывает текстовый запрос изображения, которое вы загрузите на вкладку img2img. Это особенно полезно в момент, когда вы только знакомитесь с обозреваемой нейросетью. Есть у Stable Diffusion и еще одна интересная функция. Вы можете загрузить в нейросеть собственное изображение и попросить ее сгенерировать похожую картинку. А то насколько она окажется похожа на оригинал, зависит от веса начального изображения, который вы укажете.
- Следите за сообществом на различных платформах, таких как GitHub или Reddit, чтобы узнавать о новых возможностях и удачных примерах использования.
- Установка правильных значений зависит не только от желаемых результатов, но и от сложности фразы для генерации.
- Использование большего количества шагов может привести к генерации немного другого изображения, и не обязательно к лучшему качеству.
- Правда, и процесс настройки программы немного сложнее, а результаты ее работы сильно зависят от выбранной вами модели.
- Данная информация указана под готовой картинкой.
Таким же образом фибдек получают в Midjourney при тестировании новых версий. Есть более сложный сценарий — отрисовывать отдельные детали изображения с помощью нейросети, а потом соединять их с помощью инструментов «Фотошопа». Для удобства Stable Diffusion уже интегрировали в программу.
Нейросеть на вашем ПК: как установить и пользоваться Stable Diffusion
Генерация изображений в СД — это отдельная и очень большая тема, которая требует гораздо более детального и углубленного подхода. В рамках этого поста мы рассмотрим лишь основные моменты, с которых стоит stable diffusion как пользоваться начать и на которые стоит обратить внимание. Установка на собственный компьютер предъявляет повышенные требования не только к технической составляющей, но и к определенным навыкам программирования.
- В строку “positive prompt” введите текстовое описание целевого изображения на английском, например, Chicken crossing the road.
- Данный программный продукт основан на библиотеке Градио для Стабильной Диффузии.
- В приложении есть базовый редактор — можно вручную дорисовывать картинку.
- Скачать Git можно на официальном сайте по ссылке.
- Для такого приложения нужен компьютер с видеокартой емкостью от 4 ГБ памяти.
Игровой замок тут же потерял узнаваемость, но нейросеть сохранила масштабность постройки и учла пейзаж. В других тестах происходил тот же эффект, потому что карта глубины не прорисовывает мелкие детали. В модели есть редактор, где можно перетаскивать части тела и делать свои позы. Модель удобна для случаев, когда нужно заимствовать с изображения композиционную глубину. При загрузке создает набросок картинки с картой глубины — показывает, какие объекты располагаются ближе, а какие дальше. Вот какой есть выбор в ControlNet и как работает каждая модель.
Stable Diffusion. Самая впечатляющая нейросеть. Как пользоваться новым инструментом ИИ?
В отличие от DALL-E 2, данные для обучения Stable Diffusion доступны для всех пользователей без ограничений. Моделей Stable Diffusion существует много ― их тренируют на разных изображениях и разных текстовых запросах. Модели бывают узкоспециализированные ― заточенные, например, под рисование в стиле аниме, фотореализм, изображения людей.
Реальные истории реальных людей: что объединяет сотрудников билайна
Еще раз убедитесь, что у вас Nvidia 10XX с хотя бы 4гб видеопамяти. В этом гайде я в основном описываю шаги, которых будет достаточно пользователю на Windows с видеокартами Nvidia 10XX с 4-6 гигабайтами видеопамяти и выше для запуска на своем компе. Если у вас мощная карта от красных – возможно, вам поможет вот этот гайд. Запрещается копирование, распространение или любое иное использование информации и объектов данного сайта без указания активной обратной гиперссылки. Второй по значимости и по приносимому доходу микросток.
Если вдруг ваш запрос к нейросети очень длинный и Windows не создаст папку с таким названием – картинки сохранятся в базовой указанной вами папке. Это параметр, который контролирует насколько процесс генерации будет следовать за фразой для генерации. Стабильная Диффузия — это нейросеть с открытым исходным кодом. Это значит, что вы можете запустить ее копию у себя на компьютере.
Генерация на своем компьютере
Синтез изображений может дать возможность широкой аудитории наглядно визуализировать идеи, снижая барьеры для входа и расширяя возможности художников. Для получения достойных результатов разработчики рекомендуют графический процессор NVIDIA серии 3xxx с объемом оперативной памяти не менее 6 ГБ. Нейросеть пригодится и во время формирования айдентики организации. С помощью SDXL получится протестировать различные идеи логотипов в любых стилях. Будьте готовы к постоянным корректировкам запросов.
Эту версию можно установить автоматически на Windows через отдельный инсталлятор. Но если он почему-то не сработает, придётся всё делать вручную. Чем больше инструментов доступно, тем лучшего качества изображений можно добиться. Поэтому мы подробнее остановимся на работе с десктопной версией.
В 2022 году появилось много нейросетей, которые работают с изображениями. Их основной функционал — это создание новых картинок и модификация готового изображения. Генерируем, и получаем вот такую чёрно-белую картинку — это и есть наша карта глубины.
Модели могут обнаруживать края картинок, анализировать информацию о глубине, обрабатывать эскизы или повторять человеческие позы. На вход блок-копия принимает сумму выхода предыдущего блока-копии и выхода предыдущего исходного блока. Выход блок-копии складывается с выходом соответствующего исходного блока.
Ее также можно сравнить с определенными математическими координатами в математической системе. Семена используются для инициализации генерации. Использование на сторонних сайтах и установка к себе на компьютер. «Вес» каждого слова в описании можно выставить вручную после двоеточия.
В наше время уже никого не удивить нейросетями, способными сгенерировать практически любое изображение, порой неотличимое от обычной фотографии. Проблема лишь в том, что подавляющее большинство таких онлайн-сервисов стоят денег или имеют очень серьезные ограничения, мешающие полноценной работе с ними. Яркий пример этому — Midjourney, с недавних пор ставшая недоступной для бесплатного использования.
Это решает сразу несколько известных проблем нейросетей с генерацией групп людей, текста, рук, глаз и других мелких деталей. Раньше Stable Diffusion генерировал пальцы на основе «шума» из миллионов картинок разных пальцев, это зачастую давало странные результаты. Теперь она имеет четкий трафарет и может повторить контур руки. Раньше при генерации изображения на основе картинки-референса нельзя было указать нейросети, какие части менять, а какие оставить. А с помощью ControlNet можно задавать дополнительные входные условия — позу персонажа, очертания исходной картинки.
Сеть-копия перерабатывает информацию из входного скетча, позы или контура так, чтобы исходная сеть с помощью этой информации сгенерировала нужную картинку. Системные требования Stable Diffusion для работы на ПК оказались на удивление демократичны. Я никак не могу понять, почему каждый раз когда я что то прошу сделать, нейросеть рисует миллион ног, 4 глаза и вместо нормального тела странное подобие желе. Не понимаю, можно ли заставить ее делать не мутантов. Народ, кто-нибудь сталкивался с такой ошибкой?