Установка и использование Stable Diffusion для генерации изображений


Stable Diffusion (SD): бесплатная нейросеть для генерации арт-изображений

Искусственный интеллект захватывает мир и становится нашей реальностью. Он помогает собирать, анализировать и систематизировать данные, моделировать ситуации и составлять прогнозы. Нейронные сети обучились писать новости, сказки и даже романы, а еще они научились рисовать.

Нейросеть Stable Diffusion (SD) представляет собой программу с открытым исходным кодом под лицензией Creative ML OpenRail-M. Создана она техническим стартапом Stability.Ai и выложена в открытый доступ 22 августа 2022 г.

Основатель и генеральный директор Stability AI — Эмад Мостак, бывший менеджер лондонского хедж-фонда. Компания вложила 600 000 долларов на обучение Stable Diffusion .

У Stable Diffusion есть упрощенная версия , работающая в браузере. Изображения в ней генерируются на удаленном сервере, а качество модели похуже, чем в релизной версии.

Как выглядит Stable Diffusion по мнению искусственного интеллекта?

Вот что выдала нейросеть Lexica на запрос «Stable Diffusion»:

Преимущества и недостатки Stable Diffusion

SD обучена рисовать детализированные картинки по текстовому запросу на английском языке, а также по картинке-шаблону за считанные секунды, мимикрировать под различные стили, ретушировать фотографии и генерировать фотореалистичные изображения по пискельным наброскам в paint. Она включает в себя миллионы произведений искусства и генерирует удивительно похожие изображения.

В скором будущем Stable Diffusion обучится созданию фотореалистичных видео с помощью текстовых подсказок.

Stable Diffusion производительна с точки зрения качества изображений, скорости и относительно низких требований к ресурсам и памяти.

SD доступна широкой публике. 2-3 часа в сутки можно использовать SD бесплатно. Для обычных пользователей этого времени вполне достаточно, чтобы «поиграться» с программой и научиться создавать изображения по текстовым запросам. Главное преимущество программы — отсутствие лимита на количество генерируемых изображений.

Но у SD есть и недостатки. Она не всегда с первого раза понимает то, что от нее хотят. Иногда приходится перебирать различные текстовые запросы, чтобы получить подходящий вариант. Также SD сейчас не заботит количество рук, ног, пальцев, голов у человека. Корявые руки с лишними пальцами все еще остаются слабым местом нейросети.

Поэтому нужно пока применять текстовые подсказки, чтобы избегать получения на выходе различных уродцев. К тому же Stable Diffusion часто генерирует лица немного искаженными (особенно глаза) или неестественными.

24 ноября 2022 г. анонсирована новая версия Stable Diffusion 2.0, и на днях она станет доступна.

Текущая версия 1.5 уже делает это очень круто, если грамотно использовать продвинутый инструментарий.

Посмотрите, как генерируются изображения в SD:

Установка и использование Stable Diffusion для генерации изображений

В этой инструкции подробно о том, как установить Stable Diffusion на ваш компьютер или ноутбук, о возможности попробовать нейросеть в работе без установки и некоторые дополнительные детали, которые могут оказаться полезными.

Установка Stable Diffusion

Нейросеть Stable Diffusion отличается от таких аналогов как DALL-E 2 или Midjourney открытым исходным кодом: то есть, при наличии соответствующего оборудования вы можете совершенно бесплатно установить необходимое ПО на свой компьютер и использовать для создания изображений по текстовому запросу (в обсуждениях часто используют кальку с английского «промпт»).

Официальное ПО Stable Diffusion не имеет удобного графического интерфейса, за исключением доступного на официальном сайте https://beta.dreamstudio.ai/ , с которого и рекомендую начать эксперименты и посмотреть, нужно ли вам это: после регистрации у вас будет 200 бесплатных генераций с параметрами по умолчанию (регистрироваться можно и больше раз с разными адресами электронной почты).

При установке официального софта на компьютере все действия придётся выполнять в командной строке. Кроме того, вы мало что сможете сгенерировать с видеокартой, имеющей 6 Гб памяти или менее.

Однако, благодаря открытому исходному коду, почти сразу после релиза Stable Diffusion появились альтернативные варианты ПО («форки»), оптимизирующие запуск на более слабом оборудовании (4 Гб VRAM, есть даже варианты, работающие на CPU, но очень медленно), предоставляющие удобный доступ к настройкам и упрощающие использование нейросети.

С одного из таких альтернативных вариантов, который я нашел наиболее удачным, и начнем установку. Если же вам требуется описание процесса установки официального варианта, его вы также сможете найти далее в статье.

Установка Stable Diffusion WebUI от Automatic

Сначала о том, что нам потребуется: достаточно мощный компьютер или ноутбук, видеокарта NVIDIA GeForce не менее 4 Гб видеопамяти. Все устанавливаемые компоненты займут около 10 Гб на жестком диске или SSD. Если всё это в наличии, можно приступать:

1. Скачайте и установите Git https://git-scm.com/download/win Используйте рекомендуемые параметры (оставьте возможность использования Git в командной строке и сторонних программах).

2. Установите Miniconda3 с официального сайта https://docs.conda.io/en/latest/miniconda.html , при установке выберите опцию Установить для всех пользователей.

3. Скачайте архив Stable Diffusion с официального источника https://github.com/CompVis/stable-diffusion (нажать по кнопке Code, затем выбрать пункт Download ZIP).

4. Скачайте модель Stable Diffusion последней версии с https://huggingface.co/CompVis/stable-diffusion-v-1-4-original (потребуется регистрация) или из этого хранилища (без регистрации), переименуйте файл в model.ckpt.

5. Запустите консоль Miniconda3 (Anaconda Prompt), для этого можно использовать поиск в панели задач Windows.

6. В открывшейся консоли используйте команды для создания папки (в нашем варианте — на диске C) для файлов Stable Diffusion:

cd C:/ mkdir stable-diffusion cd stable-diffusion

Не закрывайте окно консоли.

7. Откройте скачанный на 3-м шаге архив и скопируйте папку stable-diffusion-main (саму папку, а не файлы в ней) в C:\stable-diffusion\

Новые статьи:  Переводим деньги с номера Мегафон на кошелек QIWI

8. По порядку используйте следующие команды в консоли Miniconda3:

cd C:\stable-diffusion\stable-diffusion-main conda env create -f environment.yaml conda activate ldm mkdir models\ldm\stable-diffusion-v1

Процесс займет продолжительное время, так как из сети будут скачиваться дополнительные компоненты.

9. Переместите файл model.ckpt в папку C:\stable-diffusion\stable-diffusion-main\models\ldm\stable-diffusion-v1

10. Готово. Теперь мы можем запустить Stable Diffusion, введя команду

conda activate ldm

В дальнейшем запуск будет всегда производиться именно с помощью этой команды.

11. Генерация изображений выполняется здесь же в консоли с помощью передачи параметров. Например, вы можете ввести:

scripts/txt2img.py --prompt "concept robot, colorful, cinematic" --plms --n_iter 5 --n_samples 1

Команда создаст набор из 5 изображений с разрешением 512×512 по запросу «concept robot, colorful, cinematic», которые будут помещены в папку:

C:\stable-diffusion\stable-diffusion-main\outputs\txt2img-samples\samples

Чтобы увидеть информацию по доступным параметрам командной строки используйте команду:

python scripts/txt2img.py --help

Использование Stable Diffusion WebUI

После запуска webui-user.bat и перехода в браузере на адрес 127.0.0.1:7860 перед вами будет веб-интерфейс, доступный локально на вашем компьютере (для работы Интернет не требуется), первая вкладка которого — txt2img, где и происходит всё самое интересное.

Экспериментировать можно начать сразу же: просто введите текст на английском в поле сверху и нажмите кнопку Generate, чтобы получить готовую картинку с параметрами по умолчанию (на скриншоте они уже изменены).

Если поднести указатель мыши к названию доступных параметров, большинство из них имеют описания на английском. Среди основных:

  • Sampling Method — алгоритм создания изображения. Влияет на результат, скорость, требуемую видеопамять.
  • Sampling Steps — количество шагов, в течение которых нейросеть «приводит» результат к желаемому. Влияет на время генерации. Больше — не всегда лучше: нужный результат может получиться за 30-50 шагов, а дальнейшая работа может не добавить деталей, а исказить результат (но бывает и иначе). Если то, что получилось, вам понравилось, можно использовать тот же Seed для генерации изображения по этому же запросу, но с другим количеством шагов и оценить результат.
  • Batch count — количество наборов создаваемых изображений.
  • Batch size — количество изображений в наборе (влияет на требуемую память).
  • CGF Scale — «свобода» обработчика изображения, влияет на то, насколько точно результат будет соответствовать описанию. При более низких значениях получаем большее разнообразие.
  • Height и Width — ширина и высота изображения, очень сильно влияет на требования к памяти.
  • Seed — «зерно». По умолчанию равно -1, при этом значении оно будет задано случайно при каждом очередном нажатии кнопки Generate. Если с определенным Seed вы получили интересный результат, можете скопировать его в это поле, чтобы продолжить эксперименты над понравившимся изображением, изменяя параметры.

По умолчанию изображения сохраняются во вложенных папках в папке outputs в расположении, куда вы установили Stable Diffusion WebUI, но при желании автоматическое сохранение можно отключить на вкладке Settings, здесь же можно настроить и другие параметры.

Вкладка img2img позволяет модифицировать имеющееся изображение в соответствии с текстовым описанием.

На вкладке Extras собраны дополнительные инструменты. Основное — увеличение разрешения изображения с использованием нейросети.

Значения параметров в большинстве своем вам придётся подбирать самостоятельно, отслеживая результат. Но даже при одних и тех же значениях он может сильно отличаться и прежде всего зависит от заданного запроса, прописанных в нем требований к изображению и стилей. Это может быть простой рисунок в стиле плаката:

А может быть и почти фотография:

Высокоэффективная генерация изображений на KerasCV с помощью Stable Diffusion

Сегодня покажем, как генерировать новые изображения по текстовому описанию при помощи KerasCV, stability.ai и Stable Diffusion. Материал подготовлен к старту нашего флагманского курса по Data Science.

Stable Diffusion — это мощная модель генерации изображений по текстовым описаниям с открытым исходным кодом. Решений с открытым кодом для генерации изображений по описаниям немало, но KerasCV выделяется из них рядом преимуществ, в том числе компилляцией XLA (ускоренной линейной алгебры) и поддержкой «смешанной точности». Вместе они позволяют достичь очень высокой скорости генерации.

Сегодня мы разберём реализацию Stable Diffusion от KerasCV, покажем, как использовать эти мощные средства повышения производительности, и изучим преимущества, которые они дают.

Сначала установим пакеты зависимости и разберёмся с модулями:

!pip install --upgrade keras-cv
import time import keras_cv from tensorflow import keras import matplotlib.pyplot as plt

Введение

В отличие от других обучающих материалов, здесь вначале объясняется, как происходит внедрение. В случае генерации изображений по текстовым описаниям это проще показать, чем рассказать.

Посмотрим, насколько сильна keras_cv.models.StableDiffusion() .

Сначала построим модель:

model = keras_cv.models.StableDiffusion(img_width=512, img_height=512) 

Затем создадим текстовое описание. Например, «фото астронавта верхом на коне» (оригинальный запрос — «photograph of an astronaut riding a horse»):

images = model.text_to_image("photograph of an astronaut riding a horse", batch_size=3) def plot_images(images): plt.figure(figsize=(20, 20)) for i in range(len(images)): ax = plt.subplot(1, len(images), i + 1) plt.imshow(images[i]) plt.axis("off") plot_images(images)
25/25 [==============================] - 19s 317ms/step 

Но это ещё не все возможности модели. Попробуем ввести запрос посложнее. Например, «симпатичная волшебная летающая собака, фэнтези-арт», «золотого цвета, высокое качество, высокая детализация, изящная форма, чёткая фокусировка», «концептуальный дизайн, концепция персонажа, цифровая живопись, тайна, приключение»:

images = model.text_to_image( "cute magical flying dog, fantasy art, " "golden color, high quality, highly detailed, elegant, sharp focus, " "concept art, character concepts, digital painting, mystery, adventure", batch_size=3, ) plot_images(images)
25/25 [==============================] - 8s 316ms/step 

Возможностям просто нет предела (как минимум они раскрывают всё скрытое многообразие Stable Diffusion).

Новые статьи:  Импорт закладок в браузер Opera

Стоп, как это вообще работает?

Что бы вы сейчас себе ни вообразили, ничего волшебного в Stable Diffusion нет. Это что-то вроде «латентной диффузионной модели». Давайте докопаемся до смысла этого термина. Возможно, вам знаком принцип сверхвысокого разрешения (super-resolution): можно обучить модель глубокого обучения удалению шума на исходном изображении. Тем самым мы превратим изображение в версию с высоким разрешением. Модель глубокого обучения не может по волшебству «вытащить» утраченную информацию из шума на фото с низким разрешением. Вместо этого она дорисовывает полученные при обучении данные так, чтобы создать иллюзию наиболее вероятных деталей. Подробнее о сверхвысоком разрешении — в следующих материалах Keras.io:

  • Image Super-Resolution using an Efficient Sub-Pixel CNN;
  • Enhanced Deep Residual Networks for single-image super-resolution.

И, если вы выжали из этой идеи всё, то спросите себя: а что, если запустить модель на «чистом шуме»? Тогда ей придётся «удалить шум у шума» и создать полностью новое изображение. Повторим это много раз, и маленький фрагмент шума будет превращаться в удивительно чёткое искусственное изображение с высоким разрешением.

Ключевая мысль латентной диффузии изложена в High-Resolution Image Synthesis with Latent Diffusion Models в 2020 году. Чтобы лучше понять принципы диффузии, можно посмотреть обучающий материал на Keras.io Неявные модели диффузии для удаления шума (Denoising Diffusion Implicit Models).

Для перехода от латентной диффузии к системе создания изображения по текстовому описанию нужно добавить всего одно ключевое свойство: управление генерируемыми изображениями через ключевые слова текстового описания. В этом поможет «стабилизация» (conditioning) — классический метод, который состоит в привязке к фрагменту шума вектора, представляющего собой кусочек текста, а затем обучения модели на наборе данных пар изображений и описаний .

Это даёт начало архитектуре Stable Diffusion, которая состоит из трёх блоков:

  • кодер текста. Блок преобразует текстовое описание в латентный вектор (latent vector);
  • диффузионная модель. Она многократно удаляет шум с фрагмента изображения 64×64 в латентном состоянии;
  • декодер превращает фрагмент конечного изображения 64×64 в изображение с разрешением 512×512.

Сначала текстовое описание проектируется в предварительно изученное пространство собственных векторов, языковую модель с «замороженными весами». Затем такой собственный вектор связывается со случайно генерируемым фрагментом шума, который проходит итерации «удаления шума» в декодере. По умолчанию их 50. И чем больше, тем красивее и чётче конечное изображение. По умолчанию фрагмент проходит 50 итераций.

Наконец, скрытое изображение 64×64 проходит через декодер, что даёт корректную визуализацию высокого разрешения.

Архитектура Stable Diffusion

Архитектура Stable Diffusion

Это очень простая система: для реализации Keras достаточно четырёх файлов на 500 строк в общей сложности:

  • text_encoder.py: 87 LOC;
  • diffusion_model.py: 181 LOC;
  • decoder.py: 86 LOC;
  • stable_diffusion.py: 106 LOC.

Однако после изучения миллиардов изображений и их текстовых описаний работа этой простой системы кажется волшебством. Фейнман о Вселенной сказал: «Она не сложна, её просто много!»

«Плюшки» KerasCV

Почему из нескольких общедоступных реализаций Stable Diffusion стоит использовать именно keras_cv.models.StableDiffusion?

Помимо простого API модель Stable Diffusion от KerasCV даёт важные преимущества:

  • реализацию в графовом режиме;
  • компиляцию XLA при помощи jit_compile=True;
  • поддержку вычислений со смешанной точностью.

Объединяя все эти преимущества, модель Stable Diffusion от KerasCV работает на порядки быстрее наивных реализаций. В этом разделе описываются активация всех этих функций и повышение эффективности при их использовании.

Ради интереса мы сравнили по времени реализации Stable Diffusion для «диффузоров» от HuggingFace и от KerasCV. В обоих случаях поставили задачу сгенерировать 3 изображения с 50 итерациями для каждого. Тестирование проводилось на Tesla T4.

Исходный код сравнительных тестов находится в открытом доступе на GitHub, его можно перезапускать на Colab и воспроизвести результаты. Вот результаты тестов на время генерации:

Графический процессорМодельВремя генерации
Tesla T4KerasCV (при тёплом старте)28.97s
Tesla T4diffusers (при тёплом старте)41.33s
Tesla V100KerasCV (при тёплом старте)12.45
Tesla V100diffusers (при тёплом старте)12.72

На Tesla T4 генерация ускоряется на 30%! Хотя улучшение результата на V100 не столь впечатляет, в целом мы ожидаем, что результаты таких тестов на всех графических процессорах NVIDIA всегда будут в пользу KerasCV.

Ради полноты картины мы привели время генерации при холодном и при прогретом старте. Время холодного старта включает единовременные затраты на создание и компиляцию модели, поэтому в производственной среде, где вы будете много раз использовать один и тот же экземпляр модели, оно ничтожно мало. Тем не менее приводим цифры для холодного старта:

Графический процессорМодельВремя генерации
Tesla T4KerasCV (при холодном старте)83.47s
Tesla T4diffusers (при холодном старте)46.27s
Tesla V100KerasCV (при холодном старте)76.43
Tesla V100diffusers (при холодном старте)13.90

Хотя результаты выполнения задач из этого руководства могут быть разными, у нас в тесте реализация Stable Diffusion на KerasCV оказалась гораздо быстрее, чем на PyTorch. В значительной степени это может быть связано с компиляцией XLA.

Эффективность улучшается при каждой оптимизации и может заметно меняться от одной конфигурации «железа» к другой.

Для начала давайте испытаем нашу неоптимизированную модель с текстовым описанием «Симпатичная выдра держит ракушки в радужном водовороте. Акварель»:

benchmark_result = [] start = time.time() images = model.text_to_image( "A cute otter in a rainbow whirlpool holding shells, watercolor", batch_size=3, ) end = time.time() benchmark_result.append(["Standard", end - start]) plot_images(images) print(f"Standard model: <(end - start):.2f>seconds") keras.backend.clear_session() # Clear session to preserve memory.
25/25 [==============================] - 8s 316ms/step Standard model: 8.17 seconds

Смешанная точность

«Смешанная точность» использует вычисления с точностью float16, храня при этом веса в формате float32. Благодаря этому операции float16 поддерживаются гораздо более быстрыми ядрами, чем аналоги для float32 на современных графических процессорах NVIDIA.

Использовать смешанную точность в Keras (в том числе для keras_cv.models.StableDiffusion) просто:

keras.mixed_precision.set_global_policy("mixed_float16") 
INFO:tensorflow:Mixed precision compatibility check (mixed_float16): OK Your GPU will likely run quickly with dtype policy mixed_float16 as it has compute capability of at least 7.0. Your GPU: NVIDIA A100-SXM4-40GB, compute capability 8.0
odel = keras_cv.models.StableDiffusion() print("Compute dtype:", model.diffusion_model.compute_dtype) print( "Variable dtype:", model.diffusion_model.variable_dtype, )
Compute dtype: float16 Variable dtype: float32

Как видите, собранная выше модель использует расчёты со смешанной точностью. А мы используем скорость операции float16 при хранении переменных с точностью float32.

# Warm up model to run graph tracing before benchmarking. model.text_to_image("warming up the model", batch_size=3) start = time.time() images = model.text_to_image( "a cute magical flying dog, fantasy art, " "golden color, high quality, highly detailed, elegant, sharp focus, " "concept art, character concepts, digital painting, mystery, adventure", batch_size=3, ) end = time.time() benchmark_result.append(["Mixed Precision", end - start]) plot_images(images) print(f"Mixed precision model: <(end - start):.2f>seconds") keras.backend.clear_session()
25/25 [==============================] - 15s 226ms/step 25/25 [==============================] - 6s 226ms/step Mixed precision model: 6.02 seconds

Компиляция XLA

TensorFlow включает встроенный компиллятор XLA XLA: Accelerated Linear Algebra — ускоренная линейная алгебра. keras_cv.models.StableDiffusion поддерживает работу аргумента jit_compile «из коробки». Значение True активирует компиляцию XLA для этого аргумента, что приводит к значительному ускорению.

Воспользуемся этим в примере с «креслом цвета авокадо»:

# Set back to the default for benchmarking purposes. keras.mixed_precision.set_global_policy("float32") model = keras_cv.models.StableDiffusion(jit_compile=True) # Before we benchmark the model, we run inference once to make sure the TensorFlow # graph has already been traced. images = model.text_to_image("An avocado armchair", batch_size=3) plot_images(images)
25/25 [==============================] - 36s 245ms/step 

image

Оценим эффективность нашей модели XLA:

start = time.time() images = model.text_to_image( "A cute otter in a rainbow whirlpool holding shells, watercolor", batch_size=3, ) end = time.time() benchmark_result.append(["XLA", end - start]) plot_images(images) print(f"With XLA: <(end - start):.2f>seconds") keras.backend.clear_session()
25/25 [==============================] - 6s 245ms/step With XLA: 6.27 seconds

На графическом процессоре A100 получилось примерно двукратное ускорение. Чудеса!

Соберём всё воедино

И как же собрать самый производительный в мире (по состоянию на сентябрь 2022 года) стабильный конвейер диффузионного вывода?

С помощью двух строк кода:

keras.mixed_precision.set_global_policy("mixed_float16") model = keras_cv.models.StableDiffusion(jit_compile=True)

и текстового описания «Плюшевые мишки ведут исследования в области машинного обучения»:

# Let's make sure to warm up the model images = model.text_to_image( "Teddy bears conducting machine learning research", batch_size=3, ) plot_images(images)
25/25 [==============================] - 39s 157ms/step 

Насколько быстро это работает? Сейчас разберёмся! Пусть теперь у нас «Таинственный тёмный незнакомец посещает египетские пирамиды», «высокое качество, высокая детализация, изящная форма, чёткая фокусировка», «концептуальный дизайн, концепция персонажа, цифровая живопись»:

start = time.time() images = model.text_to_image( "A mysterious dark stranger visits the great pyramids of egypt, " "high quality, highly detailed, elegant, sharp focus, " "concept art, character concepts, digital painting", batch_size=3, ) end = time.time() benchmark_result.append(["XLA + Mixed Precision", end - start]) plot_images(images) print(f"XLA + mixed precision: <(end - start):.2f>seconds")
25/25 [==============================] - 4s 158ms/step XLA + mixed precision: 4.25 seconds

print(" ".format("Model", "Runtime")) for result in benchmark_result: name, runtime = result print(" ".format(name, runtime))
Model Runtime Standard 8.17177152633667 Mixed Precision 6.022329568862915 XLA 6.265935659408569 XLA + Mixed Precision 4.252242088317871 

Полностью оптимизированной модели хватило четырёх секунд, чтобы сгенерировать три новых изображения из текстового запроса на графическом процессоре A100.

Заключение

Благодаря XLA KerasCV позволяет создать Stable Diffusion нового поколения. А благодаря смешанной точности и XLA мы получаем самый быстрый конвейер Stable Diffusion на сентябрь 2022 года.

В конце руководств по keras.io мы обычно рекомендуем несколько тем для дальнейшего изучения. На этот раз мы лишь ограничимся одним призывом:

Прогоните свои описания через эту модель! Это просто бомба!

Если у вас графический процессор от NVIDIA GPU или же M1 MacBookPro, можно запустить генерацию на своей машине. (Отметим, что при старте на M1 MacBookPro активировать смешанную точность не нужно: эппловский Metal пока не очень хорошо поддерживает её).

  • Colab
  • GitHub
  • Профессия Data Analyst (12 месяцев)
  • Профессия Data Scientist (24 месяца)

Краткий каталог курсов

  • Профессия Data Scientist
  • Профессия Data Analyst
  • Курс «Математика для Data Science»
  • Курс «Математика и Machine Learning для Data Science»
  • Курс по Data Engineering
  • Курс «Machine Learning и Deep Learning»
  • Курс по Machine Learning
  • Профессия на Python
  • Курс «Python для »
  • Профессия
  • Профессия
  • Профессия
  • Профессия
  • Профессия
  • Профессия на JAVA
  • Профессия C#-разработчик
  • Профессия Разработчик игр на Unity
  • Курс «Алгоритмы и структуры данных»
  • Профессия разработчик
  • Профессия «Белый хакер»
  • Курс по DevOps
  • Все курсы

Оставьте комментарий