Как установить нейросеть в фотошоп

0
24

Как встроить Stable Diffusion в Adobe Photoshop

Удаление или замена частей фотографии с помощью Generative Fill

Справляется нейросеть и с более сложными задачами. На стоковом фото у юноши была видна небольшая часть головы и половина руки. Генеративная заливка с пустым запросом нарисовала туловище, голову и интерьер за спиной, сохранив правильную ГРИП: сгенерированная часть, как и исходная голова, слегка размыты, а рука резкая.

C помощью нейросети можно поменять что-то на фотографии. Например, можно переодеть модель из платья в джинсы и наоборот. Выделяем нужную область (выделение может быть довольно грубым, например с помощью лассо) и генерируем. Запрос подойдёт довольно простой (blue jeans или red dress). Но будьте готовы к тому, что придётся генерировать несколько раз (и, возможно, поправлять выделенную область). Нейросеть не всегда создаёт анатомически верные варианты.

Кстати, писать ключевые слова в поле с описанием не обязательно. Можно оставить его пустым, и тогда искусственный интеллект самостоятельно заполнит выделение, исходя из контекста. Пустое поле удобно использовать, если нужно удалить что-то с изображения или расширить картинку, дорисовав к ней то, что оставалось «за кадром». Для примера попробуем вернуть тарелке недостающий кусок.

Нейросеть справилась на удивление хорошо, восстановив форму тарелки. Если не вглядываться в детали, то всё выглядит вполне прилично. Но если присмотреться, то видны погрешности. Доски справа отличаются более грубой текстурой, а зелень и овощи выглядят размытыми и не очень детализированными при 100% увеличении.

Если нажать на неё, появится область для ввода запроса. Традиционно, нейросеть понимает запросы только на английском языке. Давайте добавим на пустое выделенное место тарелку спагетти. В поле описания пишем Plate with spaghetti, жмём «Генерировать» и получаем довольно реалистичную тарелку еды. Генерация занимает 10-15 секунд. По стилю новая тарелка неплохо вписалась в оригинальное изображение.

По идее, если режим img2img позволяет работать с выделенной областью изображения, то его же можно использовать для мелких коррекций изображения — например, открыть глаза моргнувшему человеку. Но нет, это не работает. Нейросеть в режиме img2img полностью игнорирует всё за пределами выделения, и если выделенный фрагмент очень маленький, генерация больше похожа просто на случайный шум. Для такой работы предназначен последний из трёх режимов — inpaint

А есть вещи, которые искусственный интеллект фотошопа рисовать не умеет. Вот так выглядит марвеловский Железный человек по мнению трёх разных нейросетей. Слева — Midjourney. Такое чувство, что портрет супергероя написан Рембрандтом, а Роберт Дауни вполне узнаваем на двух картинках из четырёх. В середине — работа Stable Diffusion. Лица под маской не видно, но герой комиксов опознаётся с первого взгляда. Ну а справа творчество Adobe. Без комментариев.

В режиме img2img можно использовать открытую в Adobe Photoshop картинку в качестве основы для генерации. Нейросеть попытается создать картинку по запросу, сохраняя цвета и композицию оригинала. Например, с помощью этой вкладки можно превратить фотографию в картину маслом. Работает нейросеть только в выделенной области (как и Generative Fill от Adobe), так что перед началом генерации нужно выделить либо всё изображение командой CTRL+A, либо его часть.

ЧИТАТЬ ТАКЖЕ:  Как увеличить качество изображения нейросеть

Генерация картинок с нуля при помощи Generative Fill

Иногда Photoshop справляется, и человек получается более-менее верным анатомически. Но результат всё равно выглядит слабым и малопригодным для практического использования. Вот так выглядит профессиональное фото ребёнка в саду на закате по мнению Adobe (слева) и Midjourney v5 (справа):

Теперь городские виды. Нейросеть Adobe нарисовала Москву на закате, парижскую улицу, Нью-Йорк с автомобильными пробками и русскую деревню зимой. Города узнаваемы (хотя вряд ли в них есть места, выглядящие точно так) и если отойти подальше от монитора, результат генерации можно даже принять за фотографию.

В режиме inpaint Stable Diffusion должен учитывать окружение, и сгенерированная часть должна выписываться в остальную картинку. Пробуем открыть глаза невесте, переключившись в inpaint — действительно, вместо шума на месте глаз появляются новые глаза, они неплохо вписываются в исходное фото. Проблема только одна: эти глаза остались закрытыми:

Режим txt2img проще всего: создаём новое изображение, вводим описание и жмём кнопку «Generate». Если хочется сгенерировать сразу несколько картинок и выбрать лучший вариант, открываем «Advanced Settings» и ставим нужное количество (за раз можно создать до 8 картинок).

Работать с новым инструментом проще всего на новой плавающей панели инструментов. Но если открыть изображение в редакторе и посмотреть на панель, никакой генеративной заливки на ней не будет — вместо этого там будут кнопки Выделить предмет и Удалить фон.

В целом, по результатам теста плагина Stable.art сложилось впечатление, что он уступает как иструменту Generative Fill, так и обычному веб-интерфейсу Stable Diffusion. В отличии от Generative Fill, плагин не умеет расширять и дорисовывать изображение и не подходит для очистки фотографий от ненужных элементов. С его помощью можно поменять что-то на фотографии, но происходит это непредсказуемо и работает далеко не всегда, тогда как Generative Fill в большинстве случаев выдаёт красивый фотореалистичный результат.

Сразу скажем, что полностью заменить качественную работу ретушёра искусственным интеллектом пока не выйдет. Погрешности и следы работы нейросети заметны, если присмотреться. Но результат вполне можно использовать, если надо быстро подготовить фото для соцсетей. И тот же ретушёр может использовать нейросеть на первом этапе для грубой работы, а потом доводить картинку до идеала руками.

Или можно взять веганский сэндвич с авокадо, добавить к нему мясо и яйцо и переместиться с ним в ресторан. Первым шагом выделяем середину сэндвича и генерируем с запросом Roasted meat. Затем выделяем верхний тост, запрос Fried egg. И затем, используя точное выделение с помощью инструмента Выделить предмет / Select subject, отделяем сэндвич от фона и меняем фон запросом Cafe interior with warm lights. Не всё вышло с первой попытки, некоторые запросы пришлось генерировать несколько раз, но на превращение левой картинки в правую ушло меньше пяти минут. При этом результат достаточно хорош, чтобы его можно было печать в меню.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь