Содержание статьи
Generative Fill в Photoshop — как пользоваться и что умеет ИИ-помощник
Как использовать нейросеть в фотошопе в 2023 году?
Несмотря на появившийся в свежих версиях Adobe Photoshop нейросетевой инструмент Generative Fill, не все хотят (или не могут) его использовать. У кого-то не получается оплатить российской картой, кому-то хочется большей свободы в генерациях (например, некоторые диджитал-художники жалуются, что инструмент Adobe не позволяет создавать иллюстрации для ужастиков). В этом случае можно использовать открытую нейросеть Stable Diffusion. Сегодня посмотрим, как с помощью плагина подключить Stable Diffusion к Adobe Photoshop и работать с ней прямо из фоторедактора.
Полностью выполнить работу за профессионального ретушёра нейросеть пока не может, но вот помочь ему и ускорить работу вполне способна. Ну а тем, у кого не такие высокие требования к качеству, новый инструмент может полностью заменить отдельного специалиста по ретуши: с его помощью можно доработать фото для соцсетей или улучшить фотографии из отпуска.
Теперь попробуем поменять жениху серый пиджак на красную куртку. Увы, тоже безрезультатно. На некоторых результатах рука остаётся на месте, на некоторых появилась вторая рука в кармане куртки, но вот сама куртка так осталась серой. Максимум, чего удалось добиться за 10 минут — красная окантовка и несколько красных заплаток:
Справляется нейросеть и с более сложными задачами. На стоковом фото у юноши была видна небольшая часть головы и половина руки. Генеративная заливка с пустым запросом нарисовала туловище, голову и интерьер за спиной, сохранив правильную ГРИП: сгенерированная часть, как и исходная голова, слегка размыты, а рука резкая.
Пока что попробовать Photoshop с ИИ можно на ограниченный промежуток времени — 7 дней. Именно столько работает бета-версия. В будущем планируется создание полноценной функциональной опции, которая будет доступна в платной версии программы. У многих пользователей возникает вопрос: где найти Generative Fill в уже установленном на ПК Фотошопе? Её там нет. Вам необходимо загрузить бета-версию приложения.
Компания Adobe показала миру новый нейросетевой инструмент Генеративная заливка/Generative Fill, встроенный прямо в новую версию Adobe Photoshop. О том, на что способна нейросеть от Adobe, как работать с Generative Fill в Photoshop, читайте в этом материале.
Режим txt2img проще всего: создаём новое изображение, вводим описание и жмём кнопку «Generate». Если хочется сгенерировать сразу несколько картинок и выбрать лучший вариант, открываем «Advanced Settings» и ставим нужное количество (за раз можно создать до 8 картинок).
Сегодня проблема в том, что оплатить подписку российской картой не получится. Но можно скачать пробную версию на 7 дней и попробовать новую функцию. Правда, здесь тоже не всё легко и очевидно. Если просто пойти на сайт Adobe, найти среди продуктов Adobe Photoshop и нажать «Start Free Trial», через пару шагов всё равно попросят ввести карту и оформить подписку. Без данных карты кнопка пробного периода остаётся неактивной (а российские карты не принимаются).
Где скачать и как установить свежий Photoshop beta с Generative Fill
Чтобы карту не просили, нужно идти другим путём. Для начала нужно скачать приложение Adobe Creative Cloud с сайта Adobe вот по этой ссылке. После этого войти в аккаунт Adobe или зарегистрировать новый и запустить Creative Cloud. В открывшемся окне найти раздел с бета-приложениями и установить бета-версию Photoshop. В этом случае никаких банковских данных не попросят, и можно будет начать пробный период.
С дорисовкой изображения искусственный интеллект от Adobe справляется очень хорошо. Нейросеть позволяет «заглянуть за край» изображения и восстановить то, что фотограф (или художник) оставил за кадром. В большинстве случаев, если вы не хотите нарисовать что-то конкретное, поле для описания можно оставить пустым. Достаточно увеличить размер холста, выделить пустое место и Photoshop сам заполнит его.
Если нажать на неё, появится область для ввода запроса. Традиционно, нейросеть понимает запросы только на английском языке. Давайте добавим на пустое выделенное место тарелку спагетти. В поле описания пишем Plate with spaghetti, жмём «Генерировать» и получаем довольно реалистичную тарелку еды. Генерация занимает 10-15 секунд. По стилю новая тарелка неплохо вписалась в оригинальное изображение.
Для начала нужно скачать плагин для фотошопа. Находится он традиционно на Гитхабе, вот тут. После этого автор плагина предлагает открыть Adobe Creative Cloud, убедиться, что на компьютере стоит самая свежая версия Adobe Photoshop, и установить плагин двойным щелчком мыша. В случае, если у вас установлен самый свежий и самый лицензионный фотошоп, этот метод должен сработать. Если же нет, появится сообщение об ошибке.
По идее, если режим img2img позволяет работать с выделенной областью изображения, то его же можно использовать для мелких коррекций изображения — например, открыть глаза моргнувшему человеку. Но нет, это не работает. Нейросеть в режиме img2img полностью игнорирует всё за пределами выделения, и если выделенный фрагмент очень маленький, генерация больше похожа просто на случайный шум. Для такой работы предназначен последний из трёх режимов — inpaint
Generative Fill/Генеративная заливка — это новый инструмент, позволяющий работать с нейросетями прямо из Adobe Photoshop. Сейчас он доступен только в бета-версиях Adobe Photoshop, начиная с версии 24.6. В качестве нейросети для работы с изображениями используется собственная разработка Adobe — искусственный интеллект Adobe Firefly, обученный на изображениях из фотобанка Adobe Stock.
Генерация картинок с нуля при помощи Generative Fill
Теперь городские виды. Нейросеть Adobe нарисовала Москву на закате, парижскую улицу, Нью-Йорк с автомобильными пробками и русскую деревню зимой. Города узнаваемы (хотя вряд ли в них есть места, выглядящие точно так) и если отойти подальше от монитора, результат генерации можно даже принять за фотографию.
В режиме inpaint Stable Diffusion должен учитывать окружение, и сгенерированная часть должна выписываться в остальную картинку. Пробуем открыть глаза невесте, переключившись в inpaint — действительно, вместо шума на месте глаз появляются новые глаза, они неплохо вписываются в исходное фото. Проблема только одна: эти глаза остались закрытыми:
C помощью нейросети можно поменять что-то на фотографии. Например, можно переодеть модель из платья в джинсы и наоборот. Выделяем нужную область (выделение может быть довольно грубым, например с помощью лассо) и генерируем. Запрос подойдёт довольно простой (blue jeans или red dress). Но будьте готовы к тому, что придётся генерировать несколько раз (и, возможно, поправлять выделенную область). Нейросеть не всегда создаёт анатомически верные варианты.
Кстати, писать ключевые слова в поле с описанием не обязательно. Можно оставить его пустым, и тогда искусственный интеллект самостоятельно заполнит выделение, исходя из контекста. Пустое поле удобно использовать, если нужно удалить что-то с изображения или расширить картинку, дорисовав к ней то, что оставалось «за кадром». Для примера попробуем вернуть тарелке недостающий кусок.
Нейросеть справилась на удивление хорошо, восстановив форму тарелки. Если не вглядываться в детали, то всё выглядит вполне прилично. Но если присмотреться, то видны погрешности. Доски справа отличаются более грубой текстурой, а зелень и овощи выглядят размытыми и не очень детализированными при 100% увеличении.
В целом, по результатам теста плагина Stable.art сложилось впечатление, что он уступает как иструменту Generative Fill, так и обычному веб-интерфейсу Stable Diffusion. В отличии от Generative Fill, плагин не умеет расширять и дорисовывать изображение и не подходит для очистки фотографий от ненужных элементов. С его помощью можно поменять что-то на фотографии, но происходит это непредсказуемо и работает далеко не всегда, тогда как Generative Fill в большинстве случаев выдаёт красивый фотореалистичный результат.