Stable Diffusion

0 1

Stable Diffusion

Пользователь Reddit u/Adnane_Touami привлёк внимание, продемонстрировав использование ИИ для генерации реалистичных лиц для персонажей видеоигр. В посте он показал несколько примеров до и после обработки женских персонажей (ну естественно) игр через Stable Diffusion для добавления детализации и фотореалистичности.

Adnane_Touami использовал многошаговый процесс с применением Stable Diffusion при помощи ControlNet и img2img. Он применил ControlNet inpainting для сохранения цветов оригинального изображения, а ControlNet line art — для улучшения форм и деталей. Начальный проход img2img с низким шумом послужил базой, после чего изображение отправлялось через ControlNet с оптимизированными настройками.

Stable Diffusion

Автор также поделился конкретикой задаваемых промптов и настроек для получения наилучших результатов: "в промпте опишите персонажа и определяющие черты, добавив "реалистичные текстуры кожи, фотография 35мм, киноплёнка, 4К, максимальная детализация" (realistic skin textures, 35mm photograph, film, 4k, highly detailed). А для генерации необходимо использовать модель epiCPhotoGasm.

Stable Diffusion

Stable Diffusion

Stable Diffusion

Stable Diffusion

Stable Diffusion

Stable Diffusion

Stable Diffusion

Эффект получился впечатляющий, тем более, что если развить идею, то таким образом можно будет генерировать текстуры кожи для модернизации старых игр или создания фильтров в реальном времени. Однако некоторые отметили, что ИИ-версии теряют тонкие особенности вроде цвета глаз или уникальности дизайна в погоне за более общей привлекательностью.

Источник

Оставьте ответ

Ваш электронный адрес не будет опубликован.