Люди которые никогда не существовали нейросеть

0
16

Генератор Случайных Лиц (Этот Человек Не Существует)

Генератор фальшивых лиц несуществующих людей

Почти невозможно распознать изображение фальшивого человека. ИИ настолько развит, что 90 % подделок не распознаются обычным человеком, а 50 % не распознаются опытным фотографом. Услуг по распознаванию не существует. Иногда нейронная сеть допускает ошибки, из-за чего появляются артефакты: неправильно изогнутый узор, странный цвет волос и так далее.

Генератор лиц ИИ работает на базе StyleGAN, нейронной сети от Nvidia, разработанной в 2018 году. GAN состоит из 2 конкурирующих нейронных сетей, одна из которых что-то генерирует, а вторая пытается определить, являются ли результаты реальными или генерируются первой. Обучение заканчивается, когда первая нейронная сеть начинает постоянно обманывать вторую.

Для пользователя все работает очень просто. Как только вы попадаете на сайт, генерируется случайное лицо. Вы можете скачать картинку, если хотите. Обновите страницу, если вам не нравится человек, с которым вы встречаетесь. Если вы видите то же самое лицо, просто подождите пару секунд и снова обновите страницу. На веб-сайте показаны результаты работы генератора (которые обновляются каждые 2-3 секунды), а не сам генератор.

Люди, как правило, не задумываются о влиянии, которое нейронные сети оказывают на нашу жизнь, потому что обычно мы видим результат их работы, а не «лицо» нейронной сети. Возможно, именно поэтому генератор поддельных фотографий стал главной темой обсуждения в течение нескольких недель в средствах массовой информации, посвященных технологиям, в конце 2020 года. Не все смогли догадаться, что ИИ может за пару секунд сгенерировать реалистичное лицо несуществующего человека. Поддельные портреты выглядят очень реалистично, и это пугает. Если ИИ может создавать для себя лица и может писать тексты, как настоящие люди, то что будет дальше?

Интересным моментом является то, что создание фотографий несуществующих людей было побочным продуктом: основной целью было научить ИИ распознавать фальшивые лица и лица в целом. Компании это было необходимо для повышения производительности своих видеокарт за счет автоматического распознавания лиц и применения к ним других алгоритмов рендеринга. Однако, поскольку

Такие же неровные проблемы с зубами тоже довольно распространены. Ищите странные характеристики, такие как пиксели и повторяющиеся резцы. Накладные волосы, в общем, могут казаться с некоторым свечением вокруг них или выглядеть слишком прямыми и с прожилками, опять же, с видимой асимметрией.

Джевин Уэст и Карл Бергстром создали веб-сайт под названием “Какое лицо настоящее”, который нацелен на то, чтобы научить людей быть более аналитичными в отношении потенциально ложных портретов. Прежде чем делать предположения о том, что человек на фотографии существует, необходимо рассмотреть несколько вещей.

ЧИТАТЬ ТАКЖЕ:  Искусственный интеллект чем закончится

Зачастую в Интернете можно наткнуться на весьма реалистичные фотографии стихийных бедствий или техногенных катастроф. Многие такие фотографии абсолютно настоящие и сделаны реальными фотографами, когда как другая львиная часть — отредактированные в фотошопе подделки. И если раньше у любого критически мыслящего человека то или иное изображение из интернета могло вызвать чувство сомнения, то теперь, с развитием и распространением нейросетей, таких сомнений должно стать ещё больше. Реалистичные изображения трагедии, которой никогда не было, недавно были опубликованы на форуме Reddit, в одной из тем, где пользователи экспериментируют с нейросетью Midjourney и делятся своими творениями с единомышленниками. Оригинальный пост пользователя под ником «Arctic_Chilean» быстро стал вирусным и попал на главную страницу Reddit. Естественно, многие люди, которые не знали контекста изображения, поначалу даже подумали, что это настоящие фотографии. Создатель поддельных фотографий утверждал, что землетрясение силой 9,1 балла по шкале Рихтера было зарегистрировано в апреле 2001 года. Он даже перечислил места, где произошла катастрофа. На одном изображении предположительно показан разрушенный центр Сиэтла, а на другом изображены спасатели, вытаскивающие выживших из-под обломков в Ванкувере. Изображения очень убедительные и пугающие. Общее качество и стилистика также очень напоминает 2001 год. Вполне вероятно, что за референс нейросеть взяла фотографии реальной трагедии 11 сентября 2001 года. Однако в апреле того года, к счастью, никакого землетрясения у западного побережья США и Канады не было — это всего лишь реалистичная генерация. Созданные искусственным интеллектом поддельные изображения в последнее время распространяются подобно пандемии. Один зарубежный журналист, например, сгенерировал с десяток разных фотографий задержания Дональда Трампа американской полицией. Будь изображения хоть немного реалистичнее, вполне можно было бы пускать в мировое инфополе очередную фейковую новость. И ведь большинство людей поверили бы в неё, вот же картинка! И чем стремительнее нейросети развиваются, тем больше стирается и без того тонкая грань доверия к средствам массовой информации и Интернету. Будем надеяться, что злоумышленники или пранкеры в будущем не будут использовать нейросети для распространения дезинформации, особенно таких масштабов, как на изображениях выше, связанных с какими-либо трагичными событиями и гибелью людей. А ещё лучше, если в будущем все изображения, размещаемые в любых средствах массовой информации, нужно будет в обязательном порядке проверять каким-нибудь инструментом на основе того же ИИ для подтверждения достоверности.

О генераторе

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь