Нейросеть deepfake что такое

0
15

Что такое дипфейк. Объясняем простыми словами

Способствовать политическим и общественным преобразованиям

Картинками и картинами, созданными искусственным интеллектом с помощью GAN, уже никого не удивить. Самая известная из них была продана на знаменитом лондонском аукционе Christie»s за 432,5 тысячи долларов. В названии «шедевра» — портрета некоего Эдмона Белами — угадывается привет отцу GAN: на французском bel ami означает «хороший друг». Примерно так переводится с английского фамилия Гудфеллоу.

Например, в феврале 2021 года в TikTok появился пародийный аккаунт deeptomcruise, в котором выкладывают дипфейки с Томом Крузом. Ролики записывает пародист актёра Майлз Фишер. Его персонаж движется, говорит, поёт без видимых следов наложения одного изображения на другое. В 2020 году приобрёл популярность дипфейк, в котором Илон Маск спел песню «Трава у дома» вместо солиста группы «Земляне».

Весной 2019 года в интернете опубликовали дипфейк со спикером Палаты представителей США демократкой Нэнси Пелоси. В видео она медленно говорила, за счет чего создавалась иллюзия, что она сильно пьяна. Республиканские эксперты и политики немедленно принялись критиковать спикера, почти начался скандал. Лишь через несколько дней оказалось, что речь Пелоси была сгенерирована ИИ.

«Помимо фейкньюс мы стоим на пороге новой угрозы — дипфейка, это очень страшная штука. Вот я стою, и вместо меня на компьютере можно вставить другую голову, другой голос. Если всё это оказывается в руках и головах других ребят, вы представляете, сколько они могут наделать вреда?»

Последствия: Другие актёры тоже стали появляться в нетипичных для них ролях. Джим Керри попал в «Сияние» и «Джокера», Сильвестр Сталлоне отметился в «Терминаторе», а Арнольд Шварценеггер перевоплотился сразу во всех персонажей трилогии «Властелин колец». Список продолжает пополняться.

Технологию критикуют, из-за того что её можно использовать для мошенничества и манипуляций общественным мнением. Например, в 2019 году в США распространилось видео с «пьяной» Нэнси Пелоси — спикером палаты представителей и одним из лидеров Демократической партии. Для видео речь политика замедлили, а затем подключили нейросети, чтобы сделать голос естественным.

Социальные сети — Twitter, Facebook, TikTok, Reddit — уже разрабатывают и применяют политику по защите пользователей от фальшивок. В некоторых странах вопрос с подделками решают на законодательном уровне. В Китае такие ролики маркируются, в некоторых штатах США, например в Калифорнии, запрещено распространять дипфейки с политиками перед выборами. Во Франции ввели санкции за монтаж речи или изображения человека без его согласия.

Последствия: Известный в YouTube дипфейкер Shamook решил посоревноваться с Disney и создал более правдоподобную версию помолодевшего Люка. Студия оценила его талант и предложила сотрудничество. С помощью умельца в очередной части «Звёздных войн» вернули к жизни и нестареющую принцессу Лею.

Наивные вопросы

Последствия: Ролик получил свою порцию славы, как и прошлые работы Постерса с фейковыми Морганом Фрименом или Дональдом Трампом. Вдохновлённый успехом, Постерс с соавторами покусился на великого и ужасного Марка Цукерберга: в дипфейк-видео основатель Facebook рассказывал о безграничной власти соцсети над новостями. В ответ на это руководство Facebook объявило войну подделкам. А вот Безос не обиделся: по его мнению, запреты на дипфейки — один из видов цензуры.

В 2014 году технологию разработал студент Стэнфордского университета Иэн Гудфэллоу. В 2017 году она стала широко известной благодаря пользователю Reddit с ником deepfake, который начал с её помощью заменять лица порноактрис лицами знаменитостей. Вскоре появилась программа, сильно упрощавшая процесс, и порноролики со «звёздами кино» заполнили интернет.

Последствия: Виртуальный Дали сопровождал посетителей музея на выставке Dali Lives. Мэтр жестикулировал, рисовал, шутил, рассказывал истории, общался со всеми желающими и делал с ними селфи. Чтобы добиться такого результата, создателям понадобилось более 6000 кадров с изображением художника и 1000 часов машинного обучения.

В марте 2019-го гендиректор британского филиала крупной энергетической компании принял звонок от босса из Германии. Тот со своим обычным немецким акцентом пробормотал срочное поручение: в течение часа отправить средства венгерскому поставщику. Британец положил трубку, перевёл на указанный счёт 220 тысяч евро и вскоре попал во все газеты как первый известный человек, облапошенный с помощью искусственного интеллекта. Ему звонила нейросеть, научившаяся с помощью GAN имитировать голос начальника-немца на основе аудиозаписей его выступлений. Страховой компании пришлось покрыть убытки, а остальным — задуматься о будущем.

В 2017 году компания NVIDIA обучила нейронную сеть менять погоду и время суток на видео. Исследователи из Университета Карнеги — Меллона создали алгоритм, способный наложить мимику одного человека на лицо другого. А специалисты Вашингтонского университета научили нейросеть следить за тем, как человек на видео шевелит губами, сопоставлять его мимику со звуками, а затем превращать аудиозаписи в реалистичное видео. То есть голосового сообщения теперь достаточно, чтобы получить видео человека, который произносит эту речь. Разработчики из Facebook AI Research и вовсе обучили свою нейросеть распознавать движущегося человека на видео и произвольно менять его движения: управлять героем на видео можно так же, как персонажем в компьютерной игре. А можно ещё и фон вокруг поменять.

ЧИТАТЬ ТАКЖЕ:  Нейросети которые генерируют изображения

Дипфейки часто использовали для создания фальшивого порно с «участием» известных людей. Получившимся видео их могли шантажировать или просто пытаться скомпрометировать. Лица женщин вырезали из фотографий, найденных в сети, и интегрировали в порнографические видео. Эксперт по технологии Генри Аждер приводит конкретные данные: 96% дипфейков в интернете — порнография, причем в абсолютном большинстве из них используются женские лица и образы.

Пращуром дипфейков стал в конце ХХ века цифровой клон актёра — понятие, пришедшее из киноиндустрии. Внешность и голос умершего или живого актёра воссоздавали с помощью донейросетевой технологии CGI (computer-generated imagery — изображения, сгенерированные компьютером), получая виртуальную модель человека.

Считается, что эра дипфейков началась в конце 2017 года, когда пользователь с ником DeepFakes выложил на Reddit несколько видео с контентом 18+. На них актрисам из видео для взрослых были «приделаны» лица голливудских звёзд. Технология быстро разошлась в интернете и запустила волну по созданию похожего контента. В недавнем исследовании нидерландская компания по кибербезопасности Deeptrace выявила, что ролики 18+ составляют 96% от общего числа дипфейков: на момент исследования их было около 15 тысяч во всей Сети.

Чем полезны дипфейки

Однажды вечером докторант Монреальского университета Ян Гудфеллоу поспорил с друзьями за кружкой пива. Приятели поделились с ним идеей: они хотели создать нейросеть, которая будет придумывать лица никогда не существовавших людей. Получалось не очень. На сгенерированных изображениях не хватало то ухо, то носа, а чаще все детали были на месте, но портрет больше походил на шизоидную аппликацию из вырезанных частей лица со странными пропорциями, чем на нормальную физиономию. Разработчики планировали исправить болезненный творческий стиль нейросети, заставив её анализировать огромное число реальных фотографий. Но Гудфеллоу их высмеял. Для этого потребовались бы такие вычислительные мощности, которых у его приятелей просто не было. Так что у них ничего не получится, если только… Если только не создать вторую нейронную сеть, которая будет критиковать первую, а потом не стравить их, заставляя спорить, пока они не станут выдавать изображения нужного качества.

Чтобы изменить внешность, ещё десять лет назад нужны были грим, маска или пластическая операция. Сейчас достаточно нескольких кликов — и Илон Маск поёт: «Земля в иллюминаторе…», на месте Шарлиз Терон в рекламе духов появляется мистер Бин, портрет Моны Лизы оживает, и её фирменная улыбка вдруг теряет уверенность. Всё это стало возможным благодаря технологии deepfake, которая напрочь лишает уверенности в подлинности любого видео, зато открывает необыкновенный простор для творчества и приключений вашего цифрового клона в виртуальных мирах будущего.

Инженеры-исследователи Кейт Глазко и Ивэй Чжэн используют дипфейки для помощи людям с афантазией. В этом состоянии у человека нет воображения, и он не может создавать абстрактные образы в своей голове. Ученые с помощью дипфейков воспроизводят разные жизненные обстоятельства, в которые может попасть такой человек. Это помогает людям с афантазией прорепетировать потенциально стрессовую ситуацию и за счет этого снизить тревогу.

Есть несколько способов создать «обманку», но их объединяет общий принцип. Имя ему — GAN, генеративно-состязательная сеть (Generative adversarial network). Это алгоритм машинного обучения, построенный на соревновании двух нейросетей. Одна зовётся Генератор, она создаёт фальшивки. Другая, Дискриминатор, выступает в роли эксперта, который пытается отличить подделку от оригинала. Чем лучше Генератор обманывает Дискриминатора, тем правдоподобнее выглядит дипфейк.

Во время выборов в Великобритании в 2019 году художник Билл Постерс выпустил фейковое видео, в котором Борис Джонсон (тогдашний глава Консервативной партии Великобритании) говорил, что британцы должны голосовать за Джереми Корбина (в то время — лидера соперничающей с консерваторами Лейбористской партии).

В начале 2020 года Facebook объявил об ужесточении борьбы с дипфейками, созданными для введения пользователей в заблуждение. А МВД России в мае 2021 года опубликовало тендер на разработку новой системы распознавания лиц. Программа «Зеркало» должна будет также выявлять дипфейки.

И всё-таки главное, что делает GAN, — это не перерисовывание лиц, а создание более самостоятельных машин. Пока ещё ИИ-программистам приходится подбирать нейросетям материал для обучения — например, сообщать, какие изображения содержат пешеходов, пересекающих дорогу, а какие нет. Но очень скоро нужда в этом отпадёт. Компьютеры будут гораздо лучше справляться с необработанными данными и смогут сами понять, чему им надо научиться. Недаром Ян Лекун, глава лаборатории искусственного интеллекта в Facebook, назвал GAN самой крутой идеей глубокого обучения за последние 20 лет.

По мере совершенствования дипфейков расширялось их применение в криминальной сфере. Теперь мошенники генерируют голос для звонков по телефону и создают компрометирующие видеоролики для шантажа. А в будущем? По прогнозам экспертов, дипфейки могут стать угрозой национальной безопасности. Повсеместный сбор биометрических данных создаёт дополнительные риски: фейковое изображение можно будет использовать вместе с фейковыми отпечатками пальцев или следами ДНК.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь