Нейросеть которая делает порно

0
16

Deepfakes: порно, в которое нейросеть добавляет лица знаменитостей. Его запрещают все крупные сервисы, даже PornHub

Неэтичная нейросеть

Программа, написанная deepfakes, работала так: она анализировала лица на порнороликах и пыталась «исправить» их — то есть сделать как можно более похожими на образец. За образец брались лица знаменитостей. Фото и видео с актрисами deepfakes добывал в Google, на фотостоках и на YouTube. Результат был неидеальным: зачастую порноактрисы лишь отдаленно напоминали знаменитостей; на лицах появлялись швы и неровности.

Страдают от дипфейков не только корейские звезды. В начале 2024 года в соцсети X (ранее Twitter, заблокирована в России) завирусилось большое количество созданных искусственным интеллектом непристойных фото Тейлор Свифт. Снимки, на которых Свифт изображена в откровенных позах, набрали десятки миллионов просмотров, пока не были заблокированы платформой. Удаление фотографий, как сообщалось, заняло 17 часов, однако многие изображения по-прежнему доступны в социальных сетях. По словам руководителя агентства цифровых расследований Memetica Бена Декера, у медиакомпаний «нет эффективной методики противодействия такому контенту и его мониторинга».

В начале июля в центре скандала из-за публикации дипфейк-порнографии оказались британские женщины-политики. На популярный ресурс для взрослых были загружены фото с заместителем лидера Лейбористской партии Анджелой Рэйнер, министром образования Джиллиан Киган, лидером палаты общин Пенни Мордант и другими. Некоторые снимки — просто грубый фотошоп, где лицо политика наложено на обнаженное тело другого человека, но другие изображения выглядят как дипфейки, созданные ИИ. Многие из этих изображений оказались в сети еще несколько лет назад и к настоящему времени набрали сотни тысяч просмотров, писало издание The Guardian. Некоторые из политиков обратились в полицию.

С помощью дипфейка можно испортить репутацию человека или шантажировать его, при этом закон во многих странах все еще не считает подобные изображения и видео чем-то противозаконным. Forbes Woman рассказывает, как искусственный интеллект превратился в один из инструментов сексуализированного насилия и с какими психологическими последствиями сталкиваются пострадавшие, большинство которых — женщины

Позже разработчик выложил программу, которая позволяет любому желающему — если у него есть достаточно мощный компьютер и нужные данные — создать фейковое порно. Это увлечение понравилось пользователям Reddit: на раздел, который тоже называется deepfakes, подписалось больше 90 тысяч человек. Само слово deepfakes стало обозначать соответствующий жанр.

При этом 99% жертв подобной цифровой фальсификации — женщины. «Мизогиния, отношение к женщине как к объекту, распространенные в культуре, в частности в онлайн-среде, служат почвой для того, чтобы авторы дипфейков верили в свое право создавать и распространять такие материалы. Так же, как, например, в случае с порноместью, они могут рассматривать свою деятельность как форму наказания тех, чьи изображения они используют», — объясняет мотивацию создателей дипфейк-порнографии Анна Богомолова, специалист центра «Сестры», оказывающего помощь пострадавшим от сексуализированного насилия.

От певиц до политиков

Пострадавшая от публикации дипфейков член Консервативной партии Дехенна Дэвисон, комментируя ситуацию, заявила, что речь идет о грубом нарушении личных границ и вторжении в частную жизнь. Она добавила, что если правительства по всему миру не создадут надлежащую регуляторную базу для ИИ, то возникнут «серьезные проблемы». Другой британский политик Стелла Кризи призналась, что почувствовала отвращение: «Все это не имеет отношения к сексуальному удовольствию, речь идет о власти и контроле».

ЧИТАТЬ ТАКЖЕ:  Совместимость как контролировать искусственный интеллект рассел стюарт

Искусственный интеллект анализирует черты лица и мимику, походку и жесты, что позволяет создавать реалистичные подделки. Загрузив в программу всего лишь одно четкое изображение лица жертвы, можно наложить его на тело другого человека, и в результате получится убедительное видео. Это открывает беспрецедентные возможности для создания фальшивых новостей, манипулирования политическими событиями и нанесения ущерба репутации.

Подавляющее большинство (94%) жертв дипфейк-порно — это представительницы индустрии развлечений, а самое большое распространение технология получила в Южной Корее. На певиц и актрис из этой страны приходится более половины всех дипфейк-порнороликов в мире. Южная Корея имеет долгую и сложную историю отношений как с порнографией, так и с цензурой. После периода строгих правил и общественных табу, связанных с откровенным контентом, с появлением интернета и увеличением доступности материалов для взрослых южнокорейское общество изменило отношение к порнографии. Глубоко укоренившаяся в Южной Корее культура почитания и подражания знаменитостям, поддерживаемая успехом K-pop (корейской поп-музыки) и дорам (телесериалов на корейском языке) создала благоприятную почву для распространения откровенных дипфейков — фанаты в том числе желают увидеть селебрити в сексуальном контексте.

Технология дипфейков — это значительный прорыв в области искусственного интеллекта и цифровой манипуляции. Она используется для создания высококачественного и вводящего в заблуждение медийного контента, такого как видео, аудиозаписи или изображения, при просмотре или прослушивании которого кажется, что реальные люди делают то, чего они на самом деле не делали.

Поклонникам жанра также не советуют покупать или продавать ролики, созданные с помощью нейросети. Как минимум один такой прецедент уже был — и это очень опасно. Как объясняет Motherboard, коммерческое использование deepfakes дает возможность подать в суд на автора ролика за незаконное использование имени и образа человека.

Как и большинство крупных социальных платформ, X запрещает распространение «искусственно созданных, манипулятивных или вырванных из контекста медиа, которые могут ввести в заблуждение или запутать людей и причинить вред». Однако при этом X сократила команду модераторов и теперь полагается на автоматизированные системы и пользовательские жалобы. В Евросоюзе в настоящее время в отношении X проводится расследование из-за нового подхода к модерации контента.

Большой проблемой, по ее словам, также становится и то, что сексуализированное насилие в интернете имеет длящийся характер («все, что было опубликовано в сети, остается в сети»). «Даже если агрессор раскается, предпримет попытку удалить материалы и/или прекратить угрозы и шантаж, совсем не гарантировано то, что эти материалы не будут распространяться дальше и ими не воспользуется кто-то другой», — объясняет она.

Наконец, 6 февраля deepfakes решил запретить крупнейший порносайт PornHub. В компании объяснили, что не допускают распространения материалов, произведенных без согласия их участников, — то есть приравняли фейковое порно к «порномести». Издание Motherboard отмечает, что, несмотря на это заявление, на PornHub по-прежнему можно найти много роликов с пририсованными лицами знаменитостей — достаточно ввести в поиске запрос «deepfakes». Поклонники жанра также указывают на то, что правила PornHub почему-то не мешают порносайту хранить настоящие интимные видео, украденные с телефонов и компьютеров знаменитостей.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь