Содержание статьи
Дипфейки (DeepFake)
Минцифры РФ готовит единую платформу по противодействию мошенничеству. Она будет бороться с дипфейками
Мошенники научились подделывать документы граждан при помощи технологий искусственного интеллекта (ИИ). Как и раньше, при создании цифровых поддельных копий, они либо меняют цифры, либо пытаются выдать недействительный документ за действительный, однако теперь в этих целях также используются дипфейки для процесса аутентификации и синтеза данных. Такой информацией 8 мая 2024 года с TAdviser поделились в пресс-службе депутата Государственной Думы РФ Антона Немкина со ссылкой на «Известия». Подробнее здесь.
Как показал опрос, проведенный Gartner в период с апреля по май 2024 года, 80% потребителей указывают на то, что ГенИИ усложняет распознавание реального и синтезированного контента в интернете. Создав протокол «человек в контуре», менеджеры могут вооружиться необходимыми инструментами для мониторинга социальных сетей и управления репутационными рисками. Соответствующие процессы должны быть адаптированы для сценариев, специфичных для ГенИИ, включая внедрение новых средств оповещения о ложном и вводящем в заблуждение контенте на социальных платформах.
В начале ноября 2024 года стало известно о том, что в России набирает обороты новая киберпреступная схема, основанная на технологиях искусственного интеллекта. Телефонные мошенники используют дипфейки умерших людей, под различными предлогами выманивая деньги у их родственников.
Мошенники начали подделывать с помощью ИИ голоса россиян и обманывать их родственников и друзей в мессенджерах. Об этой схеме 11 января 2024 года рассказали в управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России.
Банк России совместно с представителями правоохранительных и надзорных органов прорабатывает вопрос о расширении перечня подлежащих регистрации и хранению сведений о действиях клиентов кредитных организаций и операторов по переводу денежных средств. В соответствии с новыми правилами, с июня 2024 года операторы платежных систем и электронных платформ, включая банки, должны будут передавать данные об украденных средствах клиентов финансовому регулятору. Предполагается, что такие меры помогут в предотвращении преступлений и снижении убытков.
Стоит также проверить особенности лица. Например, волосы могут быть позаимствованы с «подложного» видео и не соответствовать реальности, либо смазаны в результате наложения одного лица на другое. Если собеседник знаком в реальной жизни, можно сопоставить родинки, шрамы, татуировки, если они свойственны контакту.
В России могут ввести ответственность за несанкционированное использование дипфейков
С начала 2024 года в России стали фиксироваться случаи мошеннических схем, в которых применяются в совокупности техники социальной инженерии и deepfake. Цель такой атаки заключается в том, чтобы получить денежные средства от сотрудников компании, которые получают сообщения от фейкового аккаунта руководителя в Telegram.
Как отметили в полиции Гонконга, это было первое дело такого рода, прием касающееся крупной суммы. По словам исполняющего обязанности старшего суперинтенданта Криминального бюро Барона Чана Шунь-цзина (Baron Chan Shun-ching), в предыдущих случаях мошенники обманывали жертв с помощью видеозвонков один на один. [14]
В один день – 16 сентября – в Государственную думу внесено сразу два законопроекта, направленных на защиту от дипфейков. Один разработан Ярославом Ниловым, депутатом ГД, совместно с сенатором Алексеем Пушковым. Он вносит изменения в Уголовный кодекс РФ. Второй, который предложили сенаторы Андрей Клишас, Артём Шейкин, Наталья Кувшинова, Руслан Смашнёв и депутат ГД Даниил Бессарабов, предлагает изменения в Гражданский кодекс РФ.
В середине октября 2024 года полиция Гонконга арестовала 27 человек по подозрению в совершении мошенничества с использованием технологии подмены лиц (видеодипфейков) с целью знакомства на сайтах в интернете. В результате этой схемы жертвы потеряли около $46 млн. Подробнее здесь
В ходе обсуждения поправок, направленных на ужесточение ответственности за допущение утечек персональных данных, первый зампред думского Комитета по науке и высшему образованию Олег Смолин поднял вопрос о распространении дипфейков – подделках как голоса, так и изображения человека с помощью технологий искусственного интеллекта.
Обращать внимание на руки собеседника на видео, так как чаще всего именно они «страдают» при генерации контента: добавляются, удаляются либо склеиваются пальцы. Стоит отметить, что атакующие учитывают этот момент, чтобы избежать распознавания видеофейка, поэтому при общении выбирают портретную зону.
«Наш метод не только обеспечивает генерацию видео высокого качества с реалистичной мимикой лица и движениями головы, но также поддерживает функцию онлайн-генерации видео 512×512 точек с частотой 40 кадров в секунду с незначительной начальной задержкой. Это открывает путь к взаимодействию в реальном времени с реалистичными аватарами, имитирующими поведение человека во время разговора», — говорится в сообщении Microsoft.
Законы, которые ограничивают использование в кинопроизводстве сгенерированных изображений и голосов актеров и которые упоминает Валерий Сидоренко, уже были недавно подписаны губернатором штата Гэвином Ньюсомом. Об этом сообщила [6] Американская федерация артистов телевидения и радио (SAG-AFTRA). Собственно, и наш законопроект, как следует из пояснительной записки, разработан Альянсом в сфере ИИ и Национальной федерацией музыкальной индустрии, то есть направлен на создание рынка легального использования голосовых дипфейков.