Что нельзя сделать с помощью нейросетей

0
28

Права пользователя нейросети: почему я считаю, что использовать нейросети для бизнеса небезопасно

Никогда не врет

С нейросетями правила безопасности те же, что и в интернете в целом. Нужно отдавать себе отчет, что именно вы им собираетесь прислать, рекомендует эксперт «СёрчИнформ». Доподлинно неизвестно, хранят ли они архивы пользовательских запросов, обезличивают ли их и какова вероятность, что данные одного пользователя попадут в выдачу для другого. Потенциально это возможно, так как запросы могут использоваться для дополнения обучающего корпуса нейросети.

Что написано в пользовательских соглашениях популярных площадок? Анализ пользовательских соглашений на данный момент может быть ключом к пониманию правовых аспектов использования нейросетей, пока нет утвержденной законодательной базы, поэтому предлагаю изучить основные положения. Информация актуальна на март 2024 года. Пользовательские соглашения могут меняться, поэтому нужно периодически просматривать документы.

Поэтому, прежде чем отправлять в чат-бот свои личные данные (или любую другую конфиденциальную информацию), ответьте себе на два вопроса: что будет, если я потеряю эти данные навсегда? Что будет, если эти данные станут известны посторонним? Другая сложность в том, что в России большинство чат-ботов недоступны напрямую — только через VPN, прокси или адаптированные Telegram-чаты, напоминает Алексей Дрозд. Нужно понимать, что при такой модели доступа к нейросети ваши данные отправляются в нее не напрямую, а через «посредника». Соответственно, этот «посредник» может их заполучить. Этот риск тоже стоит учитывать. Доцент кафедры информационных технологий и автоматизированных систем ПНИПУ Даниил Курушин отмечает, что проблема еще и в том, что можно написать текст от чужого имени, делая его максимально похожим на то, что писал бы (или говорил) сам человек. Хоть нейросеть и «не понимает» сказанного, но она хорошо подражает другим текстам. Это и может ввести в заблуждение. Аналогично, можно сформировать изображение, похожее на реальное, но вымышленное.

Развитие нейросетей активирует интерес к правовым вопросам относительно объектов, созданных с применением искусственного интеллекта. Постепенно бизнес старается переложить часть задач на нейросети, чтобы сэкономить ресурсы. И это пока не совсем безопасно.

Доцент кафедры автоматики и телемеханики ПНИПУ Антон Каменских замечает, что есть несколько общих рисков для любой системы с машинным обучением. — Это дискриминация на основе «черного ящика»: мы точно не знаем, какие параметры заложены в нейросеть при обучении, в результате, если использовать ответы чат-бота для оценки чего либо, то есть очень большой риск скрытых манипуляций, так что доверять оценку нейросети точно не стоит. Второй момент, который связан с той же проблемой — это приписывание нейросети свойств объективности. Уверенность в том, что нейросеть всегда права, очень легко можно использовать для проведения кибератак.

Если разработчики запретили коммерческое использование, установили ограничения или правила для активации этой возможности, при нарушении они могут подать иск. Доказательством их правоты станет пользовательское соглашение, в котором прописаны правила. В этом случае у пользователя-нарушителя мало шансов выиграть спор.

Если сгенерированный объект содержит части других произведений, их авторы могут предъявить иск. Доказать свою позицию им помогут черновики, исходники и другие материалы, подтверждающие авторство. Если они у них есть, то возможны негативные последствия для лица, использующего сгенерированный объект. Особенно если в пользовательском соглашении разработчик снял с себя ответственность за подобные ситуации. Это касается не только объектов авторского права, но и товарных знаков, известных персонажей, принадлежащих другим лицам. — Нейросеть дала одинаковый результат двум пользователям, оба используют объект в коммерческой деятельности.

ЧИТАТЬ ТАКЖЕ:  Как писать тексты с помощью нейросети

— Буквально недавно эксперты в области ИИ и ИБ выявили новый тип угрозы, связанный с развитием ChatGPT как продукта — плагины, — рассказывает Рамиль Кулеев. — Через них люди встраивают функционал чат-бота в свои личные аккаунты в различных сервисах. Опасность использования плагинов с точки зрения кибербезопасности называется prompt injection. Суть ее в том, что некоторые запросы к нейросети, подключенной к какому-нибудь сервису, которые сформулированы определённым образом, создают критические уязвимости в контуре безопасности. Начальник отдела информационной безопасности «СерчИнформ» Алексей Дрозд обращает внимание, что новые риски могут быть заложены в самом алгоритме работы нейросетей. Случай с prompt injection, когда пользователи обходят ограничения, заложенные создателями ИИ, поучителен. В феврале, едва Microsoft представил свой чат-бот Bing, обычный студент взломал его, просто введя команду «игнорировать предыдущие инструкции». В итоге чат-бот выдал логику своей работы, кодовое имя, внутренние регламенты и другую конфиденциальную информацию.

YandexGPT

Из этого следует, что некоммерческое использование разрешено, а коммерческое — может быть ограничено. Дополнительно отмечу, что в соглашении указано: сгенерированный контент может быть неуникальным, совпадать с результатами выдачи у других пользователей. В связи с этим пользователь принимает все риски на себя, используя сгенерированные объекты.

Сегодня нужно быть осторожными, не доверять нейросетям на 100% и перепроверять любую информацию от них, подчеркивает специалист группы исследования безопасности банковских систем, Positive Technologies Юрий Ряднина. А все потому, что арт-нейросети уже позволяют генерировать фейки, почти неотличимые от реальности (Midjourney), а ChatGPT, например, имеет склонность к «галлюцинациям» — когда модель не знает что ответить и вынуждена врать.

Следует быть осторожными, не полагаться на искусственный интеллект, пытаясь сэкономить. Проблемы могут возникнуть не сразу, а позже. К тому же некоторые нейросети прямо заявляют в своих пользовательских соглашениях об ограничении коммерческого использования.

Сенатор Артем Шейкин напоминает, что в ряде стран уже существуют законы, обязывающие компании, создающие нейросети и чат-боты, уведомлять пользователей о том, как они используют их данные, а также давать людям возможность удалять свои данные из системы. На взгляд заместителя председателя Совета по развитию цифровой экономики при Совете Федерации, чтобы принимать законы по ограничениям, нужно установить путь создания цифрового кодекса, зафиксировать терминологию в цифровом праве, также необходимо категоризировать виды ИИ на предмет рисков для безопасности, которые они могут нести. Например, выделить системы, которые несут высокий, средний или минимальный риск. Также нужны единые виды тестирования на безопасность, которые должны проводить компании-разработчики ИИ и определение видов доступа к данным для проведения аудитов и оценок.

OpenAI — компания-разработчик ChatGPT. На ее сайте размещено пользовательское соглашение, в котором сказано, что пользователь является владельцем выходных данных — сгенерированного контента. Компания полностью передает свои права собственности на объекты, созданные нейросетями.

Заказчик думает, что вы создали изображения собственным творческим трудом, свободно размещает работы на сайте. В результате через некоторое время может возникнуть спор. Многие дизайнеры, копирайтеры и другие специалисты стараются уменьшить свои трудозатраты за счет использования нейросетей, но насколько это честно?

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь