Содержание статьи
Неидеальная технология: проблемы и ограничения нейросетей
Можно ли компаниям использовать сгенерированный контент
Общие нормы об авторском праве на результаты, сгенерированные нейросетью, не распространяются. Так что сейчас порядок использования таких объектов устанавливается владельцами нейросетей. Надо изучать пользовательское соглашение каждой конкретной нейросети, чтобы понять пределы использования контента. Но остаётся открытым вопрос о том, как администрации нейросетей смогут защищать свои права в случае нарушение кем-либо правил. Подобная практика мне пока не встречалась.
Нейросети же получают и применяют знания изолированно, в рамках конкретных задач. Они не могут гибко интегрировать навыки и использовать их повторно для решения новых задач в другом контексте — ИИ, которая умеет играть в Го, не сможет перенести усвоенные игровые принципы на аналогичную игру.
Главная проблема нейросетей в том, что ИИ может проанализировать огромные объемы данных, но на уровне поверхностных статистических закономерностей. Например, нейронка может распознать на изображении объекты по очевидным особенностям: форме, цвету, расположению, деталям. Но не может обработать картинку на более высоком уровне абстрактных концепций и понять суть.
Анализ показал, что тарабарщина не была системным сбоем, и машины по-прежнему понимали друг друга. Предположительно боты перешли на упрощенную форму общения для более быстрого принятия решений. Во избежание непредвиденных последствий систему отключили.
Но, как и свой прототип, искусственная нейронная сеть несовершенна. Как у любой новой технологии, ИИ таит в себе сложности, проблемы, ограничения, непрогнозируемые последствия и даже угрозы. О чем сейчас переживают создатели нейронных моделей и какие есть варианты развития событий — читайте дальше.
В большинстве случаев, если это не прописано в алгоритме, нельзя определить, как нейросеть пришла к тому или иному ответу — генерация осуществляется неконтролируемо. И если для общения с человеком боты используют выбранную языковую систему, то между собой могут переходить на непонятный человеку язык.
Также ИИ станет обучаться на собственных текстах, что приведет ко все более частым ошибкам и неизбежному снижению качества работы. Произойдет технический коллапс. В интернете будет стремительно уменьшаться количество ценной информации, а нейросети станут практически бесполезными.
Есть версия, что этому предшествовало письмо от штатных исследователей, в котором говорилось о прорыве в области ИИ, который может угрожать человечеству. У совета директоров возникли опасения по поводу коммерческого использования разработок до понимания последствий. Сэма Альтмана отстранили из-за того, что был недостаточно прозрачен в коммуникации с советом. Его способность возглавлять OpenAI была поставлена под сомнение.
ИИ заменит людей в большинстве профессий
Потому что в России действует закон об авторском праве. И если его нарушить — можно навредить себе и компании. За нарушение авторских прав могут взыскать штраф от 10 тысяч до 5 миллионов рублей. Размер зависит от характера нарушения и решения суда. А юридическое лицо могут даже ликвидировать.
Андрей Макаров, юрист в области авторского права Не всегда автор и правообладатель являются одним лицом. Изначально авторские (имущественные и неимущественные) права возникают у автора, но исключительное имущественное право может впоследствии быть передано другому лицу, таким образом, правообладатель сменится. А автор в любом случае всегда сохраняет за собой личные неимущественные авторские права (право авторства, право на имя и т.п.), т.к. они неотчуждаемы и отказ от таких прав невозможен и считается ничтожным. В этой связи можно развеять миф об объектах «без авторских прав». Таких объектов не существует. Всегда есть автор и он всегда вправе, например, требовать указания своего имени, даже не являясь правообладателем.
Почти любой контент, сгенерированный нейросетями, можно законно использовать в бизнесе. Дело в том, что он не охраняется авторским правом и создатели нейросетей тоже не считаются авторами нейроконтента. Но есть нюансы — о них написано в пользовательских соглашениях.
Мошенники могут использовать ИИ, чтобы получать доступы к чужим аккаунтам и конфиденциальным данным. Например, попросить нейросеть синтезировать голос по образцу. В Израиле провели эксперимент, в процессе которого научили нейросеть генерировать грим, который может обмануть систему распознавания лиц.
Также у DALLE-2 в лексиконе обнаружился набор абсурдных слов, которые соответствуют определенным визуальным концепциям и даже могут согласовываться между собой. Эти слова нейросеть сначала сгенерировала на картинках, а потом исследователи предложили их в качестве запросов и получили определенный результат. Видимо, ИИ видит в них совпадения с реальными запросами, то есть для него эти слова похожи на что-то, что уже встречалось в вводных данных.
Активное применение нейросетей для создания контента может привести к тому, что интернет заполонит сгенерированная информация. Это грозит огромным количеством фейков, в том числе новостных, которые тем более опасны, чем более качественные тексты научится писать ИИ — будет все сложнее отличить информацию из источников от сгенерированных материалов с фактическими ошибками. Тем более что нейросеть умеет учитывать алгоритмы поисковых систем, и ее материалы могут занимать более высокие позиции в выдаче.
Насколько один контент похож на другой, обычно определяют не судьи и юристы, а специальные эксперты. Суд или сам назначает судебную экспертизу, или стороны уже выходят в процесс со своими заключениями. По общему правилу переработка без согласия правообладателя не разрешается. Но в данном примере пользователь переработку не осуществляет, это делает нейросеть. Так что видится обоснованным привлечение в такой процесс авторов и владельцев нейросети, которые позволили сети действовать по алгоритму переработки.
Через несколько дней Альтман вернулся на свой пост, чтобы дальше заниматься развитием ChatGPT. Из вышесказанного официально подтверждается только то, что в ближайшем будущем нас ждут серьезные достижения в области ИИ. Но разработка модели GPT 5 на данный момент приостановлена — разработчики работают над вопросами безопасности актуальной языковой модели GPT 4 и устранением недостатков ChatGPT.