Содержание статьи
Нейросети и авторское право: ответы на актуальные вопросы
Как российская правовая система относится к авторству нейросетей?
Например, языковая модель Galactica по просьбе пользователя написала очень убедительную «научную статью» о пользе употребления битого стекла. В материале были ссылки на исследования и мнения экспертов, имеющие вид полноценной доказательной базы. Та же модель путала исторические даты, имена, факты — к примеру, писала о запуске медведей в космос. В итоге из-за многочисленных жалоб пользователей, тестировавших платформу, она была заблокирована.
Вопреки впечатлению, что нейросети сейчас используются почти всеми и повсюду, это все еще довольно дорогая технология. Нейронные сети для обучения или работы требуют значительных вычислительных мощностей для обработки данных. Далеко не во всех сферах можно внедрить такое оборудование, чтобы это было экономически оправдано.
Но, как и свой прототип, искусственная нейронная сеть несовершенна. Как у любой новой технологии, ИИ таит в себе сложности, проблемы, ограничения, непрогнозируемые последствия и даже угрозы. О чем сейчас переживают создатели нейронных моделей и какие есть варианты развития событий — читайте дальше.
В 2022 году крупнейшие фотобанки вводили запрет на продажу сгенерированных картинок, потому что не уверены, что это законно. В 2023 году фотобанк Getty Image, а потом и художники вовсе подали иски в суд на нейросети Stable Diffusion и Midjourney. Дело в том, что нейросети использовали миллионы изображений и фото, созданных реальными художниками, фотографами, дизайнерами.
Нейросети же получают и применяют знания изолированно, в рамках конкретных задач. Они не могут гибко интегрировать навыки и использовать их повторно для решения новых задач в другом контексте — ИИ, которая умеет играть в Го, не сможет перенести усвоенные игровые принципы на аналогичную игру.
Есть версия, что этому предшествовало письмо от штатных исследователей, в котором говорилось о прорыве в области ИИ, который может угрожать человечеству. У совета директоров возникли опасения по поводу коммерческого использования разработок до понимания последствий. Сэма Альтмана отстранили из-за того, что был недостаточно прозрачен в коммуникации с советом. Его способность возглавлять OpenAI была поставлена под сомнение.
Через несколько дней Альтман вернулся на свой пост, чтобы дальше заниматься развитием ChatGPT. Из вышесказанного официально подтверждается только то, что в ближайшем будущем нас ждут серьезные достижения в области ИИ. Но разработка модели GPT 5 на данный момент приостановлена — разработчики работают над вопросами безопасности актуальной языковой модели GPT 4 и устранением недостатков ChatGPT.
Не рекомендуем создавать логотипы с помощью нейросетей. Если простая иллюстрация не имеет колоссального значения для бизнеса, то логотип – это визитная карточка, которая презентует компанию ежедневно. К этому объекту нужно подходить серьезно, чтобы потом не потерять его и не судиться с авторами, части произведений которых вошли в ваш лого.
Риск стать инструментом для обмана
Главная проблема нейросетей в том, что ИИ может проанализировать огромные объемы данных, но на уровне поверхностных статистических закономерностей. Например, нейронка может распознать на изображении объекты по очевидным особенностям: форме, цвету, расположению, деталям. Но не может обработать картинку на более высоком уровне абстрактных концепций и понять суть.
Нейросети не могут обобщать знания и разрабатывать на их основе новые стратегии. Например, ИИ, который обучили определять рак груди на маммограммах, не может распознать аномалию на МРТ или УЗИ. Это не позволяет нейросетям выходить за рамки специализации — для распознавания лиц и животных нужно обучать две отдельные модели.
Американское бюро решило, что признание авторского права на произведение, сгенерированное нейросетью, возможно, но для этого заявитель должен доказать, что он внес значительный вклад для получения конечного результата. То есть, если творческого вклада человека нет, то защите объект не подлежит.
В большинстве случаев, если это не прописано в алгоритме, нельзя определить, как нейросеть пришла к тому или иному ответу — генерация осуществляется неконтролируемо. И если для общения с человеком боты используют выбранную языковую систему, то между собой могут переходить на непонятный человеку язык.
Также ИИ станет обучаться на собственных текстах, что приведет ко все более частым ошибкам и неизбежному снижению качества работы. Произойдет технический коллапс. В интернете будет стремительно уменьшаться количество ценной информации, а нейросети станут практически бесполезными.
Более того, присутствие несвойственных деталей на объектах сбивает нейросеть с толку. Достаточно изменить несущественную часть изображения — и вот уже ИИ не может отличить собаку от кошки. А способность провести более глубокий сознательный анализ, абстрагироваться от поверхностных признаков и скорректировать свое первое впечатление ему пока недоступна.
Еще один риск – недостоверная информация. Нейросеть рисует изображения на основании уже существующих работ, берет их части, компонует и выдает результат. Если не проверять факты, можно стать распространителем недостоверной информации, что скажется на репутации.
Пока есть все шансы стать участником судебных разбирательств из-за использования сгенерированного нейросетью контента в коммерческих целях. Единственный безопасный вариант использования нейросетей – значительная доработка произведений. Берем сгенерированную основу и создаем новый объект. Автором будет тот, кто доработал.