Содержание статьи
Неидеальная технология: проблемы и ограничения нейросетей
Не спешим ставить крест на нейронках
Также у DALLE-2 в лексиконе обнаружился набор абсурдных слов, которые соответствуют определенным визуальным концепциям и даже могут согласовываться между собой. Эти слова нейросеть сначала сгенерировала на картинках, а потом исследователи предложили их в качестве запросов и получили определенный результат. Видимо, ИИ видит в них совпадения с реальными запросами, то есть для него эти слова похожи на что-то, что уже встречалось в вводных данных.
Мошенники могут использовать ИИ, чтобы получать доступы к чужим аккаунтам и конфиденциальным данным. Например, попросить нейросеть синтезировать голос по образцу. В Израиле провели эксперимент, в процессе которого научили нейросеть генерировать грим, который может обмануть систему распознавания лиц.
Главная проблема нейросетей в том, что ИИ может проанализировать огромные объемы данных, но на уровне поверхностных статистических закономерностей. Например, нейронка может распознать на изображении объекты по очевидным особенностям: форме, цвету, расположению, деталям. Но не может обработать картинку на более высоком уровне абстрактных концепций и понять суть.
Активное применение нейросетей для создания контента может привести к тому, что интернет заполонит сгенерированная информация. Это грозит огромным количеством фейков, в том числе новостных, которые тем более опасны, чем более качественные тексты научится писать ИИ — будет все сложнее отличить информацию из источников от сгенерированных материалов с фактическими ошибками. Тем более что нейросеть умеет учитывать алгоритмы поисковых систем, и ее материалы могут занимать более высокие позиции в выдаче.
Через несколько дней Альтман вернулся на свой пост, чтобы дальше заниматься развитием ChatGPT. Из вышесказанного официально подтверждается только то, что в ближайшем будущем нас ждут серьезные достижения в области ИИ. Но разработка модели GPT 5 на данный момент приостановлена — разработчики работают над вопросами безопасности актуальной языковой модели GPT 4 и устранением недостатков ChatGPT.
Также ИИ станет обучаться на собственных текстах, что приведет ко все более частым ошибкам и неизбежному снижению качества работы. Произойдет технический коллапс. В интернете будет стремительно уменьшаться количество ценной информации, а нейросети станут практически бесполезными.
Например, языковая модель Galactica по просьбе пользователя написала очень убедительную «научную статью» о пользе употребления битого стекла. В материале были ссылки на исследования и мнения экспертов, имеющие вид полноценной доказательной базы. Та же модель путала исторические даты, имена, факты — к примеру, писала о запуске медведей в космос. В итоге из-за многочисленных жалоб пользователей, тестировавших платформу, она была заблокирована.
Есть мнение, что нейрокартинки всё-таки являются объектом авторского права, потому что человек творческим трудом создаёт саму нейросеть, которая генерирует изображения. Это спорно, потому что творческий труд направлен на создание нейросети, а не изображений.
Использование нейрокартинок, которые копируют другие изображения
Музей обратился в суд с требованием прекратить нарушение его интеллектуальных прав на оригинальную картину и выплатить компенсацию. Дело прошло несколько инстанций, но в итоге музею удалось доказать, что новая картина не является оригинальным произведением, а создана на основе старой работы. Суд проанализировал концепцию и композицию обеих картин и сделал вывод о производном характере второй.
Вопреки впечатлению, что нейросети сейчас используются почти всеми и повсюду, это все еще довольно дорогая технология. Нейронные сети для обучения или работы требуют значительных вычислительных мощностей для обработки данных. Далеко не во всех сферах можно внедрить такое оборудование, чтобы это было экономически оправдано.
Если заимствования очевидны, доказать факт переработки можно. Так было в одном из громких дел последних лет. Художник продал музею современного искусства свою картину «Пулково не принимает. Д.Шорин 2008» и передал все права на неё, а в 2016-м создал практически идентичную картину «Пулково не принимает. Д.Шорин 2016» и предлагал купить её на своём сайте.
Есть версия, что этому предшествовало письмо от штатных исследователей, в котором говорилось о прорыве в области ИИ, который может угрожать человечеству. У совета директоров возникли опасения по поводу коммерческого использования разработок до понимания последствий. Сэма Альтмана отстранили из-за того, что был недостаточно прозрачен в коммуникации с советом. Его способность возглавлять OpenAI была поставлена под сомнение.
Анонимный источник сообщил, что модель смогла решить некоторые математические задачи, что говорит о ее больших перспективах в будущем. Освоение математики — следующий шаг в развитии ИИ, на котором он научится рассуждать, а не просто статистически предсказывать и генерировать ответы, как это сейчас делают языковые модели.
Анализ показал, что тарабарщина не была системным сбоем, и машины по-прежнему понимали друг друга. Предположительно боты перешли на упрощенную форму общения для более быстрого принятия решений. Во избежание непредвиденных последствий систему отключили.
Нейросети же получают и применяют знания изолированно, в рамках конкретных задач. Они не могут гибко интегрировать навыки и использовать их повторно для решения новых задач в другом контексте — ИИ, которая умеет играть в Го, не сможет перенести усвоенные игровые принципы на аналогичную игру.
Более того, присутствие несвойственных деталей на объектах сбивает нейросеть с толку. Достаточно изменить несущественную часть изображения — и вот уже ИИ не может отличить собаку от кошки. А способность провести более глубокий сознательный анализ, абстрагироваться от поверхностных признаков и скорректировать свое первое впечатление ему пока недоступна.