Содержание статьи
Неидеальная технология: проблемы и ограничения нейросетей
«Хьюстон, у нас проблемы»: ограничения и недостатки ИИ
Есть версия, что этому предшествовало письмо от штатных исследователей, в котором говорилось о прорыве в области ИИ, который может угрожать человечеству. У совета директоров возникли опасения по поводу коммерческого использования разработок до понимания последствий. Сэма Альтмана отстранили из-за того, что был недостаточно прозрачен в коммуникации с советом. Его способность возглавлять OpenAI была поставлена под сомнение.
Человек способен сразу же применять усвоенный навык, причем в разных сферах и контекстах — освоив сложение чисел, мы можем использовать это в быту, взаимных расчетах, исследованиях. А комбинируя навык с другими, способны решать все более и более сложные задачи. Он становится частью инструментария, которым мы владеем в любых обстоятельствах.
В реальном мире часто возникают задачи, которые сложно решить математическими методами. Представьте, что вы создаете самопилотируемый автомобиль. Вам нужно указать в алгоритме, как машина должна действовать, если человек внезапно выбежал на дорогу. Должен ли автомобиль резко свернуть на обочину, рискуя жизнью людей в салоне? Или продолжить двигаться вперед, ведь по правилам человека там быть не должно? Люди принимают такие решения за доли секунды не задумываясь. Но выразить их в коде гораздо сложнее.
Например, языковая модель Galactica по просьбе пользователя написала очень убедительную «научную статью» о пользе употребления битого стекла. В материале были ссылки на исследования и мнения экспертов, имеющие вид полноценной доказательной базы. Та же модель путала исторические даты, имена, факты — к примеру, писала о запуске медведей в космос. В итоге из-за многочисленных жалоб пользователей, тестировавших платформу, она была заблокирована.
Также ИИ станет обучаться на собственных текстах, что приведет ко все более частым ошибкам и неизбежному снижению качества работы. Произойдет технический коллапс. В интернете будет стремительно уменьшаться количество ценной информации, а нейросети станут практически бесполезными.
Также у DALLE-2 в лексиконе обнаружился набор абсурдных слов, которые соответствуют определенным визуальным концепциям и даже могут согласовываться между собой. Эти слова нейросеть сначала сгенерировала на картинках, а потом исследователи предложили их в качестве запросов и получили определенный результат. Видимо, ИИ видит в них совпадения с реальными запросами, то есть для него эти слова похожи на что-то, что уже встречалось в вводных данных.
Проблема нейросетей №5. Не используют навыки в новом контексте
Когда человек узнает новую информацию, он сразу может ее использовать, когда принимает решения. Среди недостатков нейросетей: им требуется время. Например, чтобы научиться играть в стрелялку, нейросети нужно попробовать сотню раз, чтобы разобраться, куда можно и нельзя ходить. Человеку это понятно интуитивно, а ИИ учится методом проб и ошибок. При этом если препятствия или враги появляются неожиданно, нейросеть будет действовать неадекватно, полагаясь на историю своих игр, а не на реальную ситуацию.
Анализ показал, что тарабарщина не была системным сбоем, и машины по-прежнему понимали друг друга. Предположительно боты перешли на упрощенную форму общения для более быстрого принятия решений. Во избежание непредвиденных последствий систему отключили.
Анонимный источник сообщил, что модель смогла решить некоторые математические задачи, что говорит о ее больших перспективах в будущем. Освоение математики — следующий шаг в развитии ИИ, на котором он научится рассуждать, а не просто статистически предсказывать и генерировать ответы, как это сейчас делают языковые модели.
Нейросети не могут обобщать знания и разрабатывать на их основе новые стратегии. Например, ИИ, который обучили определять рак груди на маммограммах, не может распознать аномалию на МРТ или УЗИ. Это не позволяет нейросетям выходить за рамки специализации — для распознавания лиц и животных нужно обучать две отдельные модели.
Этого опасаются копирайтеры, редакторы и сценаристы — все чаще их задачи дают нейросетям. Разработчики нейросетей и сами подогревают эти опасения: на сайте компании OpenAI говорится, что ИИ повлияет на 80% рабочих мест, особенно на те, которые требуют изучения большого объема данных.
В большинстве случаев, если это не прописано в алгоритме, нельзя определить, как нейросеть пришла к тому или иному ответу — генерация осуществляется неконтролируемо. И если для общения с человеком боты используют выбранную языковую систему, то между собой могут переходить на непонятный человеку язык.