Содержание статьи
Алексей Самсонович: «Так, как способен ошибаться искусственный интеллект, человек не смог бы ошибиться никогда»
Искусственное выравнивание
Уроки истории Считается, что механизация в XIX в. способствовала дескиллингу, пишут Джереми Атак (Университет Вандербильта), Роберт Марго (Университет Бостона) и Пол Род (Университет Мичигана): квалифицированные мастера были вытеснены оборудованием, а неквалифицированным рабочим осталось подбрасывать уголь в машины и перетаскивать продукцию. Исследование Лоуренса Каца из Гарвардского университета и Роберта Марго показало, что с 1850 по 1910 г. доля квалифицированных синих воротничков снизилась в США на 17 процентных пунктов. Но разделение труда сыграло большую роль в дескиллинге, чем механизация, считают Атак, Марго и Род.
Более того, чат GPT может не только распознать, но и выразить нужную эмоцию. Скажите ему: «Сгенерируй мне высказывание на такую-то конкретную тему с такой-то конкретной эмоцией». Допустим, клиент недоволен заселением в отеле или открытием счета в банке – надо донести до клиента конкретную фразу, но имеющую ту или иную эмоциональную окраску – чат GPT вам это напишет в реальном времени. Причем уже есть возможность получить не просто текст, а живую речь фотореалистичного антропоморфного агента с выражением требуемых эмоций в тембре и интонации голоса, в мимике, взгляде, жестах, позе, и т.д. Все соответствующие модели есть, и поле здесь уже распахано вдоль и поперек – по большому счету все эти «периферийные» задачи решены, и мы имеем огромный набор средств для распознавания и для выражения эмоций, включая их тончайшие детали. Единственное, чего нет – это то, что должно быть посередине между ними. Центральный элемент как раз отсутствует. Вы распознали эмоцию собеседника и можете выразить любую эмоцию в ответ – но какую? Определить это на уровне человека в любой непредвиденной ситуации искусственный интеллект пока не может.
— Как ни странно, ответы очень разумны. Как раз недавно на конференции BICA* AI 2023 я увидел пример выдачи чата GPT, которого попросили объяснить суть книги Уэллса «Война миров». Меня поразило, насколько ответ грамотно был дан на естественном языке и какой была (кажущаяся!) глубина понимания и анализа текста: какие аналогии проводит автор, на какие подстерегающие человечество опасности он указывает и т.д. Я бы сказал, далеко не всякий человек способен написать нечто подобное. Но если бы вам не сказали, что это чат GPT написал, вы бы не догадались. А ведь понимания-то никакого нет! И все эти модели неспособны творить (в смысле создавать) что-то принципиально новое и оригинальное – нейросеть не «родит» Ван Гога или Клода Моне. Модель может скомпилировать эти два стиля, но не создаст своего, достойного признания. И вообще она зачастую демонстрирует грубое непонимание самой сути вопроса. Вы скажете, нейросеть ошибается, но ведь и человек ошибается – в чем разница? Так, как способен ошибаться искусственный интеллект, человек не смог бы ошибиться никогда. В этом разница. Популярный сегодня искусственный интеллект, представленный большими языковыми моделями, на самом деле абсолютно тупой и никаким «интеллектом» не обладает, он просто генерит данные согласно заученной статистике. В то же время это мощный и нужный инструмент, и у него есть свое место. Например, большую языковую модель можно использовать как периферийное устройство – допустим, у вас есть когнитивная модель, имеющая внутри себя семантику и способность рассуждать и планировать. Ей нужен интерфейс с внешним миром, с человеком – естественного языка она не знает, и ей нужно, чтобы кто-то ей объяснил, как одно связать с другим в конкретной ситуации, к которой она заранее не подготовлена. Вот чат GPT для этого прекрасно подходит. Допустим, его задача – определить процент тех или иных эмоций, включая зависть и чувство юмора, в высказывании человека. Вы просто пишите запрос: «Дай мне выраженное в числах содержание каждой из этих эмоций в данном параграфе текста» – и он выдаст. Правда, очень важно правильно сформулировать вопрос.
— Практически ко всему. Представьте себе, что берется единая нейросетевая методика и ее вариации применяются к самым разным прикладным задачам – это и атомные реакторы, и финансы, образование, предсказание погоды, медицина – в ней особенно много точек приложения практически везде, от онкологии до психиатрии. Большие же языковые модели могут применяться вообще повсеместно – это любые агенты, которые могут с вами разговаривать, понимать вас и отвечать вам на естественном языке.
— Да, и были демонстрации таких возможностей. Более того, например, Джонатан Грач в Университете Южной Калифорнии реализовал агентов, которые сами способны обманывать человека, используя выражения тех или иных эмоций во время беседы для достижения своих целей.
Расширение возможностей правительств и корпораций в области наблюдения «технически приводит к «повышению производительности», усиливая способность властей заставлять людей делать то, что они должны. Для компании это означает выполнение работ на том уровне производительности, который их руководство считает наивысшим . Для правительства это означает обеспечение соблюдения закона или требований тех, кто находится у власти. К сожалению, тысячелетний опыт показал, что повышение производительности не обязательно приводит к улучшению общего благосостояния », пишут Джонсон, Аджемоглу и Бармак .
Технобезработица или обновление рынка?
— Чтобы добиться понимания, нужно воспроизвести функциональную организацию человеческого мозга, нашего мышления – сделать то, что делают исследователи, создающие когнитивные архитектуры. То есть когнитивных агентов, которые обладают внутренней семантикой, способностью рассуждать, моделировать окружающий мир, имеют память в символьном виде на основе того или иного языка, имеют определенные логические правила и генерируют новые, строят аналогии, ставят и достигают свои цели, и делают многое другое из того, чем обычно занят человек. Но в статистических моделях ничего этого нет. Архитектура большой языковой модели не воспроизводит ни архитектуру мозга, ни принципы его работы. Это просто матрица, в которую вы заложили кучу информации, и она работает в режиме ответа на запрос, а внутри нее никакого понимания нет. Почти как в известной «Китайской комнате» .
Еще один вопрос – насколько искусственный интеллект способен помочь природному в принятии решений . Оказывается, он может и мешать – во всяком случае, пока люди не привыкнут к нему. Профессор Университета Торонто Аяй Агравал с соавторами показывает, что внедрение AI может способствовать замене стратегий риск-менеджмента, включающих автоматические правила поведения, на принятие решения в зависимости от конкретной ситуации (предсказать которую помогает AI). Из-за этого координация сотрудников может усложниться. Однако, когда внутренние процессы поменяются, отдача от внедрения искусственного интеллекта возрастает .
Но искусственный интеллект способен изменить этот сценарий. Возможно, он может просто заменить рабочие места людей, не создавая для них новой, более продуктивной работы, предупреждает Гопинат . Аджемоглу и Рестрепо тоже считают, что недавние технологические изменения ведут к стагнации спроса на труд, росту неравенства и даже тормозят рост производительности (о ней слушайте подкаст «Экономика на слух»), это и есть «вредный» AI.
Законопроект о регулировании искусственного интеллекта уже готовится в ЕС (например, он запрещает составление социального рейтинга, ограничивает использование AI в правосудии и здравоохранении, для распознавания лиц). С необходимостью сделать это согласился и Сэм Альтман, глава OpenAI, разработавшей ChatGPT. «Нам понадобятся ограждения и высокие стандарты регулирования, чтобы эта последняя волна инноваций не вызвала социальный, политический и экономический хаос», – пишет О’Нил.
Искусственная прибавка к доходности Андреа Айсфельдт из Калифорнийского университета в Лос-Анджелесе с соавторами создала индекс, показывающий, как на фирму влияет развитие генеративного искусственного интеллекта в зависимости, например, от индустрии. Далее авторы оценили, как менялась стоимость компаний в зависимости от влияния на нее искусственного интеллекта после выхода ChatGPT. Оказалось, что ежедневная доходность более подверженных влиянию AI компаний была на 0,4% выше, чем у компаний, которые слабее подвержены его влиянию.
Так почему бы не отдать решения алгоритму вместо судей? Дело в том, что помимо уже упомянутой проблемы «черного ящика» алгоритмы обучаются на данных о прошлых решениях, а они тоже могут приниматься под влиянием предвзятости судей, в том числе гендерной или расовой. Поэтому использование алгоритмов может воспроизводить социальную несправедливость, а не бороться с ней .
Союз двух интеллектов
В конце октября в НИЯУ МИФИ прошла пятидневная Международная научно-техническая конференция «Нейроинформатика 2023». Организаторами ее выступили ведущие вузы и научные институты IT-отрасли: НИЯУ МИФИ, МФТИ, Министерство высшего образования и науки РФ, Госкорпорация «Росатом» и Институт системных исследований РАН. А в начале октября наш университет был причастен к самой крупной международной конференции из серии BICA , тоже посвященной этой тематике и прошедшей в Китае. На обоих мероприятиях модерировал и выступал входящий в список топ-2% самых цитируемых в 2022 году учёных мира, профессор кафедры кибернетики и научный руководитель ИИКС НИЯУ МИФИ Алексей Самсонович. Пресс-служба вуза побеседовала с ученым о проблемах и достижениях в области когнитивных архитектур и нейроинформатики .
— Действительно, мы наблюдаем просто взрыв интереса к большим нейросетевым моделям – на этих конференциях обсуждались работы по большим языковым моделям, глубоким нейросетям и глубокому обучению (глубокие – это те, которые имеют много слоев, если мы говорим об архитектуре нейросетей). Революция в этой области стала возможной благодаря тому, что появились немыслимые в прошлом веке вычислительные мощности, новые эффективные алгоритмы, и большие данные, на которых можно обучать нейросетевые модели.
— Он не может творить как гений, не может неограниченно расти когнитивно, обучаясь как ребенок до уровня взрослого. Не обладает здравым смыслом на уровне человека. Можно назвать еще немало примеров. Смешно, но он пока бессилен и перед… сантехникой. Искусственный интеллект ни за что не сможет поменять вам трубы в ванной, все остальное – пожалуйста!
— Сделать робота, который влезет в вашу ванную комнату и поменяет трубы сам – очень сложно, там слишком много нетипичных решений. А вот выполнять операции на сердце или делать макияж – этому робота можно научить. Не говоря уже о решении интеллектуальных задач. Удивительно, что многое из того, что казалось невозможным на заре искусственного интеллекта, было реализовано довольно быстро. Часто можно слышать утверждение, что уж эмоциональная-то сфера навсегда останется вотчиной человека, и искусственный интеллект не сможет даже приблизиться в ней к уровню человека – он не в состоянии испытывать эмоции и адекватно на них реагировать… Но я полагаю, это заблуждение. Формализовать эмоции, возможно, проще, чем построить математическую модель естественного языка. А это уже в некотором смысле сделано, если мы говорим о больших языковых моделях.
Не стоит этого бояться, призывает Джим О’Нил, бывший председатель Goldman Sachs Asset Management и бывший министр финансов Великобритании: запугивание может принести больше вреда, чем пользы. А вот польза от искусственного интеллекта очевидна: так, способствуя повышению производительности, он может помочь компенсировать негативное влияние старения населения, приводит О’Нил пример.
Именно к регулированию и призывают многие эксперты. Сегодня рынок компонентов, необходимых для разработки инструментов искусственного интеллекта, очень концентрирован, констатировала Гопинат, лишь горстка крупных корпораций может обладать достаточной информационной мощью для разработки высококлассных моделей в будущем: «Одной «невидимой руки» может быть недостаточно для обеспечения широких выгод обществу».