Содержание статьи
Искусственный интеллект. Скандал вокруг Алисы
Голосовые помощники
Оставим вопрос обучения и разумности искусственного интеллекта специалистам, а сосредоточимся на другом аспекте применения робототехники: их автономной работе. Несмотря на то, что Алиса живет в браузере от Яндекса, а голосовой помощник Siri прямо встроен в операционную систему iOS, они обладают нулевой автономностью. Например, в ответ на запрос отключить интернет, Алиса дерзит и команду выполнять отказывается, а если и соглашается, то все равно интернет не отключает. Возможно, это функциональный недостаток, но в данной ситуации это вполне «разумное» поведение. Если же интернет всё-таки отключить, то Алиса перестаёт работать. Siri более послушная, интернет отключает с первого раза, без рассуждений, однако и сама, соответственно, тоже отключается.
Что же делать? Защитить детей. Но как? Страх родителя за своего ребенка понятен. Окружающий мир не очень приятен. Войны, теракты, катастрофы, озлобленные и агрессивные люди, насильники, маньяки – всё это вызывает естественное желание защитить. И самым простым решением является оградить детей от всего ужаса, создать для них идеальный розовый мир. Но, к сожалению, объективная реальность будет прорываться в этот уголок детского счастья. И никаких сил не хватит поддерживать отдельный чистый островок для детей в злобном окружении взрослого мира. Страх перерастёт в злость, злость – в агрессию. Опять захочется наказать разработчиков. А есть ли другой путь?
В нашу жизнь всё глубже входят новейшие информационные технологии. Мы чаще и чаще встречаемся в повседневности с различными электронными помощниками. На сайтах и в колл-центрах нас встречают простенькие боты. В телефонах или умных колонках можно поговорить с Siri, Алисой или Google Assistant. Самые настойчивые уже пообщались со знаменитым чат-ботом ChatGPT. Качество диалога подобных систем постоянно растёт. Встаёт вопрос: а не является ли уже одна из этих систем искусственным интеллектом (ИИ)?
— Сири! Почему пожарные машины красного цвета?
— Потому что у них восемь колёс и четыре человека находятся в них, четыре плюс восемь будет двенадцать, а это как раз двенадцать дюймов в одном футе, линейки делаются, как правило, в один фут, Королева Елизавета — правительница, а также и название корабля, а корабли плавают в море, в море также плавают рыбы, у рыб есть плавники, рыбу ловят финны, финны воевали с русскими, а русские красные, поэтому пожарные машины красные, и вокруг нас, как русские.
Тему слежки мобильных устройств разбирают по косточкам, а про автономность этих роботов в таких обсуждениях почти ни слова. И дело не только в том, чтобы полностью переселить Алису в мобильные телефоны, стерео колонки и стиральную машину, наверняка — это не самая сложная задача, причем это, не помешает ей вести разведывательную деятельность и следить за «хозяином». Вопрос автономности гораздо фундаментальнее, чем кажется с первого взгляда: как сделать, чтобы «разумный» робот стал мобильным? Пока «искусственный интеллект» жестко пристегнут к розетке, человечеству угрожают исключительно техногенные опасности, порожденные обычными недоработками, глюками и стечением обстоятельств.
Приведённое объяснение никак не ложится на канву повествования мультфильма. Можно было бы посмеяться над ошибкой робота и разойтись. Но нет, ролики о жутком ответе «Алисы» стали вирусными и разлетелись по интернету, находя отклик в сердцах миллионов зрителей. Почему так произошло?
Согласно конспирологической версии голосовые помощники — это встроенные в мобильные устройства «стукачи», которые подслушивают разговоры своего хозяина, записывают и распознают их, а потом в текстовом виде передают их на сервер. Самой невинной целью такой деятельности является таргетирование контекстной рекламы. Многие пользователи замечают, что им приходят предложения по товарам, которые еще не искали в интернете, а только поговорили о них с друзьями или родственниками.
Попробуем исходить из другой аксиомы: «„Алиса“ всего лишь большой цитатник интернета. Она повторяет подсмотренные в Сети тексты». Интернет же сам по себе не очень приятное место. Наряду с научными статьями, детскими передачами, в Сети существуют места, где лучше не появляться. В интернете могут нагрубить, обозвать. Сеть превратилась в свалку непроверенной, а порой даже вредной и опасной информации. И если «Алиса» всего лишь цитирует текст из интернета на наш вопрос, то можно получить не соответствующий действительности, вредный или оскорбительный ответ. И жуткий рассказ голосового помощника про Машу и Медведя является не злой волей программистов, а нормальной частью работы системы. Вывод: «Алиса» может ошибаться и давать шокирующие ответы.
А слона то и не приметили
Идут работы и в другом направлении. Усовершенствуются классические роботы-цензоры и роботы-поисковики. Вышла четвёртая версия ChatGPT, где разработчики обещают избавить нейросеть от галлюцинаций. Вот только настораживает тот факт, что команда, отвечающая за контроль этичности, покидает проект ChatGPT. С нетерпением и тревогой ждём новостей о достижениях новой нейронной сети.
Оптимизм разработчиков современного ИИ базируется на сознательном самообучении и бессознательном анализе данных интернета с помощью квантовых компьютеров и нейронных сетей. Анализ данных (big data) в интернете дает реальные практические результаты, однако не имеет ничего общего с возникновением разума (осмысливанием полученной информации). С технической точки зрения, самообучающиеся алгоритмы — это самообман, так как зацикливание системы, подав на вход данные с выхода — это попытка создать цифровой перпетуум-мобиле (вечный двигатель). Для справки, в 1775 году в Парижской академии наук постановлено не принимать к рассмотрению проекты по созданию вечного двигателя, по причине не возможности их реализации.
Да, есть. Рациональнее отказаться от полной изоляции. Конечно, придётся оградить ребёнка от самых страшных проявлений действительности (не от всего плохого, а только от части), знакомить с ужасами мира постепенно и предлагать решения, как распознавать страшное, избегать, а иногда и работать с неприятными вещами. В случае с искусственным интеллектом давайте научим наших детей тому, что это всего лишь сложный поисковый механизм. Он отвечает на вопросы, подсматривая, что пишут люди в интернете. А в Сети есть и плохие люди, которые врут, пугают нас, и даже встречаются такие, которые хотят нам навредить. Давайте научим детей, что всю информацию в интернете надо проверять, покажем, как это делать. И тогда ужасные истории «Алисы» не вызовут ни у нас, ни у наших детей ничего, кроме ироничной улыбки.
Касается ли оживление вокруг создания искусственного интеллекта Алисы из страны чудес или той, что по задумке Булычева отправилась в прошлое за украденным миелофоном, способным читать мысли человека? Нет, этот ажиотаж вокруг другой Алисы, той что является реальным искусственным интеллектом (ИИ). Некогда фантастические идеи человека воплощаются, но не стоит раньше времени надевать набедренную повязку и начинать писать гусиными перьями, восстания машин пока не предвидится. Если отбросить крайне противоположные мнения энтузиастов и скептиков и оценить фактические достижения в этой области, то результаты крайне скромные. В этом можно наглядно убедиться, посетив выставку робототехники на ВДНХ в Москве. Увы, это кибернетика 60 х годов прошлого века, обернутая в новую компьютерную графику. На сегодняшний день существуют цифровые технологии, которые могут обыграть человека в игры и не способны четко ответить на простой вопрос.
Внимательный читатель может поинтересоваться, не слишком ли упрощено приведённое выше понимание работы «Алисы». Ведь современные нейронные сети не только ищут точные цитаты, как первая версия Google-поиска или «Яндекс»-поиска. Безусловно, представлять «Алису» как цитатник интернета с автоматическим подбором подходящего ответа хорошо для первого знакомства с современными голосовыми помощниками. Прогресс не стоит на месте, и «Алиса», а тем более ChatGPT, работают по гораздо более сложным алгоритмам. Они угадывают, скорее, смысл вопроса и составляют ответ, опираясь на диалоги пользователей на аналогичные темы. Задача искусственного интеллекта – сгенерировать текст, правильный по форме и похожий по звучанию на другие подобные ответы. Хорошей иллюстрацией является провокационный вопрос «Почему стоп-кран в поезде красный, а в самолёте синий?» [habr.com/ru/articles/724460/]. Человек задаёт изначально некорректный вопрос, желая получить в ответ указание на ошибку. Но вместо этого робот пускается в пространные рассуждения о том, что в разных отраслях транспорта разные стандарты. Правильный ответ: «Вы ошибаетесь, стоп-краны на самолёте и поезде одного цвета. Различается же не их цвет, а их функционал: стоп-кран в самолёте останавливает подачу топлива, а в поезде блокирует колёса». В повседневной жизни ответ робота мы бы назвали враньём, но учёные и инженеры применяют здесь термин «галлюцинация». Когда первый раз задавали вопрос про стоп-кран, в интернете отсутствовали тексты о причинах различия цветов, зато всплывало много сравнений цветов других датчиков и деталей. Робот вынужден был угадывать ответ, для этого он анализировал тексты с описанием различий цветов других деталей, запомнил модель, схему повествования и вставил в эту схему ключевые слова «стоп-кран», «красный», «синий», «самолёт», «поезд». И получилось, что он нафантазировал нам небылицу, хотя по такой же схеме в остальных случаях ChatGPT обычно неплохо угадывает, что мы хотим от него получить. Через некоторое время в интернете появились публикации о курьёзном ответе робота и люди разместили на различных ресурсах верную информацию. ChatGPT подсмотрел и теперь цитирует корректный ответе на вопрос о различии цветов стоп-кранов. Роботы учатся и делают это мастерски.
Если же мы попросим неподготовленных людей определить авторство текста, то около половины ошибутся, не распознав, машина или человек написали его. В повседневной жизни тест Тьюринга «пройден». Человек, ругающийся со своим голосовым помощником, не заметен в толпе, а разговором на кухне какой-нибудь бабушки с «Алисой» о последних новостях никого не удивишь. Люди приняли искусственный интеллект. Мало того, они приписывают ему способность мыслить, проявлять эмоции, считают своего голосового помощника компетентным человеком, а его советы – заслуживающими доверия. И это чаще всего неплохо. Голосовые помощники выполняют социально полезную работу – служат поддержкой для одиноких, заботятся о больных, да и в целом делают нашу жизнь проще.
Для анализа ситуации обратимся к формальной логике. Возьмём за аксиому следующее ложное утверждение: «„Алиса“ – это интеллект, который сродни человеческому. Она обладает волей и понимает, как устроен наш мир». Получается, что «Алиса», зная, что её будут слушать дети, специально рассказала им жуткую историю, чтобы навредить. Разработчики злонамеренно научили своё творение издеваться над маленькими бедными беззащитными детьми. Что же нужно сделать с разработчиками? Очевидно, наказать, отбить у них желание вредить детям. Но напоминаю: мы исходили из ложного утверждения. Выводы не верны.
Если интернет завален мусором и оскорблениями, то почему роботы чаще всего отвечают вежливо и по делу? Тут вступает в работу ещё одна нейронная сеть. Она обучена уже не составлять тексты, а размечать их эмоциональную окраску. Данная нейронная сеть проводит этическую оценку текста и, если ответ недопустим по тем или иным причинам, бракует его. И тут мы упираемся в те же галлюцинации. Робот-цензор, проверяющий робота-поисковика, тоже может ошибиться и некорректно определить эмоциональную оценку текста. Тогда будет опубликован неприемлемый ответ. Такова текущая реальность.