Что тупой искусственный интеллект

0
12

Алексей Самсонович: «Так, как способен ошибаться искусственный интеллект, человек не смог бы ошибиться никогда»

Искусственное выравнивание

— Он не может творить как гений, не может неограниченно расти когнитивно, обучаясь как ребенок до уровня взрослого. Не обладает здравым смыслом на уровне человека. Можно назвать еще немало примеров. Смешно, но он пока бессилен и перед… сантехникой. Искусственный интеллект ни за что не сможет поменять вам трубы в ванной, все остальное – пожалуйста!

В стратегиях может встречаться вариант с зигзагом. Если игра сложная, комплексная, содержит множество механик, не всегда понятных новичку, как все хорошие 4X-стратегии, или достаточно требовательна к микроконтролю и таймингам развития, как RTS, то поначалу новичку может показаться, что в ней имеет место инверсия, и боты практически непобедимы без тонн боли и превозмогания. Усугубляется еще и тем, что в таких играх ИИ часто читёрский, например, видит всю карту. Однако по мере того, как игрок разбирается в механиках, сильных и слабых сторонах различных фракций и юнитов, качает скилл и вырабатывает тактику, приходит понимание, что ИИ все же на самом деле глуп: не использует весь потенциал фракции, действует по примитивным схемам и алгоритмам, а против нестандартных приемов и вовсе беспомощнее котенка. В 4X к тому же часто проявляется неспособность ИИ к нормальному долгосрочному планированию, из-за чего в поздней игре он начинает сливаться. Создать бота, который остается таким же грозным в конце игры против грамотного игрока, кажется, не удалось разработчикам ни одной 4Х, включая культовые.

Меняется структура вакансий. Аджемоглу с соавторами показал , что с 2010 г. в США значительно растет количество связанных с искусственным интеллектом вакансий на предприятиях, где применение новых технологий наиболее вероятно. А вот количество остальных вакансий падает. Авторы не обнаружили влияния на зарплаты. Его может быть сложно измерить: поскольку на данном этапе искусственный интеллект заменяет труд лишь в части задач, поэтому нет серьезных изменений в рыночных зарплатах.

Исторически так и происходило: одни рабочие места умирают, другие рождаются. Исследование профессора Массачусетского технологического института Дэвида Отора со соавторами показало , что 60% работников занято сегодня в профессиях, которых не существовало в 1940 г . Это означает, что более 85% роста занятости за последние 80 лет объясняется созданием новых рабочих мест за счет технологий, пишут экономисты Goldman Sachs.

Представьте, что мы воплотили когнитивную модель вручную алгоритмическим путем – написали программу, которая осуществляет выполнение определенных правил, и она решает свою задачу в какой-то предметной области в конкретной парадигме и ведет себя, в общем, как человек. А затем мы взяли и обучили нейросеть выполнять те же функции, используя для ее обучения записи поведения когнитивной модели. И теперь если человек с ней общается, он не отличит нейросеть от живого человека. Мы проводили такие эксперименты: человеку попеременно отвечал то агент-автомат на основе нейросети, то живой человек, и спрашивающий не мог отличить кто есть кто, поскольку оба управляли одним и тем же аватаром. Более того, мы просили оценивать ответы по ряду шкал, и оказалось, что в некоторых случаях автомат получил даже более высокие оценки – удивительно! – по таким шкалам как эмпатичность, индивидуальность, способность вызывать эмоции, социальная приемлемость. Хотя, может быть, это связано с тем, что студенты, контролировавшие этого аватара, были недостаточно вежливы и эмпатичны, и выполняли свою функцию чисто автоматически, поэтому автомат их превзошел. Но мы получили значимое превосходство автомата над человеком (в нашей ограниченной парадигме, подчеркну). Такой результат оказалось получить сравнительно легко, что указывает на то, что задача разрешима, видимо, и в более общем случае. Значит, в принципе мы можем создать искусственный социально-эмоциональный интеллект не только достигший уровня человека, но и превосходящий среднего человека в самой его человечности – он будет более социальным, эмпатичным, приятным, чем средний человек. И люди, имея выбор, станут выбирать его.

— Агент – это когнитивная система, погруженная в некую среду, в которой она имеет средства восприятия информации и совершения каких-то действий, а также имеет потребности, цели и возможности их достижения. Агент может быть как виртуальным (программа), так и физическим (робот). Некоторые исследователи определяют агента как интеллектуальную систему, способную обучаться и обрабатывать информацию в символьном виде на основе базы знаний. В любом случае агент – это некая сущность, работающая как индивидуум, как правило, взаимодействующий с человеком.

Не баг, а фича [ править ]

«Государство получает неимоверные возможности для политического манипулирования и контроля. Самый яркий пример – происходящее в Китае. Система социальных кредитов означает, что про вас все известно и вас могут отрезать от многих услуг, если у вас недостаточно высокий социальный рейтинг. Это пугающая картина – еще и потому не совсем понятно, как с этим бороться Это может привести к тому печальному исходу, о котором писал нобелевский лауреат по экономике Жан Тироль, – к цифровой антиутопии (Digital Dystopia)», – рассуждал о влиянии цифровых платформ научный руководитель, а тогда ректор РЭШ Рубен Ениколопов в подкасте «Экономка на слух» (можно также почитать интервью с ним). По его мнению, только сочетание двух факторов – нежелания нести экономические потери при таком усилении государства и сопротивляющегося гражданского общества – может остановить эту цифровую антиутопию.

GURU спросил и мнение ChatGPT, способствует ли искусственный интеллект усилению недемократических режимов. Он снова ответил, что влияние может быть как положительным, так и отрицательным в зависимости от способа его использования и среды, предложив перейти к регулированию использования AI (его ответ см. во врезе).

— Действительно, чувство юмора, стыда, ревности и т.п. часто относят к категории чувств, отличая их от эмоций. Я же пользуюсь другой терминологией: эмоция – это особое психическое состояние субъекта, а чувство – это внутреннее отношение субъекта к другому субъекту либо к самому себе (здесь я не говорю о других значениях слова «чувство»: например, чувство боли). В этом смысле и юмор, и стыд – эмоции, и они же связаны с чувствами. Но если стыд психологам все же удалось разложить по полочкам, то вот подвести под формализацию юмор оказалось сложнее всего. Справедливости ради стоит сказать, что существует целый набор разных причин, заставляющих человека смеяться: игра слов, табу, и т.д., вплоть до физиологических. Но если говорить о когнитивном чувстве юмора – то здесь есть разные теории, и нет общепринятого консенсуса. Сам факт, что машина до сих пор не может генерировать по-настоящему смешные анекдоты, говорит о том, что понимания этого явления нет: если бы человек его понимал, он бы смог смоделировать его. Это пока отсутствует, но когнитивный юмор – это не единственное, что пока не поддается моделированию. На самом деле весь комплекс сложных человеческих социально-эмоциональных отношений пока недоступен искусственному интеллекту, он не в силах моделировать поведение в этой области на уровне человека в произвольной ситуации.

ЧИТАТЬ ТАКЖЕ:  Как сделать клип в нейросети

В этом и есть весь вопрос: агент должен понять, какая эмоция в той или иной ситуации адекватна и служит его целям. Например, можно отзеркалить эмоцию собеседника, но это быстро будет распознано человеком как чисто механическая реакция. Если агент будет все время копировать ваши эмоции, вам поначалу, возможно, это понравится, но потом вы все равно поймете, что что-то здесь не так и, скорее всего, он ничего не понимает. А искусственный интеллект все-таки должен понимать, как нужно адекватно себя вести в той или иной социальной ситуации, какие эмоции и когда нужно выражать. Сейчас это умеет только человек, и в ограниченных парадигмах – когнитивные модели. В нашей лаборатории « BICA Lab » ( International research laboratory « Cognitive Architectures and Semantic Technologies ») были созданы прототипы, обладающие данными способностями.

А что говорят исследования о потенциальной массовой безработице из-за развития искусственного интеллекта? По оценкам экспертов BofA Global Research, к 2030 г. может быть сокращено 2 млрд рабочих мест. Влияние AI может затронуть любую отрасль, использующую текстовые данные, указывают они, – колл-центры, работу юристов, подготовку документов, страхование, здравоохранение и т. д., – но это означает скорее изменение рабочих мест и рост их производительности. Большинство рабочих мест и отраслей промышленности лишь частично подвержены автоматизации и с большей вероятностью будут дополнены, а не заменены, считают и эксперты Goldman Sachs.

— Да, и были демонстрации таких возможностей. Более того, например, Джонатан Грач в Университете Южной Калифорнии реализовал агентов, которые сами способны обманывать человека, используя выражения тех или иных эмоций во время беседы для достижения своих целей.

— Зачем нам вообще до такой высокой степени уточнять и формализовывать эмоции? Зачем периодически уточняется секунда – понятно. А чувства? Допустим, мы установим, условно, что чувство юмора состоит из 3,5 % страха, 2,5% радости и т.д. Что нам это даст, какова конечная цель таких изысканий?

Расширение возможностей правительств и корпораций в области наблюдения «технически приводит к «повышению производительности», усиливая способность властей заставлять людей делать то, что они должны. Для компании это означает выполнение работ на том уровне производительности, который их руководство считает наивысшим . Для правительства это означает обеспечение соблюдения закона или требований тех, кто находится у власти. К сожалению, тысячелетний опыт показал, что повышение производительности не обязательно приводит к улучшению общего благосостояния », пишут Джонсон, Аджемоглу и Бармак .

Учитель, врач и судья в одном лице?

Страхи, что машины заменят людей, возникают всякий раз, когда совершаются технологические прорывы (см. врез «Уроки истории»). Но разработчики искусственного интеллекта посягнули уже на саму креативность людей. «Искусственный интеллект ни в коем случае не гарантирует, что принесет пользу людям, и мы должны учитывать его негативное влияние на занятость и социальные потрясения, которые он может вызвать», – предупредила первый заместитель директора-распорядителя МВФ Гита Гопинат на лекции , посвященной 300-летию со дня рождения Адама Смита.

Попытки фирм повысить производительность с помощью AI порождают этические вопросы. «Корпорации уже используют методы наблюдения, усовершенствованные искусственным интеллектом, чтобы следить за каждым шагом своих сотрудников По оценкам консалтинговой компании Gartner , доля крупных работодателей, использующих цифровые инструменты для слежки за своими работниками, удвоилась с начала пандемии COVID-19, достигнув 60%, ожидается, что в течение трех лет она достигнет 70% мы должны найти правильный баланс между этими преимуществами и конфиденциальностью», – пишут Джонсон, Аджемоглу и Бармак .

Но для того чтобы страны не продолжили гонку вооружения искусственным интеллектом, может потребоваться глобальное регулирование наподобие регулирования применения оружия. К сожалению, оно недостижимо, поскольку «в мире господствует конфликт между двумя системами управления, которые диаметрально противоположны друг другу. «Китай вряд ли присоединится к усилиям по ограничению неограниченного использования средств наблюдения. Он не только систематически усиливает внутреннее наблюдение для подавления инакомыслия и мониторинга социального поведения, он также экспортирует свои технологии наблюдения другим странам», – отмечают Джонсон, Аджемоглу и Бармак . Деспотичные авторитарные режимы вряд ли пойдут на сотрудничество, демократиям мира следует начать готовиться к жесткой экономической игре, предупреждают они .

— Мы до сих пор говорили с вами лишь об одном варианте интеграции глубоких нейросетей с когнитивными моделями – об использовании больших языковых моделей в качестве интерфейса или периферийного устройства для когнитивной модели, позволяющего распознать или выразить что-то в естественной речи. Мой интерес к этой теме не угасает, и я верю в скорый успех. Но мы ведь можем использовать нейросеть и для реализации самой когнитивной модели: тот факт, что она статистическая, не запрещает ей стать когнитивной. Тогда получается, что кроме задачи осуществлять интерфейс с человеком на естественном языке, есть еще и задача воплощения когнитивной модели в нейросети. Почему в нейросети? Зачем это нужно, если алгоритм, воплощающий когнитивную модель, уже запрограммирован и работает? Потому что нейросеть способна обучаться дальше, и она может быть более устойчива к непредвиденным ситуациям, чем алгоритм, разработанный для ограниченной парадигмы.

Фактически судьи выполняют задачу предсказания – если отпустить обвиняемого, явится ли он в суд, не совершит ли преступление. Авторы исследования подсчитали, что использование алгоритма может привести к сокращению преступности на 24,7% при том же количестве обвинительных приговоров. Сокращение рецидива наблюдается для всех категорий преступлений. Эксперты также документируют снижение расовой предвзятости при применении машинного обучения.

— Вот то-то и оно! Поэтому и нужны когнитивные архитектуры, способные не только выразить сочувствие, но и решить проблему, возникшую в эмоциональной сфере. А ведь есть области, где понимание человеческих эмоций просто необходимо. Возьмите, например, общение пациента с психологом. Подобных примеров много: спасение людей в чрезвычайных ситуациях, индивидуальные тьюторинговые системы, мотивирующие студента, мониторинг антисоциального или экстремистского поведения, разрешение всевозможных конфликтных ситуаций, и многое другое, вплоть до принятия решений роботом на поле боя: там тоже необходим эмоциональный интеллект. Дело не в том, чтобы сделать общение с агентом приятным для человека. Сегодня назрела острая необходимость в социально-эмоциональных интеллектуальных агентах для решения определенных практически важных задач; значит, они будут созданы. Одной из их функций будет психологическое профилирование и определение текущего психического состояния человека по его поведению во время контакта.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь