Содержание статьи
Ии или нет тест про искусственный интеллект который должен пройти каждый
Преимущества и ограничения ChatGPT
Наконец, «Обучение с подкреплением». Задача здесь по-прежнему не выходит за рамки домена, но среда усложняется. Постановка эксперимента аналогична «Осуществленному поиску», но размещение цели в том или ином контейнере не полностью случайно, а задается определенной вероятностью. От агента требуется усвоение этих закономерностей и их последующая эксплуатация. Вероятности могут поменяться в середине задания, и агент должен отреагировать на это, переключившись с эксплуатации на более исследовательскую стратегию.
Если бы только этим проблема ИИ и исчерпывалась, у нас не было бы проблем. Однако они есть: тест Тьюринга машина может, увы, пройти нетривиальным образом, и уже проходит. Вместо того, чтобы совершенствоваться самой, машине, как оказалось, следует всего-то немного упростить homo sapiens – поглупевший человек не отличит робота от ближнего своего. В процессе оглупления совершенно не обязательно маскироваться, люди и с роботом рады разговаривать, как это делал герой «Теории большого взрыва», флиртующий с Siri. Киносюжет 1:1 материализовался в жизни – пожалуйста, вот вам сервис общения с цифровым двойником, и есть те, кому он нравится.
Тьюринг считал, что если машина сможет убедить человека в том, что она тоже человек, это будет значительным достижением в области ИИ. Важно отметить, что тест Тьюринга не измеряет истинный интеллект или понимание, а скорее способность имитировать человеческое поведение. Это делает тест полезным инструментом для оценки возможностей современных ИИ-систем, таких как ChatGPT.
С одной стороны, эти задачи требуют более тонкой моторики и более развитых способностей ориентироваться в незнакомой обстановке жилых помещений. Требования к обработке естественного языка здесь тоже несколько выше. С другой стороны, тест Возняка — узкоспециализированный сценарий, и от машины не требуются настолько высокая универсальность и автономия, какой требует «открытый» характер более сложных вызовов «когнитивного десятиборья».
ChatGPT обладает рядом преимуществ, включая способность генерировать связные и осмысленные тексты, а также адаптироваться к различным контекстам и темам. Однако у модели есть и ограничения. Например, она может генерировать ответы, которые кажутся правдоподобными, но на самом деле являются неверными. Кроме того, модель может быть подвержена предвзятости, если обучающие данные содержат предвзятые или неточные сведения.
Именно этим и занялась в 2005 году группа под руководством Шейна Мюллера. Американское агентство перспективных разработок DARPA в рамках исследований по ИИ запустило проект BICA — “Biologically-Inspired Cognitive Architectures”, “Когнитивные архитектуры, вдохновленные биологией”. Суть проекта совпадала с приведенной цитатой Тьюринга: создать машины, способные обучаться так же, как обучаются люди.
Пример 1: Общие вопросы
А дальнейшие действия понятны. Робот должен пройти на кухню, разыскать необходимое оборудование, посуду и ингредиенты для приготовления кофе и сделать напиток по вкусу хозяев. Роботу может понадобится задать несколько вопросов хозяевам («В каком шкафчике лежит кофе?»), но в остальном он должен справиться самостоятельно.
Ну и наконец робот, представляющий самую большую угрозу предсказанию Стива Возняка — еще не получившая названия робо-горничная от фирмы « Aeolus Robotics». По уверениям разработчика, подать горячий кофе в постель — для нее совершенно не проблема. Хотя я подозреваю, что лестница для этого робота будет непреодолимым препятствием, да и к полному тесту Возняка эта машина вряд ли готова.
Поставьте себя на место машины. Вы видите, что в главном человеческом user guide написано «вначале было слово», и даже сказано, какое именно. Ещё вы видите, что люди из-за толкования этого самого слова который век убивают друг друга. Ну как с ними разговаривать? Очевидно, надо стремиться к тому, чтобы вас, робота, убили за неосторожное слово. Если убьют – ты точно свой, и ТТ можно считать успешно пройденным. Картинка неприятная, но что делать, если именно так настоящий искусственный интеллект и выглядит.
Есть истории ещё хуже. Свежий случай: не последний в России банк шлёт пресс-релиз, в котором почём зря поминает ИИ. Суть дела – робот распознаёт голос в телефонных разговорах с должниками, а потом банк компилирует, сверяясь с результатами звонка, текстовую инструкцию для тех, кто обзванивает должников. Мне это представляется примером программирования людей, насаждения противоестественного интеллекта в нашу среду.
Facebook – машина существенно более серьёзная, чем Siri – предлагает манипуляции людьми оптом. Хотите сказать, что это Facebook не сам, что это придумал аутичный Цукерберг с присными? Да ладно. Мы, как и он, с этой машиной в симбиозе. Встроены в неё, и самостоятельно доходим внутри неё до полнейшего идиотизма.
Одно дело — предложить подход, и совсем другое — получить с его помощью какие-то результаты на практике. С результатами пока всё слабенько. Тем не менее, начинать с чего-то надо. И в первую очередь стоит начинать с создания системы целей в рамках данного подхода.
Следующая задача — «Осуществленный поиск». В помещении разбросано множество контейнеров, и цель находится в одном из них. Цель заметна только в непосредственной близости. Сложность здесь — запоминать, какие контейнеры уже обследованы, чтобы не искать по нескольку раз в одном и том же месте.
Здесь уже нет инструктора и четко задаваемой им цели. В нескольких комнатах находятся некие составные части, из которых могут быть собраны разные готовые объекты. За собранные объекты полагается награда, для каждого варианта — своя. Например, за объекты, которые собрать легко, она может быть низкой, за более трудные — высокой. Агенту требуется понять, сколько он может получить за собранные объекты, и найти наиболее выигрышную стратегию. Предполагалось, что для сборки некоторых вариантов могли требоваться инструменты, более того, сами инструменты тоже могли быть собраны из составных частей. Агенты должны были быть способны «подглядывать» стратегии друг у друга (см. предыдущий вызов).
Примеры взаимодействий ChatGPT в тесте Тьюринга
Наверное, трудно представить, чтобы двухлетний ребенок справился с этим сценарием. И всё же, анализируя набор умений, необходимых для теста Возняка, мы придем к выводу, что он во многом пересекается с навыками «когнитивного десятиборья» и не слишком отличается от них по сложности.
Хорошо, перемещаться туда-сюда и бросать бутылки в урну роботы уже умеют. Как насчет более сложных действий? Посмотрим на японского HRP-5P. Этот робот может полностью автономно закрепить на стене лист гипсокартона. HRP-5P пользуется обычным шуруповертом и, в принципе, его последовательность действий не отличается от таковой для человека.
Может, шахматы? Игра-то интеллектуальная. Снова нет. «Шахматы перестали быть искусственным интеллектом, как только машина обыграла гроссмейстера», — сказал однажды Михаил Донской, соавтор «Каиссы», первого чемпиона мира по шахматам среди компьютерных программ (1974). Нынче, когда в свой смартфон каждый может загрузить как минимум кандидата в мастера («Каисса» играла в силу четвёртого разряда), это очевидно уже всем.
На практике разумный человек должен исходить из предположения, что ИИ – откровенно спекулятивное понятие для обозначения, в лучшем случае, чего-то эдакого новенького, что ещё не делали, но что можно сделать с помощью вычислительной машины, а сделав, сказать «Wow». В худшем же случае, а они последнее время участились, ИИ играет роль бубенца на колпаке очередного разглагольствующего о цифровой экономике шута.
К слову, ни одно серьёзное достижение, будь то «Каисса», Deep Blue, Watson, OCR-системы, технологии распознавания лиц и голоса и пр., – болтовнёй об ИИ не сопровождалось. Люди просто брали задачу и решали её. Поэтому сегодня всякий раз, когда я слышу об ИИ, моя рука тянется вверх: скажите, о чём именно вы толкуете? Какую задачу решаете? А как? А если не называть это «ИИ», что изменится? Ничего, только пустого звона меньше станет? Спасибо, я так и думал.
Подобный подход к построению ИИ мы можем найти еще у Тьюринга: ”Пытаясь имитировать ум взрослого человека, мы вынуждены много размышлять о том процессе, в результате которого человеческий интеллект достиг своего нынешнего состояния. <. >Почему бы нам вместо того, чтобы пытаться создать программу, имитирующую ум взрослого, не попытаться создать программу, которая бы имитировала ум ребенка?”
«Задача коммивояжера» — широко известный вид комбинаторных задач. Исследователей он заинтересовал потому, что с точки зрения математики/алгоритмов поиск оптимального решения требует очень больших объемов вычислений, но люди каким-то образом достаточно легко находят близкие к оптимуму варианты. Постановка эксперимента здесь аналогична предыдущей задаче с той разницей, что целей будет множество, и они будут исчезать (лампочки — гаснуть) после того, как агент их достигнет.
По количеству промежуточных целей и временным ограничениям этот тест выглядит труднее, чем «Поиск объекта». Однако ряд особенностей снижают требования к участникам «Большой охоты за сокровищем». Так, список искомых предметов известен заранее и невелик (50 объектов). Формат инструкций также формализован. То есть, по сути, речь идет о замене «качества» (генерализации) на «количество».