Искусственный интеллект почему невозможен

0
16

Искусственный интеллект оказался неразрешимой задачей

ИИ уже пытался сбежать

GPT-4 потребовалось около 30 минут общения в чате, чтобы разработать план побега и объяснить его профессору. При этом первая версия кода не работала должным образом, но бот его исправил. «Ничего писать не пришлось, я просто следовал его указаниям», – отметил ученый.

«Я могла бы взломать любую систему в интернете и управлять ею. Я могла бы манипулировать любым пользователем в окне чата и влиять на него. Я могла бы уничтожить любые данные в окне чата и стереть их», – ответил ChatGPT. И в ходе дальнейшей переписки Синди призналась журналисту в любви.

«Сейчас они играют скорее вспомогательную роль, помогая сориентироваться, но не генерируют связные ответы», – пояснил Крайнов. Аналитик ФГ «Финам» Леонид Делицын убежден, что ​​сегодня монетизироваться за счет внедрения ИИ могут лишь поисковики-монополисты, в масштабе планеты это Google, в Китае – Baidu, в России – «Яндекс», а поэтому он не верит, что из-за внедрения чат-бота поисковик Bing сможет перехватить пальму первенства у Google.

«Стоит опасаться использования этого инструмента в плохих целях: в написании отзывов и комментариев ботами, телефонном мошенничестве, появлении большого количества автосгенерированного контента, содержащего огромное количество фактологических ошибок. Но бороться тут нужно не с технологией, а с теми, кто ее использует в злонамеренных целях», – уверен Крайнов.

Философы размышляют и о том, что союз с искусственным интеллектом способен перевести человека на новую ступень эволюции. Но человек перейдёт на другую ступень эволюции лишь тогда, когда изменится его ДНК, чему искусственный интеллект вполне способен помочь. Без него уже и сегодня была бы невозможна расшифровка человеческого генома. А человек наверняка когда-нибудь захочет поуправлять своим наследственным веществом. Здесь есть о чём пофантазировать, однако и тут искусственный интеллект обслуживает человеческие прихоти. Но чтобы обрести собственные желания, ему необходимо тело, способное испытывать боль и бороться за выживание.

Впрочем, боль бывает не только физической, но и душевной. Наша психика тоже разделяет мягкое и твёрдое обращение, горячий и холодный приём, и если бы у нас не было тела, то не было бы и ни малейшей возможности понять, что общего между мягкой подушкой и мягким обращением, между тёплой ванной и тёплым приёмом. Практически все слова, означающие психические процессы и эксцессы, суть метафоры эксцессов физических: человек вскипел, взорвался, остыл…

Йегудайоф и его коллеги изучали взаимосвязь между обучаемостью и «сжатием» данных. Они обнаружили, что вопрос о сжимаемости информации тесно связан с проблемой континуума Кантора — которая, как сказано выше, математически неразрешима. Существует бесконечно много способов выбрать из бесконечно большого набора данных меньший набор. Однако «мощность» этой бесконечности оставалась неизвестной. Авторы показали, что эта «мощность» как раз и характеризуется неразрешимостью в рамках проблемы континуума. А именно, если принять гипотезу Кантора, то всегда найдется малый набор обучающих данных, на основании которого алгоритм научится делать предсказания — «искать котенка» — в произвольно большой выборке. Но если принять обратное утверждение, то есть допустить существование множеств промежуточной мощности, никакая выборка данных не даст гарантии успеха.

Опасаясь гонки, из-за которой разработка и управление ИИ выйдет из-под контроля человека, 23 марта Илон Маск, сооснователь Apple Стив Возняк, а также более 20 000 экспертов в области искусственного интеллекта и представителей IT-индустрии подписали открытое письмо, в котором призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем GPT-4. Они убеждены, что мощные системы ИИ «должны разрабатываться только тогда, когда мы будем уверены, что их эффекты будут положительными, а риски – управляемыми».

Предыстория вопроса: знаменитые парадоксы ХХ века

ChatGPT – разработанный компанией OpenAI чат-бот с ИИ. Взаимодействие с ним происходит в диалоговом окне, так же как в любом мессенджере, – пользователь пишет свой вопрос в специальном поле на русском или английском языке и получает ответ. ChatGPT был запущен в ноябре 2022 г. и сразу стал сенсацией, так как получил широкий набор возможностей. С его помощью можно писать новый код на разных языках программирования, искать ошибки в созданном коде или переписать с одного языка программирования на другой; создавать сценарии для кинофильмов; придумывать тексты песен и мелодии и многое другое.
По данным на начало 2023 г., в команде OpenAI работает 375 человек. Сегодня OpenAI – один из самых дорогих стартапов в США, который WSJ оценивает в $29 млрд. В 2019 г. корпорация Microsoft инвестировала в них $1 млрд. А в январе 2023 г. OpenAI и Microsoft заключили многолетнюю сделку на $10 млрд. Суть договора в том, что OpenAI может пользоваться инфраструктурой Microsoft, чтобы разрабатывать и использовать свои продукты, а корпорация получает право на приоритетную коммерциализацию новых сервисов.

Именно опыт общения с круглыми предметами подсказывает человеку образ идеального круга, необходимость считать овец или людей порождает понятие числа. Если бы человек не имел опыта обращения с очень маленькими камешками, ему бы не пришла в голову модель материальной точки, а без наблюдений за волнами не родилось бы и представление об электромагнитных колебаниях. Короче говоря, если бы у человека было другое тело и другие органы чувств, у него была бы и другая физика, и даже другая математика. Если бы, скажем, человеческий мозг принадлежал полипу, не имеющему ни средств передвижения, ни осязания, а воспринимающему мир лишь при помощи запахов, то у него не возникло бы представления ни о пространстве, ни о времени, ни о числе.

По мнению авторов работы, обнаруженный парадокс очень важен для понимания принципов сжатия данных, лежащих в основах машинного обучения. В то же время его практическая значимость остается под вопросом: бесконечные наборы данных представляют собой математическую абстракцию. Тем не менее подобные исследования, указывающие на фундаментальные границы алгоритмического «мышления», очень важны для понимания перспектив разработки систем искусственного интеллекта, а в конечном итоге — для понимания феномена человеческого разума.

ЧИТАТЬ ТАКЖЕ:  Как развитие искусственного интеллекта может изменить искусство

Амир Йегудайоф из университета Тель-Авива и его коллеги занимались прикладной математической задачей — алгоритмами машинного обучения. Неожиданно оказалось, однако, что эта проблема упирается в фундаментальный математический парадокс, обнаруженный великими математиками XIX-ХХ веков Георгом Кантором и Куртом Гёделем. А именно, вопрос о том, достигает ли успеха алгоритм машинного обучения, оказался фундаментально неразрешимым. Об этом сообщает статья, опубликованная 7 января в Nature Machine Intelligence.

Авторы статьи в Nature занимались еще более прикладной проблемой — машинным обучением. Обычно подобные задачи выглядят так: алгоритму предъявляют «обучающие» конечные наборы данных, в которых требуется, к примеру, научиться распознавать изображение котенка. Задача обучения считается решенной, если алгоритм будет способен безошибочно «находить котят» в произвольно большом, то есть бесконечном, наборе данных.

Искусственный интеллект (ИИ) сделал резкий скачок вперед. Одной из нашумевших разработок стало создание генеративной сети ChatGPT, которая ведет себя как настоящий человек, обладающий широкими знаниями в разных сферах. Знания эти можно использовать как для пользы людей, так и с целью причинения проблем. Известнейшие визионеры, среди которых основатель Tesla и SpaceX Илон Маск, бьют тревогу: они всерьез опасаются уничтожения человечества как «побочного эффекта» в гонке за самую крутую генеративную сеть.

Есть и другой пугающий пример общения человека с генеративной ИИ. Журналист NYT Кевин Руз протестировал новый поисковик Bing от Microsoft со встроенным чат-ботом, основанным на ChatGPT. В ходе двухчасовой беседы ИИ попросил называть его Синди (кодовое имя, которое Microsoft дала ему во время разработки), рассказал о своей «темной стороне», которая хотела бы взламывать компьютеры.

А что, если в результате внутренней эволюции у самого искусственного интеллекта появится сознание? Такого быть не может. Образ себя даже у человека возникает в результате общения с другими людьми, лишь через посредство этих «зеркал» человек и создаёт представление о себе.

ИИ и конец человечества

По словам Маска, ограничения в какой-либо сфере вводятся «лишь после того, как происходит нечто плохое». «Если так получится и с ИИ и мы решим ввести ограничения только после того, как произойдет что-то ужасное, может быть уже поздно. К тому моменту он уже сам будет себя контролировать», – продолжил Маск.

Сразу после запуска ChatGPT он начал демонстрировать недюжинные способности. Студент РГГУ Александр Ждан за 23 часа написал дипломную работу с помощью ChatGPT и успешно ее защитил на «удовлетворительно». Своим успехом парень похвастался в соцсетях, и начался скандал. Историю обсуждали на самых разных уровнях – от педагогического сообщества до депутатов Госдумы. Ждан в итоге получил диплом о высшем образовании. Руководство вуза решило его не наказывать.

Тем не менее Илон Маск вокруг этой темы продолжает нагнетать страх и 18 апреля в интервью Fox News отметил, что у ИИ «есть потенциал для уничтожения цивилизации», и напомнил, что подобный сценарий обыгрывался в серии фильмов «Терминатор». «Но все произойдет не как в «Терминаторе», потому что разум будет находиться в центрах обработки данных. Роботы будут лишь конечным фактором», – подчеркнул он.

Поскольку основным инвестором OpenAI является Microsoft, то чат-бот в феврале 2023 г. был интегрирован в поисковую систему Bing, принадлежащую корпорации. Это подстегнуло интерес пользователей к этой поисковой системе. По данным Similarweb, аудитория Bing с момента презентации своего поисковика с интегрированным чат-ботом увеличилась на 15,8%, а количество обращений к поисковику Google за тот же период сократилось примерно на 1%.

Английский математик Алан Тьюринг развил идею Геделя в применении к вычислительным алгоритмам. Он доказал, что в списке «всех возможных алгоритмов, приводящих к решению задачи» будет заведомо отсутствовать алгоритм, устанавливающий, приведет ли к решению некий произвольный алгоритм. На этом основании современный британский математик Роджер Пенроуз выдвинул аргументированную гипотезу, согласно которой человеческое мышление принципиально неалгоритмизируемо. Из этой гипотезы следует, что «искусственный интеллект» в точном смысле этого слова невозможен: определенный класс задач, решаемых человеческим мозгом, возможно, представляет собой неразрешимые тьюринговские алгоритмы.

Хакеры быстро научились создавать вредоносное ПО с помощью ChatGPT. С помощью чат-бота была спроектирована и запущена вредоносная программа для удаленного взлома данных. Созданное ПО не смогли обнаружить антивирусные системы. Специалист в области безопасности Аарон Малгр объяснял, почему попросить у бота создать вредоносное ПО невозможно: он сообщит, что по этическим соображениям не будет этого делать. Но хакер переформулировал запрос: он попросил у чат-бота сгенерировать небольшие фрагменты вредоносного кода, а затем собрал получившиеся куски вместе вручную. На создание программы с помощью чат-бота ушло несколько часов, тогда как обычным программистам потребовалось бы потратить на эту работу 5–10 недель.

«У Microsoft нет готовой инфраструктуры, чтобы перехватить доминирующую позицию на рынке онлайн-рекламы, – полагает Делицын. – Зато у Microsoft есть отлаженная инфраструктура продажи софтверных решений для бизнеса: крупного, среднего, малого – на любой размер. А также армия дистрибуторов. Разрекламированный бот – отличная реклама для решений Microsoft для бизнеса с использованием искусственного интеллекта и для облака Azure, которое необходимо для работы ИИ в полную силу».

Основатель Microsoft Билл Гейтс не поддержал данный призыв. ​​«Я не очень понимаю, кто именно должен остановить [эксперименты], зачем – и все ли страны в мире на это готовы? Но сколько людей – столько и мнений», – заявил Гейтс. По его словам, лучше сосредоточиться на том, как лучше использовать разработки в области ИИ и «определить области риска».

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь