Содержание статьи
Reuters: сотрудники OpenAI рассказали об ИИ, способном уничтожить человечество
Чтобы лучше понять масштаб проблемы, необходимо обратиться к цифрам и фактам. Согласно Закону Мура, вычислительная мощность компьютеров удваивается каждые два года. Сейчас, кстати говоря, идет много споров о том, работает ли это правило, как и прежде. Но дело даже не в этом, потому что в сравнении с компьютерными системами темпы развития искусственного интеллекта просто ошеломляют. В этом случае человечество, несомненно, имеет дело с чем-то совершенно новым.
Это становится понятно сразу после прочтения первого абзаца открытого письма. По мнению выдающихся интеллектуалов, системы ИИ, «обладающие интеллектом, сравнимым с человеческим, могут представлять серьезную опасность для общества и человечества», что «подтверждается обширными исследованиями и признается ведущими лабораториями». Поэтому разработка нейросетей должна происходить по определенному плану и под соответствующим контролем. Тогда как сейчас разработчики «втянулись в неконтролируемую гонку все более мощных цифровых разумов, которые никто – даже их создатели – не может понять, предсказать или надежно контролировать».
Искусственный интеллект определенно стал повсеместным явлением. Цифровой разум управляет школами и больницами, университетами и исследовательскими институтами, музеями и СМИ, банками и инвестиционными компаниями, адвокатскими и архитектурными бюро и прочая и прочая. Производительность труда выросла небывало, инновации появляются едва ли не каждый день. Словом, несколько переиначенный «дивный новый мир» Олдоса Хаксли.
Наконец, пятый сценарий, который стал некой квинтэссенцией вышеприведенных мнений, предложил профессор информатики Монреальского университета и научный директор Квебекского института искусственного интеллекта Йошуа Бенжио. «Значительная часть исследователей считает весьма вероятным, что через 10 лет у нас появятся машины, которые будут столь же или более интеллектуальны, чем человек. Эти машины необязательно должны быть так же хороши во всем, как мы. Достаточно, чтобы они были хороши в тех областях, где они могут быть опасны», – допускает он.
Как пишет Reuters, экс-директор OpenAI Сэм Альтман превратил платформу ChatGPT в один из самых востребованных продуктов и привлек от Microsoft внушительные ресурсы. Утверждается, что на прошлой неделе Альтман говорил, что «серьезный прорыв уже не за горами». И после этого разговора, как пишет агентство, совет директоров Альтмана уволил.
Третий катастрофический сценарий подготовил соучредитель и научный сотрудник калифорнийского Института исследования машинного интеллекта Элиезер Юдковский. «Гораздо легче предсказать, где мы окажемся, чем то, как мы туда попадем. А там, где мы окажемся, есть нечто гораздо более умное, чем мы, и оно не особенно хочет, чтобы мы были рядом», – утверждает он. А поскольку искусственный разум намного умнее людей, то, вероятно, сможет сделать все, что захочет. Например, ИИ может уничтожить человечество, чтобы оно не создало еще какой-нибудь сверхинтеллект, способный с ним конкурировать. Тем не менее люди создают все более мощные системы, которые все хуже поддаются пониманию, забывая при этом о смертельной опасности.
В 2018 году компания OpenAI представила GPT-1. На тот момент эта Большая языковая модель (БЯМ) содержала 117 млн параметров распознавания и понимания языка. Спустя два года GPT-3 имела уже 175 млрд параметров. Сколько параметров у GPT-4, появившейся в марте 2023 года, достоверно неизвестно, так как эта информация является корпоративной тайной. Но, как водится, пошли слухи о том, что данная БЯМ имеет около 100 трлн параметров.
Незадолго до увольнения Сэма Альтмана с поста гендиректора OpenAI сотрудники компании сообщили об искусственном интеллекте, который может уничтожить человечество. О некоем письме, где сотрудники сообщили о существенном прорыве в разработке искусственного интеллекта, пишет агентство Reuters со ссылкой на источники. Именно это письмо, утверждает Reuters, стало одной из главных претензий совета директоров к Сэму Альтману.
Таким образом, можно заключить, что возможности систем искусственного интеллекта растут по экспоненте. Совсем недавно мало кто допускал, что БЯМ смогут сочинять музыку и рисовать картины, писать тексты и программный код, решать научные задачи и предлагать новые идеи. Поэтому логично предположить, что в ближайшем будущем разработчики смогут создать системы ИИ, которые буду способны самосовершенствоваться. А это, вероятно, та самая критическая точка, пройдя которую человеческая цивилизация столкнется с неизвестной опасностью, которой, может, и не удастся избежать.
Однако рассуждения о регулировании искусственного интеллекта по-прежнему, как правило, сводятся к двум подходам. Одни предлагают развивать машинный разум для укрепления мощи национальных государств и в рамках национальных законодательств, тогда как другие выступают за жесткие наднациональные ограничения, чтобы снизить глобальные риски. Но решить эту проблему прежними способами, основанными на исторически сложившихся принципах и традициях, пожалуй, невозможно, поскольку ИИ – это технология, которая имеет совершенно иную природу. И машинный разум уже меняет привычные представления о мировой роли крупнейших государств, причем это только самое начало.
В июне Европейский парламент первым в мире принял проект закона «Об искусственном интеллекте». Этот законодательный акт призван защитить граждан Евросоюза от рисков, которые несет машинный разум. В частности, на территории объединенной Европы будут запрещены технологии ИИ, воздействующие на подсознание людей, и системы биометрической аутентификации, работающие в режиме реального времени. Правда, все эти нововведения вступят в действие не раньше чем в 2025 году.
А между тем известные ученые и предприниматели уже несколько месяцев вовсю бьют тревогу. В конце марта этого года они выступили с открытым письмом, в котором призывают «все лаборатории искусственного интеллекта немедленно приостановить как минимум на шесть месяцев обучение системам ИИ, более мощным, чем GPT-4». Среди подписавших – Илон Маск, Стив Возняк, Юваль Ной Харари, Дарон Аджемоглу и многие другие. Но чем же, собственно говоря, так озабочены лучшие умы человечества?
Более того, неизвестно даже, к чему приведет компромиссный вариант, сочетающий национальное и наднациональное регулирование систем искусственного интеллекта. Поскольку помимо национальных государств и международных организаций в этом уравнении присутствует еще одна неизвестная величина – транснациональные корпорации. Существующее положение дел осложняется тем, что роль и значение технологических гигантов никак не укладываются в современные представления о мировом порядке, государственном суверенитете, демократии, общественном благе. А это значит, что в обозримом будущем развитие ИИ и дальше будет идти по непредсказуемой траектории и, что самое печальное, с непонятным результатом.
Многие историки сходятся в том, что национальные государства стали возникать после заключения Вестфальского мира 1648 года. Таким образом, подобная форма политической организации общества благополучно пережила Промышленную революцию XVIII–XIX веков и Научно-техническую революцию XX века. Однако уже сейчас заметны явные изменения в расстановке сил на арене мировой политики. Это, в частности, выражается в том, что гигантские технологические корпорации, прежде всего американские (Google, Amazon и прочие), ставят под вопрос статус ведущих национальных государств в качестве единственных глобальных акторов. А по мере развития и внедрения искусственного интеллекта, по мере стирания четкой границы между реальным и цифровым мирами американский Big Tech будет все больше и больше покушаться на суверенитет любых стран, не исключая даже США.
Бриттани Смит, занимающаяся изучением ИИ в Кембриджском университете, предложила второй сценарий. Она полагает, что наихудшим вариантом будет сохранение статус-кво, поскольку в этом случае ведущие технологические компании продолжат разрабатывать и внедрять нейросети в обстановке секретности. Поэтому научной общественности следует сосредоточиться преимущественно на текущих проблемах, малых делах, например на критике систем распознавания лиц, которые все чаще ложно обвиняют людей в совершении преступлений. Ведь подобная практика, как это ни громко звучит, в перспективе несет экзистенциальные риски для всего человечества. Кроме того, необходимо ускорить разработку исследовательской программы, которая доказала бы, что общественный вред не является неизбежным побочным продуктом технического прогресса.
Изначально в совете директоров говорили, что Альтман «не всегда был откровенен в общении» с руководством, а это «ограничивало его способность выполнять свои обязанности». Увольнение стало новостью для всего коллектива, и через несколько часов об уходе из OpenAI заявили несколько ключевых сотрудников. Отставка Альтмана вызвала протесты и среди инвесторов, под их давлением объявлено, что гендиректор возвращается.