Содержание статьи
Чем опасен для человечества искусственный интеллект
Италия запретила доступ к ChatGPT
В принципе ситуация с ИИ не новая. Она возникает каждый раз, когда речь идет о появлении революционной технологии. Она может приносить как огромную пользу, так и огромный вред. Вопрос в том, сумеет ли человечество правильно и вовремя распорядиться этим достижением науки.
— В области искусственного интеллекта должна быть очень серьезно прописана законодательная база. Во-первых, важно учесть, что наиболее активно он развивается в сфере «оборонки». Вторая серьезная задача связана с фреймворками (открытыми базами данных), куда разработчик «складывает» свои программные опции, которые можно использовать для нейронных сетей.
В докладе Gladstone AI содержится призыв к новым решительным шагам, направленным на противостояние этой угрозе, включая создание нового агентства по искусственному интеллекту и введение «чрезвычайных» нормативных ограничений на то, сколько вычислительной мощности может быть использовано для обучения моделей ИИ.
Обращение Илона Маска, Стива Возняка и еще более тысячи исследователей искусственного интеллекта, которые призвали немедленно приостановить обучение систем на основе ИИ, вызвало сильнейшее эхо в СМИ и соцсетях. Ситуацию подогрела мировая новость, что чат-бот Элиза спровоцировал на самоубийство эколога в Бельгии. Звучат требования, пока не поздно, остановить безответственных ученых, которые из собственного любопытства готовы поставить человечество на грань выживания.
Еще одной причиной ограничения стало то, что формально ChatGPT предназначен для пользователей старше 13 лет, но на практике бот не фильтрует их по возрасту. У ChatGPT есть 20 дней, чтобы ответить на претензии и провести работу над ошибками. Иначе создателям будет грозить штраф до 20 млн евро, или до 4 процентов от годового оборота во всем мире.
«Один человек в известной лаборатории искусственного интеллекта выразил мнение, что если конкретная модель ИИ следующего поколения когда-либо будет выпущена в открытый доступ, то будет „очень плохо“, — говорится в докладе. — Потому что потенциальные способности модели убеждать людей могут „сломать демократию“, если они будут использованы в таких областях, как вмешательство в выборы или манипулирование избирателями».
Вопросы безопасности
«Развитие ИИ и общего искусственного интеллекта может дестабилизировать глобальную безопасность, как когда-то ядерное оружие», — говорится в докладе. Кроме того, возникает риск «гонки вооружений» ИИ, конфликтов и «несчастных случаев со смертельным исходом в масштабе оружия массового поражения».
Такое будущее уже не выглядит сюжетом фантастического рассказа. Во всяком случае, ведущие страны делают ставку на нейросети, заявляя: кто будет лидером в этой сфере, тот будет править миром. Поэтому принимаются национальные программы, выделяются огромные деньги в надежде, что нейросети помогут решать задачи развития государства, которые уже настолько сложны, что мозговые штурмы не могут найти оптимальные ответы. Словом, сейчас ИИ наше все.
В докладе, опубликованном компанией Gladstone AI, утверждается, что самые передовые системы искусственного интеллекта могут в худшем случае представлять угрозу вымирания для человеческого вида. «ИИ уже является экономически преобразующей технологией. Он позволяет нам лечить болезни, делать научные открытия и справляться с трудностями, которые мы когда-то считали непреодолимыми, — сказал Джереми Харрис, генеральный директор и соучредитель Gladstone AI. — Но он также может привести к серьезным последствиям, в том числе катастрофическим».
Сегодня поступь ИИ поражает. Он уже уверенно шагает по планете, стремительно занимает все новые ниши, вытесняя человека. Причем он мастер на все руки. Диагнозы ставит, лица идентифицирует, в судах работает адвокатом, музыку и картины пишет, чемпионов в покер и го обыгрывает. Предсказывает не только погоду, но даже банкротства.
Джереми Харрис из Gladstone AI заявил, что к таким поразительным выводам привел «беспрецедентный уровень доступа» его команды к официальным лицам в государственном и частном секторе. Представители компании также отметили, что они общалась с техническими специалистами и руководством компаний ChatGPT, владеющей OpenAI, Google DeepMind, Facebook Meta и Anthropic.
Одной из самых больших угроз является скорость развития ИИ, в частности общего искусственного интеллекта или AGI, который представляет собой гипотетическую форму ИИ с человекоподобными или даже сверхчеловеческими способностями к обучению. В отчете говорится, что AGI рассматривается как «основной фактор риска потери контроля», и отмечается, что OpenAI, Google DeepMind, Anthropic и Nvidia публично заявили, что AGI может быть создан к 2028 году, хотя другие считают, что до этого еще очень далеко.
И этот призыв авторов письма в первую очередь не к политикам, а к коллегам, разработчикам ИИ. Нельзя продолжать эту сумасшедшую бесконтрольную гонку в никуда. Давайте сделаем паузу, чтобы те блестящие умы, которые создают такие мощные интеллекты, остановились и договорились о новых правилах игры. Цель — сделать ИИ, который будет работать только на пользу, а не во вред человеку.
Сейчас в нейронных сетях начинает появляться другая модель нейронов, так называемые спайковые модели и другие. И самое важное — появилась новая, «нефоннеймановская» архитектура, которая позволяет более эффективно производить вычисления, появляется новый вид памяти. Сегодня у любого процессора 40% занимает память по площади, по энергетике. Мы ожидаем в ближайшие 10 лет мультипликативные эффекты в 100 тыс. раз, что намного расширит возможности нейронных сетей. Многое в жизни будет меняться. Перед этим взрывом важно остановиться и еще раз просмотреть законодательную базу по ИИ.