Содержание статьи
Чем грозит человечеству неуправляемый искусственный интеллект
Потенциальные угрозы ИИ
Можно утешить себя мыслью, что так и было запрограммировано Творцом Вселенной и законами эволюции — на смену homo sapiens должны прийти электронные «боги». Это значительно реальнее, чем перспектива «сверхчеловека» из плоти и крови, созданного с помощью генной инженерии и тех или иных биотехнологий, о чем в свое время мечтали Лев Троцкий или братья Стругацкие. Впрочем, возможно также создание гибрида человека и машины путем имплантирования в человеческий мозг специальных чипов, неизмеримо расширяющих его интеллектуальный потенциал. В зависимости от материальных возможностей каждый человек сможет приобрести себе тот или иной уровень интеллекта — вот вам и претворение в жизнь еще одной антиутопии — «О дивный новый мир» Олдоса Хаксли.
Всем памятна сфабрикованная Отто фон Бисмарком «Эмсская депеша», спровоцировавшая войну Франции и Пруссии в 1870 году. Или недавние «утечки из Пентагона», породившие во всем мире хаос и смятение. ИИ сможет выдавать такого рода «депеши» и «утечки», сфабрикованные на неотличимом от подлинников уровне, в неограниченном количестве. Более того, как уже отмечалось, обладая «сверхчеловеческим» интеллектом и развитым самосознанием, он в один далеко не прекрасный момент может прийти к роковому для нас выводу, что люди являются лишними на земле, и принять решение об их ликвидации. Все это напоминает сцену из гениального романа М.А. Булгакова, когда Воланд, самовольно вселившись со своей свитой в квартиру Михаила Берлиоза и Степы Лиходеева, сообщает изумленному директору театра «Варьете», что лишний в этой квартире именно он.
В основе этих пророчеств лежит гипотеза о том, что рано или поздно искусственный интеллект, качественно превосходящий человеческий, станет неуправляемым и обретет способность к самосовершенствованию; в дальнейшем он будет развиваться по собственным законам, реализуя одному ему известные и понятные цели. В этом случае, как утверждают некоторые футурологи, люди окажутся по отношению к ИИ примерно в том же положении, в котором находятся муравьи по отношению к человеку: реализуя, например, тот или иной крупный инфраструктурный проект, люди совершенно не обращают внимания на то, сколько муравейников будет при этом разрушено. А там, где муравьев необходимо уничтожать, люди делают это недрогнувшей рукой.
В Новейшее время роковые пророчества получили наукообразное оформление — человечеству предвещали гибель от перенаселенности, экологической катастрофы, нашествия инопланетян, столкновения Земли с астероидом, генетического вырождения, в результате ядерной войны и, наконец, как следствие глобального потепления. Все эти сценарии так или иначе сохраняют свою актуальность, однако сегодня на первый план вышла угроза, которая прежде была уделом, скорее, научной фантастики. Это — «восстание машин», точнее — искусственный интеллект (ИИ), который способен либо сделать людей лишними на земле, либо и вовсе уничтожить человечество.
И еще подчеркну такой момент. Почему мы вообще заговорили про ИИ, про нейронные сети? На самом деле только сейчас там начинают разворачиваться основные события. Ведь за последние 35 лет производительность компьютеров увеличилась в 1 млрд раз. Что это означает? Если раньше задача решалась десять лет, то сейчас за 0,3 секунды.
Обращение Илона Маска, Стива Возняка и еще более тысячи исследователей искусственного интеллекта, которые призвали немедленно приостановить обучение систем на основе ИИ, вызвало сильнейшее эхо в СМИ и соцсетях. Ситуацию подогрела мировая новость, что чат-бот Элиза спровоцировал на самоубийство эколога в Бельгии. Звучат требования, пока не поздно, остановить безответственных ученых, которые из собственного любопытства готовы поставить человечество на грань выживания.
Опасен ли искусственный интеллект: мифы и реальность
Как отмечается в ряде публикаций, ИИ будет способен выявлять потенциальных преступников или тех, чье поведение не укладывается в установленные социальные стандарты. Что это, как не воплощение мечты «внутренней партии» Дж. Оруэлла о возможности карать не только реальных диссидентов, но и потенциально инакомыслящих? И что особенно печально — апеллировать будет не к кому. ИИ фактически будет исполнять роль бога на земле.
И тем не менее Маск и его сторонники призывают на шесть месяцев приостановить разработки. Почему? Человечество сегодня не готово использовать его без вреда самому себе. Оно словно получило в руки интересную игрушку, с удовольствием с ней играет, не понимая опасности, которая ему грозит. Авторы письма особо подчеркивают, что ИИ-лаборатории увязли в гонке по созданию все более мощных цифровых умов, которые никто, даже сами разработчики, не может до конца понять, прогнозировать и надежно контролировать. Это может спровоцировать очень болезненные, а порой даже неожиданные изменения в жизни человечества, несет угрозу самому его существованию.
В принципе ситуация с ИИ не новая. Она возникает каждый раз, когда речь идет о появлении революционной технологии. Она может приносить как огромную пользу, так и огромный вред. Вопрос в том, сумеет ли человечество правильно и вовремя распорядиться этим достижением науки.
Очевидно также, что ИИ способен до предела сузить пространство научной и общественно-политической дискуссии. Ведь он и есть тот самый «Большой брат», который «знает как надо». На все вопросы у него мгновенно найдутся «единственно правильные» ответы. И вполне вероятно, что эти ответы будут выдержаны в духе пресловутой тоталитарной «политкорректности» и «культуры отмены». Или, например, глобальной гегемонии какой-то одной сверхдержавы. Как ни крути, а ИИ несет на себе отпечаток образа мыслей его создателей.
И это только начало его бурной карьеры. Энтузиасты утверждают, что совсем скоро он возьмет на себя практически все сферы жизни, к нему перейдут функции и экспертизы, и управления, и выбора оптимальных вариантов развития экономики, а в конце концов и общества.
Даст какой-то эффект это письмо? Ранее об опасности ИИ и массовой роботизации неоднократно писали тот же Маск, Стивен Хокинг и другие знаменитости. Эхо было громким, но недолгим. Кто согласится остановить гонку? Ведь сказано же: кто будет лидером в сфере ИИ, тот будет править миром.
Реальные риски и их преодоление
Такое будущее уже не выглядит сюжетом фантастического рассказа. Во всяком случае, ведущие страны делают ставку на нейросети, заявляя: кто будет лидером в этой сфере, тот будет править миром. Поэтому принимаются национальные программы, выделяются огромные деньги в надежде, что нейросети помогут решать задачи развития государства, которые уже настолько сложны, что мозговые штурмы не могут найти оптимальные ответы. Словом, сейчас ИИ наше все.
Трудно даже представить, какой хаос может внести ИИ в систему образования. Сегодня в гуманитарных вузах Запада основной формой обучения является написание эссе на базе прослушанных лекций. Нейросети смогут «выдавать на гора» эти эссе в неограниченных количествах и притом высочайшего качества. И ни один профессор не отличит человеческое творение от машинного. Как в таких условиях оценить уровень знаний студентов?
И этот призыв авторов письма в первую очередь не к политикам, а к коллегам, разработчикам ИИ. Нельзя продолжать эту сумасшедшую бесконтрольную гонку в никуда. Давайте сделаем паузу, чтобы те блестящие умы, которые создают такие мощные интеллекты, остановились и договорились о новых правилах игры. Цель — сделать ИИ, который будет работать только на пользу, а не во вред человеку.
— Мне кажется, нынешняя ситуация с ИИ напоминает ту, которая сложилась после того, как при самом активном участии ученых в невероятной гонке было создано атомное оружие. А когда его возможности были продемонстрированы, ученые первыми стали думать, как оставить его в арсеналах, обеспечить его неприменение. В итоге было создано МАГАТЭ, которое контролирует многие вопросы в атомной сфере. Между странами подписаны важнейшие документы, где они берут на себя обязательства по неприменению и нераспространению такого оружия.
Итальянское управление по защите персональных данных первым в мире ввело временное ограничение на использование чат-бота ChatGPT на территории страны. Регулятор обвинил разработчика в нарушении законодательства о персональных данных после произошедшей утечки. В результате массового сбоя ряд пользователей смогли увидеть сообщения людей, общавшихся с чат-ботом, а также их имена, фамилии, электронные адреса и платежную информацию платных подписчиков сервиса, включая последние четыре цифры и сроки действия кредитных карт.
Очевидно, что регулирование дальнейшего совершенствования ИИ возможно только в случае создания Мирового правительства, о котором уже столько раз говорили ведущие мировые мыслители. Или, как временная мера, подписания некоего обязывающего и верифицируемого соглашения между ведущими мировыми державами и крупнейшими корпорациями. Впрочем, сегодня даже это представляется утопией: кому, где и когда удавалось искусственно остановить научно-технический прогресс? Однако такой же утопией в свое время представлялись и борьба с загрязнением окружающей среды, и сокращение ядерных вооружений, и даже, как ни смешно это звучит, попытки ограничения рекламы, производства и потребления табачной продукции. Между тем все это так или иначе стало реальностью. Хочется надеяться, что так будет и на этот раз. Но как бы то ни было, это именно тот случай, когда, не будучи алармистами, можно смело утверждать, что времени на раскачку у человечества осталось совсем немного.
Необходимо продолжать исследовать и развивать технологии ИИ, одновременно уделяя внимание этическим и социальным аспектам. Важно помнить, что ИИ — это инструмент, и его безопасность зависит от того, как мы его используем. Только совместными усилиями можно создать безопасное и устойчивое будущее, где ИИ будет служить на благо человечества.
Недавно Илон Маск, Стив Возняк и более тысячи футурологов, инноваторов и экспертов в сфере ИИ опубликовали открытое письмо с грозным предупреждением: «Мы должны спросить себя: стоит ли нам позволить машинам заполонить наши информационные каналы пропагандой и ложью? Стоит ли нам автоматизировать все профессии, включая те, что способствуют нашей самореализации? Стоит ли нам разрабатывать умы, которые не принадлежат человеку и которые могли бы в итоге превзойти нас численностью и интеллектом, сделать нас устаревшими и заменить нас? Стоит ли нам рисковать потерей контроля над цивилизацией?»