Искусственный интеллект чем грозит

0
23

Плохо обученный искусственный интеллект опаснее восстания машин»

Италия запретила доступ к ChatGPT

Такое будущее уже не выглядит сюжетом фантастического рассказа. Во всяком случае, ведущие страны делают ставку на нейросети, заявляя: кто будет лидером в этой сфере, тот будет править миром. Поэтому принимаются национальные программы, выделяются огромные деньги в надежде, что нейросети помогут решать задачи развития государства, которые уже настолько сложны, что мозговые штурмы не могут найти оптимальные ответы. Словом, сейчас ИИ наше все.

Старший научный сотрудник Научно-учебной лаборатории трансцендентальной философии ВШЭ Диана Гаспарян полагает, что описанные докладчиком угрозы неравнозначны. Уход от реальности представляется ей наименее опасным, поскольку человеку скучно общаться с искусственным интеллектом. Возможно, разработчики ИИ будут пытаться обмануть людей, создавая видимость субъектности виртуальных собеседников.

Но главная гипотетическая опасность заключается в том, что ИИ в военной сфере вполне может выйти из-под контроля человека и начать действовать «по собственному усмотрению». Будучи изначально запрограммированным на победу в грядущей войне, он сам и развяжет эту войну в тот момент, когда сочтет, что достигнуто соотношение сил, достаточное для гарантированного уничтожения противника. И если Джон Кеннеди и Никита Хрущев, познавшие на собственном опыте, какие страдания несет людям война, нашли в себе силы остановиться перед роковой чертой в дни «карибского кризиса», то ИИ, начисто лишенный такого рода эмоций, недрогнувший рукой доведет дело до конца.

Сегодня поступь ИИ поражает. Он уже уверенно шагает по планете, стремительно занимает все новые ниши, вытесняя человека. Причем он мастер на все руки. Диагнозы ставит, лица идентифицирует, в судах работает адвокатом, музыку и картины пишет, чемпионов в покер и го обыгрывает. Предсказывает не только погоду, но даже банкротства.

Итальянское управление по защите персональных данных первым в мире ввело временное ограничение на использование чат-бота ChatGPT на территории страны. Регулятор обвинил разработчика в нарушении законодательства о персональных данных после произошедшей утечки. В результате массового сбоя ряд пользователей смогли увидеть сообщения людей, общавшихся с чат-ботом, а также их имена, фамилии, электронные адреса и платежную информацию платных подписчиков сервиса, включая последние четыре цифры и сроки действия кредитных карт.

Средневековое общество жило напряженным ожиданием прихода Антихриста и наступления «конца света», предсказанного в знаменитом «Откровении Иоанна Богослова». Существовало немало различных «систем», якобы способных предсказать точную дату этого события и установить личность самого Антихриста (в их числе назывались император Священной Римской империи Фридрих II и иные деятели), но всякий раз Апокалипсис почему-то откладывался.

Всем памятна сфабрикованная Отто фон Бисмарком «Эмсская депеша», спровоцировавшая войну Франции и Пруссии в 1870 году. Или недавние «утечки из Пентагона», породившие во всем мире хаос и смятение. ИИ сможет выдавать такого рода «депеши» и «утечки», сфабрикованные на неотличимом от подлинников уровне, в неограниченном количестве. Более того, как уже отмечалось, обладая «сверхчеловеческим» интеллектом и развитым самосознанием, он в один далеко не прекрасный момент может прийти к роковому для нас выводу, что люди являются лишними на земле, и принять решение об их ликвидации. Все это напоминает сцену из гениального романа М.А. Булгакова, когда Воланд, самовольно вселившись со своей свитой в квартиру Михаила Берлиоза и Степы Лиходеева, сообщает изумленному директору театра «Варьете», что лишний в этой квартире именно он.

Авторы призывают немедленно приостановить обучение систем ИИ, более мощных, чем модель GPT-4, как минимум на полгода, подчеркивая, что «эта пауза должна быть публичной, ее исполнение должно поддаваться проверке, и ей должны последовать все ключевые представители сферы. Если такая пауза не может быть введена быстро, правительства стран должны вмешаться и установить мораторий». Они также предлагают разработать и внедрить общие протоколы безопасности, которые «должны гарантировать, что системы, относящиеся к ним, в полной мере безопасны».

В последние годы на страницах российских СМИ не раз возникала тема «заимствованных» или вопиюще непрофессиональных диссертаций. Среди людей, не имеющих никакого отношения к науке, почему-то стало модным считаться «учеными». В эпоху продвинутых нейросетей каждому желающему обзавестись заветной «корочкой» можно будет не опасаться разоблачений. ИИ выдаст ему текст, к которому «комар носа не подточит», не говоря уже о самой взыскательной аттестационной комиссии. Таким образом, лжеученые станут совершенно неотличимы от подлинных подвижников науки. Впрочем, и самые талантливые ученые вряд ли смогут конкурировать с ИИ.

В те времена имели место случаи, когда системы раннего оповещения выдавали ложный сигнал о ядерной атаке со стороны вероятного противника, и только решительные и крайне рискованные действия людей на командных пунктах позволяли предотвратить ядерную войну. В том случае, если ИИ полностью заменит человека в таких системах, любая его ошибка будет способна привести к пуску ракет с ядерными боеголовками и как следствие — к глобальной катастрофе.

Другой сценарий, особенно тревожащий меня как адвоката, — это не только установление с помощью ИИ тотального контроля за жизнью человека (это уже повсеместно происходит), но и манипулирование этой жизнью. Уже сегодня ИИ демонстрирует удивительные способности прогнозировать будущее. Причем это касается не только курса акций или изменения спроса и предложения, но и военно-политических событий. Возникает вопрос: а не приведет ли это к тому, что ИИ будет навязывать как отдельному человеку, так и человечеству в целом именно тот образ мышления и жизни и те сценарии развития, которые представляются ему желательными? Ведь люди, включая политических деятелей и военных руководителей, принимают решения на основании получаемой ими информации.

ЧИТАТЬ ТАКЖЕ:  В каком году состоялся первый международный конгресс по искусственному интеллекту

— В области искусственного интеллекта должна быть очень серьезно прописана законодательная база. Во-первых, важно учесть, что наиболее активно он развивается в сфере «оборонки». Вторая серьезная задача связана с фреймворками (открытыми базами данных), куда разработчик «складывает» свои программные опции, которые можно использовать для нейронных сетей.

На фоне этих принципиально новых и трагических вызовов возникает вполне традиционный вопрос: «Что делать?» Можно вспомнить три закона робототехники писателя-фантаста Айзека Азимова. Первый закон категорически запрещает роботу вредить людям, второй — предписывает роботу подчиняться людям до тех пор, пока это не станет противоречить первому закону, и, наконец, третий закон диктует роботу защищать свою жизнь, не нарушая первых двух. Вопрос лишь в том, как этого достигнуть.

Еще одной причиной ограничения стало то, что формально ChatGPT предназначен для пользователей старше 13 лет, но на практике бот не фильтрует их по возрасту. У ChatGPT есть 20 дней, чтобы ответить на претензии и провести работу над ошибками. Иначе создателям будет грозить штраф до 20 млн евро, или до 4 процентов от годового оборота во всем мире.

Можно утешить себя мыслью, что так и было запрограммировано Творцом Вселенной и законами эволюции — на смену homo sapiens должны прийти электронные «боги». Это значительно реальнее, чем перспектива «сверхчеловека» из плоти и крови, созданного с помощью генной инженерии и тех или иных биотехнологий, о чем в свое время мечтали Лев Троцкий или братья Стругацкие. Впрочем, возможно также создание гибрида человека и машины путем имплантирования в человеческий мозг специальных чипов, неизмеримо расширяющих его интеллектуальный потенциал. В зависимости от материальных возможностей каждый человек сможет приобрести себе тот или иной уровень интеллекта — вот вам и претворение в жизнь еще одной антиутопии — «О дивный новый мир» Олдоса Хаксли.

Заведующая лабораторией Светлана Климова поинтересовалась у автора доклада — приглашенного исследователя Александра Хомякова, какие опасности могут сопровождать широкое применение искусственного интеллекта. По его оценке, вероятность скорого порабощения человечества машинами сильно преувеличена, при нынешнем состоянии искусственного интеллекта это невозможно. «Можно, конечно, бояться мятежа утюгов, которые восстанут и нас всех зажарят», — иронизирует он.

И этот призыв авторов письма в первую очередь не к политикам, а к коллегам, разработчикам ИИ. Нельзя продолжать эту сумасшедшую бесконтрольную гонку в никуда. Давайте сделаем паузу, чтобы те блестящие умы, которые создают такие мощные интеллекты, остановились и договорились о новых правилах игры. Цель — сделать ИИ, который будет работать только на пользу, а не во вред человеку.

По мнению Александра Хомякова, высокую опасность виртуализации отражает вовлечение миллионов людей в компьютерные игры. Они отдают себе отчет в том, что находятся в вымышленном мире, «но играют до ночи и до красных глаз, потому что там вырабатываются эмоции». Этому, полагает эксперт, способствует качественная проработка персонажей, вызывающих симпатию игроков.

Прежде всего, это использование ИИ в военном деле. Никакой, даже самый опытный пилот новейшего истребителя не сможет в перспективе конкурировать с роботом, наделенным ИИ. То же относится и к другим военным специальностям. Таким образом, возникает гипотетическая перспектива создания «абсолютного оружия», которое гарантированно обеспечит одной стороне победу в военном конфликте. А это значит, что мы наверняка получим новую гонку вооружений с использованием ИИ, которая по своим масштабам многократно превзойдет печальной памяти эпоху «холодной войны».

Сейчас в нейронных сетях начинает появляться другая модель нейронов, так называемые спайковые модели и другие. И самое важное — появилась новая, «нефоннеймановская» архитектура, которая позволяет более эффективно производить вычисления, появляется новый вид памяти. Сегодня у любого процессора 40% занимает память по площади, по энергетике. Мы ожидаем в ближайшие 10 лет мультипликативные эффекты в 100 тыс. раз, что намного расширит возможности нейронных сетей. Многое в жизни будет меняться. Перед этим взрывом важно остановиться и еще раз просмотреть законодательную базу по ИИ.

Как отмечается в ряде публикаций, ИИ будет способен выявлять потенциальных преступников или тех, чье поведение не укладывается в установленные социальные стандарты. Что это, как не воплощение мечты «внутренней партии» Дж. Оруэлла о возможности карать не только реальных диссидентов, но и потенциально инакомыслящих? И что особенно печально — апеллировать будет не к кому. ИИ фактически будет исполнять роль бога на земле.

Однако все это не значит, что ИИ бесперспективно использовать в принципе. Обходиться без него уже невозможно. Искусственный интеллект имеет большую оперативную память и, кроме того, берет на себя рутинную работу, которую человек не хочет выполнять. МВД, например, может следить не только за автомобилями, но и за людьми. Достаточно установить камеры, настроить ИИ, и система дальше работает сама. При этом, разумеется, встают этические вопросы.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь