Содержание статьи
Искусственный интеллект как угроза человечеству. Маск и Возняк призвали сделать паузу в развитии технологий ИИ
О каких рисках идет речь
Новые технологии несут новые риски, в том числе в области информационной безопасности. Не исключение и технологии искусственного интеллекта. По сути мы имеем неизвестно как и кем обученный «черный ящик», результаты работы которого проверить, как правило, нельзя. При этом понятно, что по крайней мере на этапе отладки «черный ящик» будет совершать ошибки, а злоумышленники будут пытаться его обмануть или повлиять на ход его рассуждений.
Риски реализуются через атаки, которые уже осуществляются и развиваются. В популярном у безопасников атласе Mitre перечислены 56 тактик атак, связанных с технологиями ИИ, из которых 14 появились в 2023 г. АНО «Национальный технологический центр цифровой криптографии» выделяет три основных класса атак: на нарушение конфиденциальности, на нарушение целостности и доступности информации (рис. 4).
В начале февраля российские СМИ рассказывали об истории выпускника РГГУ Александра Жадана, который написал при помощи ChatGPT дипломную работу, потратив на это около суток. Работу он сумел защитить и получить на ее основании диплом. После этого руководство ВУЗа заявило, что снова проверит диплом Жадана, а также выразило намерение запретить использование ChatGPT в образовательных организациях.
Нельзя сказать, что все атаки новые. В молодости в аспирантуре, занимаясь тем, что через 20 лет назовут Big Data, выявил особенность на почти идеальном гауссовском распределении усилий при извлечении топливных сборок одного из реакторов. Распределение обрывалось резким пиком при достижении значения N. Как удалось выяснить, N – это технологически установленное предельно допустимое значение, и извлечение сборки с превышающим его усилием могло привести к обрыву троса и аварии на реакторе. За такие действия наказывали лишением премии, и, чтобы не потерять деньги, персонал указывал в отчете не реальное, а предельное значение. В результате исходные данные для моего анализа, нужные для построения многомерной модели конструкции реактора, были искажены, причем не злостными хакерами, а обычными советскими людьми – наглядный пример непреднамеренной атаки путем «отравления» обучающей выборки.
Ведущие фигуры в области разработки технологий искусственного интеллекта, включая Илона Маска и сооснователя Apple Стива Возняка, предлагают сделать паузу в развитии технологий искусственного интеллекта до тех пор, пока не будут разработаны и применены надежные протоколы безопасности.
Востребованы и уже появились на кривой Gartner технологии защиты от дипфейков (Disinformation security). Вопросы управления доверием, рисками и безопасностью ИИ, пусть и в упрощенном виде – «роботы отнимут у нас работу, а “Скайнет” всех уничтожит», – широко обсуждаются на телевидении и в СМИ, даже далеких от техники. На уровне Госдумы рассматриваются вопросы этики ИИ, причем к обсуждению присоединилась даже церковь. Ставится вопрос о технологическом суверенитете ИИ – неизвестно, что заложено в ИИ недружественных стран и к каким последствиям приведет их бездумное использование.
Авторы письма, опубликованного спустя всего две недели после того, как американская исследовательская лаборатория OpenAI раскрыла подробности нового, самого продвинутого на сегодняшний день чат-бота GPT-4, предлагают ввести полугодовой мораторий на обучение систем, более мощных чем чат-бот GPT-4. Свой собственный чат-бот Bard также отрыла для тестирования компания Google.
На внедрение технологий ИИ возлагают много надежд. Так, совместное исследование консалтинговой компании «Яков и партнеры» и «Яндекса» оценивает эффект использования технологий ИИ к 2028 г. в 4,2–6,9 трлн руб., или до 4% ВВП. Ожидается, что пятую часть (0,8–1,3 трлн руб.) даст применение генеративного ИИ, создающего тексты, видео и изображения на основе запросов (рис. 2). Основные потребители: ритейл, банки, горно-металлургическая отрасль, производство потребительских товаров, ИТ, транспорт и логистика.
В понедельник озабоченность по поводу этических и юридических последствий применения передовых технологий вроде ChatGPT выразило полицейское подразделение Евросоюза Европол, предупредивший о том, что потенциально эти системы могут использоваться для разных типов интернет-мошенничества — от фишинга до киберпреступлений, а также распространения дезинформации.
Поставщики и пользователи систем с высокой степенью риска, представляющих угрозу здоровью, безопасности или основным правам человека, должны обеспечивать безопасность и соблюдение действующего законодательства на протяжении всего жизненного цикла систем ИИ. Разработчикам придется раскрывать принципы работы своих технологий и предоставлять датасеты, использованные для обучения систем.
«Мне кажется, всем уже понятно, что искусственный интеллект открывает огромные возможности и может внести весомый вклад в создание лучшего будущего для всех нас, но не следует забывать и о связанных с этим рисках — предвзятости, дезинформации и даже манипуляциях, так что следовало бы облечь эти технологии в правила и установить над ними контроль, — заявила в связи с этим в интервью Би-би-си специалист в области защиты частных данных Ивана Бартолетти. — Нам необходимо создать атмосферу доверия, чтобы пользователи осознавали, что говорят с машиной, и что у этих машин могут быть сбои».
В письме подробно описываются эти потенциальные риски для общества и цивилизации в целом. По мнению авторов, они заключаются в том, что системы на основе искусственного интеллекта могут вступить в конкуренцию с людьми, что может привести к экономическим и политическим взрывам.