Содержание статьи
Опасен ли искусственный интеллект: мифы и реальность
Опасен ли искусственный интеллект: мифы и реальность
Искусственный интеллект представляет собой мощный инструмент, который может как принести пользу, так и стать источником угроз. Опасения, связанные с ИИ, во многом основаны на его неправильном использовании или недостаточном понимании. Однако, при правильном подходе и регулировании, ИИ может стать важным помощником в развитии общества.
Искусственный интеллект (ИИ) – это отрасль науки, официально увидевшая свет в 1956 году на летнем семинаре в Дартмут-колледже (Хановер, США), который организовали четверо американских ученых: Джон Мак-Карти, Марвин Мински, Натаниэль Рочестер и Клод Шеннон. С тех пор термин «искусственный интеллект», придуманный, вероятнее всего, с целью привлечения всеобщего внимания, стал настолько популярен, что сегодня вряд ли можно встретить человека, который никогда его не слышал. С течением времени этот раздел информатики развивался все больше, а интеллектуальные технологии в последние шестьдесят лет сыграли важную роль в изменении облика мира.
Будет появляться все больше информации. Ее надо где-то хранить. Значит, нужны оперативные мощности по хранению, по обработке, по увеличению скорости — это направление тоже будет развиваться. Это должно подстегнуть IT-отрасли, связанные с разработкой технологий, созданием чипов и т.д.
Искусственный интеллект (ИИ) быстро развивается и проникает во все сферы нашей жизни. Его возможности поражают: от автоматизации рутинных задач до создания произведений искусства. Однако, вместе с преимуществами приходят и опасения. Многие задаются вопросом: насколько опасен искусственный интеллект? Давайте рассмотрим основные аспекты этой темы.
— Конечно же, есть вызовы, которые нас немного сдерживают в применении этих методов. Почему, например, мы хотим параллельно использовать альтернативные методы исследований? Потому что те же нейросети — это черный ящик для нас. Часто исследователи используют уже готовые алгоритмы, мы не всегда понимаем, как они работают и насколько достоверный дают результат. Это очень хорошо прослеживается на текущих примерах чатов вроде ChatGPT, GigaChat Сбера или Yandex GPT: когда мы делаем какие-то запросы в них, информация, которая выдается, часто может быть неправдоподобной — в зависимости от словарей, на которых нейросеть обучается. Программисты называют это рисками галлюцинаций. Наша задача в том числе — уметь различить, где искусственный интеллект нагло врет, а где говорит правду.
Проектно-учебная лаборатория экономической журналистики НИУ ВШЭ проводит серию интервью, посвященных тому, как технологии машинного обучения и анализа данных применяются в современных экономических исследованиях, развитии науки, финансовых институтов и подготовке специалистов для разных отраслей экономики.
Студенты в GPT и риски галлюцинаций
— Он будет применяться везде. В том числе будут развиваться технологии, связанные с автоматизацией рутинных процедур, задач, которые уйдут уже на откуп машинам и будут освобождать людям время и силы. В таком случае нам придется заниматься более интеллектуальной работой, создавать еще более совершенный искусственный интеллект. Я очень надеюсь, что это будет история про развитие и не позволит человечеству деградировать. Машины развиваются, начинают больше знать и активнее работать, люди тоже должны быть еще более развитыми и еще больше понимать. Это развитие человеческого капитала очень важно, чтобы искусственный интеллект был нашим помощником.
— Некоторые задачи, особенно когда у вас большие массивы данных, человеку обработать вручную очень сложно. Нужно использовать машинные методы и алгоритмы — не только из-за времени, но в том числе и из-за масштабов исследований. Исследователи, которые прибегают к помощи машин, конечно, имеют преимущество, потому что они приобретают разные возможности, которые позволяют им решить задачу проще и быстрее.
Преподаватель информатики в университете Сорбонна, профессор Жан-Габриэль Ганасия (Франция) является также научным сотрудником исследовательской лаборатории LIP6, (Laboratoire d’Informatique de Paris 6), действительным членом Европейской ассоциации искусственного интеллекта EurAI (European Association for Artificial Intelligence), членом Университетского института Франции (Institut Universitaire de France) и председателем Комитета по этике Национального научно-исследовательского центра Франции (CNRS). Его научные интересы охватывают такие темы, как машинное обучение, символическое слияние данных, компьютерная этика и цифровые гуманитарные науки.
С конца 1990-х годов ИИ стали объединять с робототехникой и интерфейсом «человек – машина» с целью создания интеллектуальных агентов, предполагающих наличие чувств и эмоций. Это привело, среди прочего, к появлению нового исследовательского направления – аффективных (или эмоциональных) вычислений (affective computing), направленных на анализ реакций субъекта, ощущающего эмоции, и их воспроизведение на машине, и позволило усовершенствовать диалоговые системы (чат-боты).
И наконец, в противоположность некоторым утверждениям, машины не несут в себе экзистенциального риска для человечества, поскольку их автономия носит лишь технический характер и в этом смысле не соответствует цепочкам материальной причинности, идущим от информации к принятию решений. Кроме того, машины не самостоятельны в моральном плане, и потому, даже если иногда они сбивают нас с толку и вводят в заблуждение своими действиями, они все же не обладают собственной волей и подчиняются тем целям, которые мы перед ними ставим.
С другой стороны, мы можем говорить и о новшествах при обработке этого огромного количества разных данных. Появляются механизмы, которые позволяют не только переработать текстовую информацию в количественную, но и найти какие-то взаимосвязи между этими данными. Это, конечно же, можно делать и в эконометрическом исследовании, но здесь используются другие подходы, которые в каком-то смысле более гибкие, потому что мы можем не создавать какие-то жесткие формы взаимосвязи, как в эконометрике, а пытаться получить эту форму из данных.
— По-разному. Например, в онлайн-магистратуре «Экономический анализ» мы используем технологии, которые позволяют организовать дистанционное обучение, а в наши курсы внедряем много современных методов. У нас есть курсы по применению машинного обучения в экономике: там мы учим, какие экономические задачи можно решать, анализируя большие данные, с помощью каких методов их можно обрабатывать, изучаем обработку текстов, различные методы классификации, регрессии и т.д.
— В своих последних работах мы использовали машинное обучение для анализа и прогнозирования миграции с помощью цифрового следа в сети «Интернет» на основании статистики поисковых запросов, то есть того, что люди запрашивают в интернете относительно разных тематик. Есть уже агрегированная статистика — в нашем случае это Google Trend Index и «Вордстат» (статистика «Яндекса». — Ред.), которые представляют индексы по ключевым словам или по тематикам за определенный промежуток времени и показывают соответствующую динамику запросов. На основании этих динамик можно пытаться прогнозировать миграцию.
История взлетов и падений
— Здесь, кстати, вот в чем проигрывает искусственный интеллект человеку. Во-первых, он сейчас пока вообще далеко не совершенен и не идеален — какие-то рутинные задачи можно ему делегировать, например генерировать тексты, составлять планы презентаций, конспект лекций и др. Но при этом нужно помнить, что не каждую задачу ему можно поручить: искусственный интеллект, в отличие от человека, не обладает интуицией, которая есть у исследователей.
Например, в экономике ИИ может помочь нам проводить эксперименты. Мы ведь не можем экспериментировать над людьми. Новые технологии в перспективе позволят нам генерировать целые искусственные миры для проведения экономических экспериментов. Что-то подобное уже делается: это динамические оптимизационные модели, агентно-ориентированные модели. Это позволило бы экономистам проводить эксперименты, прежде чем ту или иную инициативу внедрять в жизнь.
— С одной стороны, сервисы искусственного интеллекта называют учебными ассистентами, и часто их используют именно как помощников: они помогают вам сортировать почту по тематике, обрабатывать большие массивы данных, составлять планы работ и т.д. Но, с другой стороны, если юные студенты с самого начала будут использовать труд этих помощников, сами не попробовав хотя бы написать письмо, составить план, решить задачу, мне кажется, что какие-то навыки, soft skills и даже иногда hard skills, у них будут утеряны. Все-таки, прежде чем пользоваться этими помощниками, надо самому пройти школу жизни, сначала самим научиться делать даже рутинные вещи, чтобы в том числе потом контролировать то, что вам будет выдавать искусственный интеллект.
Опасен ли искусственный интеллект? Ответ не может быть однозначным. ИИ обладает огромным потенциалом, но также и значительными рисками. Важно продолжать исследования, регулировать его использование и разрабатывать меры предосторожности. Только тогда ИИ станет надежным помощником, а не угрозой для обществ
Студентов нужно обучать новым подходам, но при этом не стоит забывать традиционные — мне кажется, они тоже очень важны, не должно одно замещать другое. Мы же, когда был калькулятор, все равно учились в первом классе считать и умножать. Если бы мы сразу прибегали к помощи калькулятора, наверное, потеряли бы что-то очень важное. Здесь примерно то же самое.
В целом, каждая из наук развивалась своим трендом. В эконометрических исследованиях больший акцент был сделан именно на выявлении причинно-следственных связей, а не на корреляциях, которые в большинстве случаев находятся с помощью обычных регрессионных моделей. Если говорить о развитии искусственного интеллекта, то здесь тренды связаны с тем, что появилось больше данных и больше мощностей, которые позволили эти данные изучать. С помощью искусственного интеллекта в основном решаются задачи, связанные с разработкой алгоритмов для быстрой обработки данных. В экономической науке существуют нюансы, связанные с особенностями оценивания моделей на различных выборках: когда мы работаем с результатами опросов, мы можем иметь дело с совсем небольшими выборками, и там возникают совсем другие проблемы, которые уже решаются другими способами.
Поначалу, под влиянием первых успехов, исследователи позволяли себе несколько опрометчивые заявления, которые впоследствии неоднократно ставились им в упрек. Так, например, в 1958 году американец Герберт Саймон, позже ставший лауреатом Нобелевской премии по экономике, заявил, что если бы машины допускались к международным соревнованиям, то в ближайшие десять лет они стали бы чемпионами мира по шахматам.
Мне хотелось бы, чтобы за счет искусственного интеллекта мы могли узнавать о мире больше, чтобы наука была более прогрессивной, чтобы мы могли делать открытия быстрее, больше заботиться о нашей окружающей среде. Чтобы мы не совершали ошибки, а как-то могли их просчитать и предупредить, чтобы не было ситуаций, когда у нас происходят наводнения, пожары и тому подобное, чтобы эти модели нам в том числе позволяли заранее идентифицировать такие события и мы могли предупреждать их.