Содержание статьи
Опасен ли искусственный интеллект: мифы и реальность
Страны мира озаботились регулированием генеративного ИИ
И еще подчеркну такой момент. Почему мы вообще заговорили про ИИ, про нейронные сети? На самом деле только сейчас там начинают разворачиваться основные события. Ведь за последние 35 лет производительность компьютеров увеличилась в 1 млрд раз. Что это означает? Если раньше задача решалась десять лет, то сейчас за 0,3 секунды.
Искусственный интеллект (ИИ) быстро развивается и проникает во все сферы нашей жизни. Его возможности поражают: от автоматизации рутинных задач до создания произведений искусства. Однако, вместе с преимуществами приходят и опасения. Многие задаются вопросом: насколько опасен искусственный интеллект? Давайте рассмотрим основные аспекты этой темы.
Опасен ли искусственный интеллект? Ответ не может быть однозначным. ИИ обладает огромным потенциалом, но также и значительными рисками. Важно продолжать исследования, регулировать его использование и разрабатывать меры предосторожности. Только тогда ИИ станет надежным помощником, а не угрозой для обществ
Несмотря на недостатки, перспективы у ИИ очень большие. Так, существенная часть работы преподавателей — это проверка работ студентов. Даже в самых строгих областях науки мы предпочитаем давать студентам творческие задания, где надо подумать, проанализировать, предложить идею. И, конечно, сейчас это приходится проверять вручную. У лингвистических моделей есть все шансы нам помочь — находить в решениях недостатки, давать студентам развернутую обратную связь. Для обучения таких моделей нам понадобится собрать большую выборку решений студентов вместе с результатами проверки — но вряд ли это нерешаемая задача.
В принципе ситуация с ИИ не новая. Она возникает каждый раз, когда речь идет о появлении революционной технологии. Она может приносить как огромную пользу, так и огромный вред. Вопрос в том, сумеет ли человечество правильно и вовремя распорядиться этим достижением науки.
Наверняка вы слышали историю, как студент РГГУ написал дипломную работу с помощью ChatGPT и даже успешно защитил ее. Сколько тогда было паники — говорили, что всё, образование можно отменять! Какая-то железка умеет решать такие сложные задачи, ужас! Но давайте разберемся, как именно работает ИИ на примере конкретно этой истории с дипломом.
Даст какой-то эффект это письмо? Ранее об опасности ИИ и массовой роботизации неоднократно писали тот же Маск, Стивен Хокинг и другие знаменитости. Эхо было громким, но недолгим. Кто согласится остановить гонку? Ведь сказано же: кто будет лидером в сфере ИИ, тот будет править миром.
Во-первых, он может стать нашим помощником в рутинных задачах. Во-вторых, ИИ порождает огромное количество исследовательских вопросов, которых точно хватит на наш с вами век. Мы смогли успешно обучить лингвистические модели — но совершенно не понимаем, почему они работают именно так, какие у них ограничения, как бороться с их недостатками. И у нас есть все шансы найти ответы на эти вопросы.
Опасен ли искусственный интеллект: мифы и реальность
После громкой истории со студентом, который написал диплом с помощью ChatGPT, в обществе не утихают споры по поводу опасности искусственного интеллекта (ИИ) для образования и жизни в целом. Руководитель департамента больших данных и информационного поиска факультета компьютерных наук НИУ ВШЭ Евгений Соколов рассказывает, как работает ИИ и чего действительно стоит опасаться в работе с ним.
Сегодня многие говорят об опасности создания сильного искусственного интеллекта, о неких рисках и возможностях. По-моему, риск совсем не в том, что ИИ захватит человечество, да и потенциальные плюсы вовсе не в том, что мы вот-вот получим некий искусственный интеллект, который сможет заменить естественный.
Технологии ИИ по своему влиянию на человечество в определенном смысле сравнимы с атомным оружием. Речь идет не о взрывах, а о негативных последствиях неконтролируемого применения ИИ. И условиях, в которых сегодня создаются такие системы. Фактически между несколькими крупнейшими фирмами идет, говоря образно, «гонка вооружений» в области ИИ. Сами разработчики не в полной мере представляют, как работают эти «черные ящики», но продолжают стремительно наращивать их «мускулы», открывая для них все новые возможности в самых разных сферах. В такой гонке времени на проверку безопасности систем, на оценку последствий их применения практически нет. Сейчас об этом мало думают, главное — опередить конкурентов.
Итальянское управление по защите персональных данных первым в мире ввело временное ограничение на использование чат-бота ChatGPT на территории страны. Регулятор обвинил разработчика в нарушении законодательства о персональных данных после произошедшей утечки. В результате массового сбоя ряд пользователей смогли увидеть сообщения людей, общавшихся с чат-ботом, а также их имена, фамилии, электронные адреса и платежную информацию платных подписчиков сервиса, включая последние четыре цифры и сроки действия кредитных карт.
Обращение Илона Маска, Стива Возняка и еще более тысячи исследователей искусственного интеллекта, которые призвали немедленно приостановить обучение систем на основе ИИ, вызвало сильнейшее эхо в СМИ и соцсетях. Ситуацию подогрела мировая новость, что чат-бот Элиза спровоцировал на самоубийство эколога в Бельгии. Звучат требования, пока не поздно, остановить безответственных ученых, которые из собственного любопытства готовы поставить человечество на грань выживания.
Модели вроде ChatGPT крайне хороши в создании текстов. Они могут сгенерировать официальное письмо на основе краткого неформального описания от нас. Сделать красивое рекомендательное письмо. Подготовить ответ на жалобу, которую вам надо обработать. «Причесать» текст, «налить воды» — или, наоборот, сократить, сделать краткую выжимку. Тот же ChatGPT мы можем использовать в качестве помощника.
Евгений Соколов — о возможностях и проблемах технологии
Еще один важный нюанс: в языковые модели не заложено понимания того, что выдаваемая ими информация должна соотноситься с реальностью и не противоречить фундаментальным законам физики или математики. Мы, живые люди, имеем возможность это проверять. Мы способны установить истину, потому что мы каждую секунду взаимодействуем с реальным миром. Какие-то утверждения проверить легко, для каких-то потребуется много работы — но это хотя бы реализуемо. Языковые модели с ним взаимодействуют только через тексты, которые видели при обучении, и эти тексты вполне могли быть некорректными, не соответствующими действительности.
Безусловно, это лишь некоторая основа, поверх которой нужно построить много всего, чтобы оно работало. Но если совсем поверхностно, то ChatGPT и другие языковые модели работают именно так. Они могут поддержать диалог, могут выдать краткое объяснение той или иной темы, могут решать математические задачи. И обратите внимание — в них не закладывали эти навыки каким-то специальным образом, их просто учили продолжать текст слово за словом.
Более того, мы же требуем от студентов не сам текст, мы требуем результат — что-то новое, нетривиальную идею, которая раньше никому не приходила в голову или которую никто не мог осмыслить до конца. ИИ на такое не способен. Во всяком случае, пока неизвестны случаи, чтобы языковая модель смогла сделать что-то новое в науке. А если студент справится с тем, чтобы вытащить из языковой модели что-то новое, пусть получает высшую оценку — он первый придумал, как это делать, и мы будем только рады. Пусть только объяснит, как он это сделал.
Такое будущее уже не выглядит сюжетом фантастического рассказа. Во всяком случае, ведущие страны делают ставку на нейросети, заявляя: кто будет лидером в этой сфере, тот будет править миром. Поэтому принимаются национальные программы, выделяются огромные деньги в надежде, что нейросети помогут решать задачи развития государства, которые уже настолько сложны, что мозговые штурмы не могут найти оптимальные ответы. Словом, сейчас ИИ наше все.
И это только начало его бурной карьеры. Энтузиасты утверждают, что совсем скоро он возьмет на себя практически все сферы жизни, к нему перейдут функции и экспертизы, и управления, и выбора оптимальных вариантов развития экономики, а в конце концов и общества.
Могут быть полезны языковые модели и для ускорения анализа информации. Сегодня каждый день выходят новые научные статьи в каждой области. По одним и тем же областям читается огромное количество курсов в разных университетах — и наверняка в каждом из них есть объяснение, которое удачнее других. Этой информации так много, что невозможно все это прочитать и переварить. Если мы научим языковые модели отличать правду от выдумки (и добьемся, чтобы они не ошибались в фактах) — мы получим крайне мощный инструмент, который позволит, например, за час узнать краткое резюме всех результатов в любой области науки. Думаю, это позволило бы ученым выйти на новую скорость в исследованиях.