Содержание статьи
ИИ с языком. Как искусственный интеллект помогает учить английский
ДЛЯ ЧЕГО ИССЛЕДОВАТЬ ВОПРОСЫ БЕЗОПАСНОСТИ ИИ?
Однако пользоваться нейросетями могут не только школьники и студенты. ИИ поможет всем, кто изучает английский язык или сталкивается с ним в работе. Нейросеть может перевести текст, помочь в самостоятельном изучении и даже составить упражнения для проведения уроков.
Изобретение революционных технологий, а сверхразум ‒ одна из них, может помочь человечеству искоренить войны, болезни и бедность. Само по себе создание подобной технологии может стать крупнейшим событием во всей истории человечества. Однако, некоторые эксперты предполагают, что если человек не научится синхронизировать свои цели с задачами ИИ до того, как тот превратится в сверхразум, это событие может оказаться для него последним. Есть и те, кто сомневается в возможности создания сильного ИИ, и те, кто считает, что создание сверхразвитого ИИ гарантированно принесет человечеству пользу. Институт «Будущее жизни» признает возможность развития обоих сценариев событий и понимает, что ИИ может преднамеренно или непреднамеренно стать источником большой беды. Мы уверены, что структурное исследование вопроса сегодня поможет подготовиться к потенциально негативным сценариям и предотвратить их в будущем, даст возможность избежать опасных моментов, связанных с ИИ, а вместо этого использовать его преимущества.
Сложности перевода
Елена Мингажева и Оксана Суслова, исследователи Челябинского государственного университета, перевели один и тот же текст на английский язык с помощью онлайн-переводчика, словаря и ChatGPT. После этого они сравнили результаты и выяснили, что тексты чат-бота отличаются лучшей смысловой завершенностью, структурированностью, индивидуальностью и соответствием коммуникативной задаче. Поэтому ученые признали ChatGPT самым быстрым, удобным и эффективным средством.
Что же произойдет, если ИИ превзойдет человеческий разум и сможет успешнее решать все когнитивные задачи? В 1965 году Ирвинг Джон Гуд отмечал, что совершенствование системы ИИ само по себе является когнитивной задачей. Подобная система потенциально способна к рекурсивному самоулучшению и может спровоцировать тем самым «взрыв» интеллекта, оставив человеческий разум далеко позади.
Наверняка вы не относите себя к истребителям муравьев, которые из удовольствия и азарта вытаптывают насекомых, но если перед вами стоит задача построить ГЭС, и в зоне ее затопления случайно окажется муравейник…что ж, тем хуже для муравьев. Ключевая цель исследований безопасности в области ИИ ‒ предупредить ситуацию, в которой человечество окажется на месте муравьев.
Большинство исследователей сходятся во мнении, что сверхразумный ИИ вряд ли будет проявлять эмоции, присущие человеку, такие как, например, любовь или ненависть. Не стоит также ожидать, что искусственный интеллект станет намеренно доброжелательным или, наоборот, озлобленным. По мнению экспертов, наиболее опасными системы ИИ могут стать в результате двух сценариев:
МИФЫ, ОСНОВАННЫЕ НА ЗАБЛУЖДЕНИЯХ
Еще одно распространенное заблуждение заключается в том, что люди, сомневающиеся в ИИ и отстаивающие необходимость исследования его безопасности ‒ луддиты, не знакомые с технологией ИИ. Когда Стюарт Рассел, автор стандартного учебника по ИИ, высказал такое мнение в ходе конференции в Пуэрто Рико, аудитория рассмеялась. С этим заблуждением связано еще одно ‒ о том, что возможность поддержки исследований безопасности ИИ очень сомнительна. Но на самом деле, для внесения скромного вклада в исследования не обязательно быть уверенным в неизбежности рисков, достаточно лишь знать, что они не исключены. Подобно этому, даже минимальная возможность пожара ‒ достаточное основание для того, чтобы потратить небольшую сумму на страховку дома.
Ольга Захарова, исследовательница Трехгорного технологического института, предлагает использовать чат-боты в подготовке заданий для учеников. Нейросети помогают генерировать упражнения для уроков для закрепления выученных слов и фраз, отработки грамматики. А еще можно поговорить с нейросетью, как с носителем языка. Например, чат-бот Character.AI позволяет общаться с любыми героями, пародируя их манеру речи. Ученикам предлагают индивидуально выбрать героя, с которым им хотелось бы поговорить (актера, персонажа, знаменитость и т.п.), а затем задать ему вопросы на английском.
В эпоху цифровых технологий образование претерпевает невиданные изменения. Одним из ярких примеров использования новых технологий стало использование искусственного интеллекта (ИИ) в изучении английского языка. Алгоритмы не только помогают студентам улучшить свои языковые навыки, но и открывают новые горизонты в проведении уроков и общении на английском языке.
Все эти примеры показывают, что основная сложность при применении систем сильного ИИ связана не со злым сверхразумом, но скорее с компетентностью разработчиков. Сверхразумный ИИ будет невероятно эффективен в решении поставленных задач, вот только если они разойдутся с реальной целью человека, возникнут проблемы.
Существует и родственный миф, который культивируют люди обеспокоенные тем, что от создания сверхмощного ИИ нас отделяет всего несколько лет. Однако большинство тех, кто открыто заявляет о своей обеспокоенности, в действительности видят возможность создания сверхмощного интеллекта лишь десятилетия спустя. Они аргументируют свои заявления так: поскольку нет стопроцентной гарантии того, что прорыв ИИ не произойдет в этом столетии, разумно было бы начать исследования в области безопасности этой технологии для того, чтобы подготовиться к непредвиденным событиям. Многие проблемы безопасности связанные с равным человеку ИИ настолько значительны, что на их решение могут понадобиться десятилетия. Поэтому, чтобы не пришлось поспешно разбираться с последствиями того, что может натворить компания программистов, окрыленная напитками Red Bull, дальновиднее будет начать исследование вопроса уже сегодня.
Институт «Будущее жизни» считает, что процветание цивилизации возможно до тех пор, пока мы не позволим растущей силе технологий взять верх над благоразумным использованием оных. Что касается технологий ИИ, нам кажется, ключ не в том, чтобы препятствовать их развитию, но в том, чтобы путем исследований в области обеспечения безопасности ИИ, сделать упор на их разумное использование.
Сегодня под термином ИИ в первую очередь понимается специализированный искусственный интеллект (или слабый ИИ), разработанный для решения конкретной задачи – например, распознавания лиц, поиска в сети интернет или управления автомобилем. Долгосрочной же целью многих разработчиков является создание общего искусственного интеллекта (или сильного ИИ). В то время как специализированный ИИ выполняет конкретную задачу ‒ например, он может обыграть человека в шахматы или решить уравнения, общий ИИ превзойдет человека практически в любой когнитивной работе.
Возможно, СМИ придали дискуссиям вокруг ИИ более противоречивый образ, который не соответствует реальности. Страх, конечно, увеличивает продажи и статьи с вырванными из контекста фразами, предсказывающими неизбежный конец света, собирают большее количество просмотров, чем проработанные и сбалансированные. В результате два человека, знакомых друг с другом лишь по цитатам из интервью, могут показаться друг другу гораздо более принципиальными оппонентами, чем есть на самом деле.