Искусственные интеллекты как алиса

0
20

Нейросеть YandexGPT подключили к виртуальному помощнику Алиса. Какое будущее ждет искусственный интеллект в России

Алан Тьюринг в далёком 1950 году придумал, как проверить, обладает ли программа интеллектом. Смысл теста в том, чтобы комиссия задавала испытуемым ряд вопросов в письменной форме и по их ответам определяла, кто из них компьютер, а кто живой человек. Как же обстоит дело с упомянутыми выше претендентами на звание ИИ? Комиссия профессоров ещё может поймать и «Алису» или ChatGPT на нестыковках в диалоге. Но если мы попросим ChatGPT написать научную статью или книгу, то ситуация кардинально меняется. Определить, кто написал текст: машина или человек, – удаётся с трудом. Для издателей научных журналов наступила чёрная полоса: обрушился шквал научных статей, созданных роботами. Часть таких произведений удаётся отсеять по характерным для роботов оборотам, часть можно поймать на явных нестыковках с реальностью. Но механизма, гарантирующего полную фильтрацию генерированных статей, нет.

Новая возможность доступна в приложении «Яндекс», в браузере и умных колонках «Яндекса», в умных телевизорах с Алисой. Нейросеть активируется по команде «Алиса, давай придумаем». Виртуальный помощник может написать сценарий для мероприятия или детского праздника, составить деловое письмо, предложить план путешествия и пр. Пока технология работает в режиме тестирования. Как заявляют сами разработчики, Алиса может ошибаться в фактах, но это не отражается на ее креативных способностях.

Алиса может быть использована для обучения, но она не может заменить учителя или учебник. Она может помочь в поиске информации, ответах на вопросы, организации учебного материала и т.д. Однако, если Алиса используется как единственный источник информации, это может привести к неправильному пониманию и неправильным выводам. Поэтому важно использовать Алису в сочетании с другими источниками информации.

Сам ChatGPT доступен в России как часть поисковика Microsoft Bing, но только через сервисы VPN. При этом русский язык в ChatGPT поддерживается на достаточно высоком уровне. В отличие от YandexGP, которая последовательно отвечает на каждый запрос как на новый, ChatGPT способен поддерживать осмысленный диалог с учетом полученных ранее вопросов и команд.

Приведённое объяснение никак не ложится на канву повествования мультфильма. Можно было бы посмеяться над ошибкой робота и разойтись. Но нет, ролики о жутком ответе «Алисы» стали вирусными и разлетелись по интернету, находя отклик в сердцах миллионов зрителей. Почему так произошло?

Помимо YandexGPT, в России существует восемь больших языковых моделей семейства ruGPT-3 & family — от Сбера. Как сообщают источники «РГ» на рынке, Сбер планирует в ближайшее время открыть доступ к своему чат-боту GigaChat — альтернативе знаменитого ChatGPT компании Open AI.

Но такое преувеличение возможностей современных нейронных сетей приводит и к ряду печальных событий. Одним из ярких примеров является недавний скандал, разразившийся вокруг «Алисы». Голосового помощника попросили объяснить, «почему Маша в мультфильме [„Маша и Медведь“] живёт одна в лесу без родителей». Ответ был дан очень необычный. Добрый детский мультик превратился в жуткий фильм ужасов, где медведь убивает маленькую девочку. Дух Маши не оставляет Медведя и мстит ему за так рано оборванную жизнь. По этой причине девочка не стареет и живёт без родителей. Ведь те покинули дом, не выдержав потери своего единственного ребёнка.

Обучение нейросети проходило в два этапа на собственных суперкомпьютерах «Яндекса». Это самый мощный вычислительный кластер в России и Восточной Европе. Для получения общих знаний YandexGPT получила общедоступные тексты — материалы книг, сайтов, статей. Они были отобраны с помощью поисковых технологий «Яндекса».

1. Обучение учеников правилам цитирования и использования источников. Учителя должны объяснять ученикам, что использование чужих текстов и изображений без упоминания автора или источника является плагиатом и нарушает авторские права.

В нашу жизнь всё глубже входят новейшие информационные технологии. Мы чаще и чаще встречаемся в повседневности с различными электронными помощниками. На сайтах и в колл-центрах нас встречают простенькие боты. В телефонах или умных колонках можно поговорить с Siri, Алисой или Google Assistant. Самые настойчивые уже пообщались со знаменитым чат-ботом ChatGPT. Качество диалога подобных систем постоянно растёт. Встаёт вопрос: а не является ли уже одна из этих систем искусственным интеллектом (ИИ)?

ЧИТАТЬ ТАКЖЕ:  Как можно зарабатывать на нейросетях

Что же делать? Защитить детей. Но как? Страх родителя за своего ребенка понятен. Окружающий мир не очень приятен. Войны, теракты, катастрофы, озлобленные и агрессивные люди, насильники, маньяки – всё это вызывает естественное желание защитить. И самым простым решением является оградить детей от всего ужаса, создать для них идеальный розовый мир. Но, к сожалению, объективная реальность будет прорываться в этот уголок детского счастья. И никаких сил не хватит поддерживать отдельный чистый островок для детей в злобном окружении взрослого мира. Страх перерастёт в злость, злость – в агрессию. Опять захочется наказать разработчиков. А есть ли другой путь?

Эксперт в области искусственного интеллекта, CEO компании One Green Monkey Отари Меликишвили считает, что большие языковые модели «Яндекса» и Сбера сравнимы по уровню, но будущее не за общими генеративными нейросетями, которые сегодня выполняют в основном развлекательные функции и привлекают внимание к технологии, а за узкоспециализированными. «Нейросеть, натренированная в какой-то одной области, будет гораздо лучше решать свои задачи нежели общая. Общие нейросети часто галлюцинируют и дают вероятностные ответы там, где требуются точные, а вот узкоспециализированные могут стать действительно профессиональным инструментом в самых разных областях», — говорит Меликишвили.

В отличие от предыдущих языковых моделей, нейросеть YandexGPT обучили на сотнях тысяч примеров содержательных ответов, написанных людьми. Для этого была задействован краудсорсинг «Яндекса» и команда AI-тренеров. Так как YandexGPT не подключена к интернету, то, соответственно, набор актуальных сведений о мире для нее заканчивается началом 2023 года, но при этом дообучение с помощью AI-тренеров продолжается постоянно.

Да, есть. Рациональнее отказаться от полной изоляции. Конечно, придётся оградить ребёнка от самых страшных проявлений действительности (не от всего плохого, а только от части), знакомить с ужасами мира постепенно и предлагать решения, как распознавать страшное, избегать, а иногда и работать с неприятными вещами. В случае с искусственным интеллектом давайте научим наших детей тому, что это всего лишь сложный поисковый механизм. Он отвечает на вопросы, подсматривая, что пишут люди в интернете. А в Сети есть и плохие люди, которые врут, пугают нас, и даже встречаются такие, которые хотят нам навредить. Давайте научим детей, что всю информацию в интернете надо проверять, покажем, как это делать. И тогда ужасные истории «Алисы» не вызовут ни у нас, ни у наших детей ничего, кроме ироничной улыбки.

Для анализа ситуации обратимся к формальной логике. Возьмём за аксиому следующее ложное утверждение: «„Алиса“ – это интеллект, который сродни человеческому. Она обладает волей и понимает, как устроен наш мир». Получается, что «Алиса», зная, что её будут слушать дети, специально рассказала им жуткую историю, чтобы навредить. Разработчики злонамеренно научили своё творение издеваться над маленькими бедными беззащитными детьми. Что же нужно сделать с разработчиками? Очевидно, наказать, отбить у них желание вредить детям. Но напоминаю: мы исходили из ложного утверждения. Выводы не верны.

По мнению Алексея Гусакова, руководителя управления машинного интеллекта и исследований «Яндекса», сегодня невозможно добиться качественного скачка в машинном обучении только за счет увеличения размеров нейросетевой модели: «Важно качество датасета, на котором обучается модель и последующее дообучение с привлечением живых людей».

2. Проверка работ учеников на плагиат. Учителя могут использовать специальные программы или сервисы для проверки работ на наличие плагиата. Это позволит выявить случаи нарушения авторских прав и принять соответствующие меры.

Попробуем исходить из другой аксиомы: «„Алиса“ всего лишь большой цитатник интернета. Она повторяет подсмотренные в Сети тексты». Интернет же сам по себе не очень приятное место. Наряду с научными статьями, детскими передачами, в Сети существуют места, где лучше не появляться. В интернете могут нагрубить, обозвать. Сеть превратилась в свалку непроверенной, а порой даже вредной и опасной информации. И если «Алиса» всего лишь цитирует текст из интернета на наш вопрос, то можно получить не соответствующий действительности, вредный или оскорбительный ответ. И жуткий рассказ голосового помощника про Машу и Медведя является не злой волей программистов, а нормальной частью работы системы. Вывод: «Алиса» может ошибаться и давать шокирующие ответы.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь