Искусственный интеллект насколько развит

0
16

Искусственный интеллект: «наше всё» или «пойманные нейросетью»

Этические риски

«Курьер ЮНЕСКО» попытался разобраться в этой непростой теме на пересечении информатики, инженерии и философии и внести ясность в некоторые моменты. Прежде всего, спешим уверить наших читателей: на текущем этапе развития технологий даже самая продвинутая из интеллектуальных систем не способна мыслить, и мы весьма далеки от того, чтобы загрузить человека в компьютер. Роботы действуют в соответствии с алгоритмами, позволяющими ему взаимодействовать с человеком в четко установленных рамках, и не способны устанавливать полноценные социальные связи.

Так вот не является ли и ChatGPT таким пузырём? Пока неясно. Ясно одно, что огромное количество генерируемых текстов повлияет на бизнес обработки текстов: на их генерацию, анализ. Недавно Яндекс представил новую Алису, в которую встроен отечественный ChatGPT . Для чего это встраивать в поисковики? Потому что другие встраивают. На самом деле происходит то, что таким образом владельцам сайтов остаётся меньше трафика, так как всё забирают владельцы поисковиков. На этой же системе «замыкания в собственной вселенной» построен и Фейсбук (запрещённая в России соцсеть). Понятно, что в ChatGPT очень заинтересованы СМИ, в которых 95% текста производится с помощью алгоритмов и тупых роботов, пишущих ахинею.

– Первое, что приходит в голову, – это разработка различных домашних заданий, тестов, вопросов к семинарам, зачётам и экзаменам. Это и обзоры больших массивов данных и текстов с соответствующими выводами, что самому преподавателю сделать крайне сложно. Ну и, конечно, написание разного рода отчетных документов и просто документов. Говорят, что ChatGPT прекрасно сочиняет служебные записки, особенно на премирование. В качестве такого референта он будет хорош и для руководителей вузовских подразделений.

– Например, базовая подготовка по математике. Некоторое время назад нашему университету пришлось столкнуться с тем, что высокий процент студентов отчислялся из-за низкой успеваемости по предметам математического цикла. ТГУ принял этот вызов и вместе с компанией ENBISYS создал онлайн-платформу адаптивного обучения Plario, быстро и эффективно подтягивающую студента по математике до необходимого ему уровня. Этот цифровой репетитор учитывает индивидуальные особенности человека и предлагает ему персонализированный контент. Тестирование показало, что благодаря платформе Plario уже за 8 часов уровень владения студентом знаниями по математике возрастает с 22 до 87%. Несомненно, подобные платформы можно и нужно создавать и по другим дисциплинам или их разделам. И, прежде всего, это касается предметов естественно-научного цикла – физики, химии и других.

– И это правильная и очень ответственная позиция: в океане восторженных мнений и ожиданий от ChatGPT должны громко и настойчиво звучать и голоса экспертов-«скептиков», а точнее, реалистов, думающих обо всех возможных сценариях развития цифровизации образования и общества в целом. Не зря Игорь Станиславович является членом Совета при Президенте РФ по развитию гражданского общества и правам человека.

– Возможно, уже очень скоро появятся новые модели ChatGPT, которые будут помогать человеку распознавать тексты с точки зрения того, созданы они искусственным или природным интеллектом. Если говорить о сегодняшнем дне, то здесь мне хочется быть оптимистом и надеяться, что любой добросовестный и квалифицированный преподаватель при наличии доброй воли способен отличить сгенерированный искусственной нейросетью текст от оригинального текста студента, которого он учил какое-то время. Главным и самым релевантным методом идентификации авторства текста, на мой взгляд, может быть только «метод Сократа»: живой и достаточно подробный диалог со студентом, в процессе которого и выясняется, насколько тот свободно владеет материалом.

Мы стоим на пороге четвертой промышленной революции. Однако человечество ждет и культурная революция: вне всякого сомнения, ИИ изменит привычный нам образ жизни, хотя и сложно предугадать, как именно. Неудивительно, что он завораживает нас и пугает одновременно.

Итак, искусственный интеллект всё усредняет. Он берёт плоды всех этих тупых маркетологов и копирайтеров и просто гладко их воспроизводит. Поэтому общее качество будет неумолимо падать. Возможно, кто-то будет создавать ИИ, обученный на лучших образцах. У людей появится невзыскательность. Как они привыкли к фастфуду, так они привыкнут и к этому. Через пару поколений пропадут и компетенции, которые позволяют отличить низкое качество от высокого. Если ИИ всунут в образование, то учить детей опять будет ChatGPT. Но он не научит отличать аутентичные мысли от искусственных.
Игорь Ашманов: на материалах стенограммы выступления «О влиянии нейросетей на сферу IT , государство, общество и бизнес», 17.05.2023, МГИМО, Москва

История взлетов и падений

– В Сибирском (Томском) центре изучения искусственного интеллекта на базе ТГУ состоялась деловая встреча по цифровой трансформации региона с участием руководства университета, Сибирского банка ПАО Сбербанк, Томского отделения Сбербанка и Центра развития технологий AI во благо общества. Представители Сбера выразили готовность поддерживать конкретные инициативы Томского государственного университета и содействовать развитию инновационного потенциала Томской области.

Однако популярность термина «искусственный интеллект» во многом объясняется его ошибочным толкованием – в частности, когда им обозначают некую искусственную сущность, наделенную разумом, которая якобы в состоянии конкурировать с людьми. Эта мысль из области древних легенд и преданий, звучащая как миф о Големе, с недавних пор реанимируется такими нашими современниками, как британский физик Стивен Хокинг (1942-2018 гг.), американский предприниматель Илон Маск и американский инженер Рэй Курцвейл, а также сторонниками создания так называемого сильного или общего ИИ. Не будем, впрочем, говорить о данном понимании этого термина, ибо оно скорее представляет собой появившийся под влиянием научной фантастики продукт богатого воображения, а не осязаемую научную реальность, подтвержденную опытами и эмпирическими наблюдениями.

– Действительно, «цифровизация», «большие данные» и «искусственный интеллект» являются ключевыми словами нашего внутриуниверситетского дискурса уже много лет. В последний год к ним добавилось ещё и словосочетание «языковые генеративные модели». Все они звучат во время самых разных деловых встреч, мероприятий, дискуссий, обсуждений новых образовательных программ, партнерских проектов, и, конечно же, проведения соответствующих исследований и разработки инновационных продуктов. То, что сделано за эти годы, невозможно упомянуть даже мельком в рамках одного выпуска блога. Если мы обратимся к новостным страницам сайта ТГУ, то увидим, что только за один месяц у нас, в классическом (!) университете, состоялось столько всего, сколько, наверное, не всегда бывает и в специализированных вузах, ориентированных на обозначенные фронтирные направления.

Несмотря на это, применение ИИ в некоторых областях вызывает неоднозначную реакцию. Это относится, в частности, к сбору персональных данных, который ставит под угрозу неприкосновенность частной жизни, к алгоритмам распознавания лиц, предназначенным для выявления агрессивного поведения или отражающим в себе расовые предрассудки, к беспилотным летательным аппаратам военного назначения, автономным боевым системам и многому другому. Использование ИИ создает целый ряд этических проблем, масштабы которых, вероятнее всего, со временем только вырастут.

Но даже если представить, что у нас абсолютно все преподаватели добросовестны, квалифицированы, волеориентированы и настроены на диалог с обучающимися, то всё равно остаётся вопрос: сколько им понадобится времени для того, чтобы применить этот метод к каждому студенту? И сколько должны длиться теперь защиты, чтобы члены государственной экзаменационной комиссии смогли соответствующим образом оценить все представленные на их суд работы? Вопросы остаются открытыми. Я уже не говорю о том, что некоторые очень уважаемые эксперты, например Игорь Станиславович Ашманов, более 30 лет работающий в сфере создания технологий искусственного интеллекта, не такие оптимисты, как я, и вообще считают, что на сегодняшний день не существует по-настоящему надёжных способов идентификации текстов с точки зрения написания их человеком или чатом GPT.

ЧИТАТЬ ТАКЖЕ:  Для чего ты хочешь использовать искусственный интеллект

Что касается общества, то в нём будет фальсифицировано всё, поскольку люди, в целом, не очень способны отличить текст, созданный генератором, от текста, созданного человеком. Люди уже начали фальсифицировать дипломы, научные статьи, диссертации. В Китае количество статей по искусственному интеллекту огромно: они хотят быть лидерами в этой сфере. И говорят, что уже в 2022г примерно 30% статей об ИИ там было написано самим ИИ. Это выяснилось, когда стали на практике проверять те результаты, о которых говорилось в статьях. Будут фальсифицировать и историю. Ко мне году в 2005 приходил человек с просьбой сделать поисковик для создания реестра верифицированных оригиналов. Уже в то время в интернете началась фальсификация текстов источников. Например, трудов Ленина, различных писателей. И эти фальсификации обычным обывателям невозможно увидеть. Происходит подмена смыслов. Предполагалось, что первоисточники будут сканироваться, верифицироваться, особым образом заверяться. И только с этого скана будут делаться цифровые «оригиналы» текстов. Денег на разработку такой системы этому человеку так и не выдали. Сейчас же ChatGPT сделает фальсификацию текстов всеобъемлющим процессом. Как реагировать на это ректоратам, ученым советам, законодательным органам? Проблема ещё и в том, что люди с удовольствием становятся рабами новых технологий, с удовольствием отдают им всю ответственность. Но в результате становятся не только рабами, но и жертвами.

Применение

– Состоялось выступление ректора ТГУ Э.В. Галажинского на форуме инновационных финансовых технологий FINOPOLIS 2023 в Москве. На пленарной дискуссии «Образование. Новые компетенции. Что делать?» он рассказал о реализации в ТГУ пилотного проекта по совершенствованию системы высшего образования в России и высказался о том, как сократить дистанцию между образованием и работодателями из финансовой и других высокотехнологичных отраслей. Участникам форума стали крупнейшие финансовые компании и лидеры IT-рынка, темы дискуссий касались тенденций и возможностей применения современных цифровых технологий в финансовом секторе. Участники обсудили, как государство и частное партнерство могут помочь образованию, какие новые компетенции могут получить выпускники вузов, как образованию поможет искусственный интеллект и как будет происходить сближение вузов и работодателей.

Для Джона Мак-Карти и Марвина Мински, как и для прочих организаторов летнего семинара в Дартмут-колледже, ИИ изначально представлял собой область науки, занимающейся компьютерным моделированием различных способностей интеллекта, идет ли речь об интеллекте человеческом, животном, растительном, социальном или филогенетическом. В основе этой научной дисциплины лежит предположение о том, что все когнитивные функции, как то обучение, мышление, расчет, восприятие, память, даже научное открытие или художественное творчество, могут быть описаны с точностью, дающей возможность запрограммировать компьютер на их воспроизведение. На протяжении более чем шестидесяти лет существования ИИ не появилось ничего, что позволило бы неоспоримо доказать либо опровергнуть гипотезу, которая продолжает оставаться открытой и побуждает ученых к новым изобретениям.

– ТГУ, Академия InfoWatch и компания «Крибрум» в лице их первых руководителей Натальи Касперской и Игоря Ашманова подписали соглашение о партнерстве на основе интеграции образовательного, научно-исследовательского и инновационного технологического потенциала, предполагающее: запуск совместных образовательных программ, в том числе и магистерских, по кибербезопасности, цифровой гигиене и прикладному анализу данных; мониторинг социального развития Томского региона и выявление деструктивного поведения среди молодёжи; популяризацию суверенных технологий в области искусственного интеллекта; а также открытие филиала InfoWatch и «Крибрум» в Томске, в котором будут работать выпускники Большого университета. Обсуждалось создание совместного НОЦ, который, с одной стороны, на базе технологий «Крибрума» будет усиливать исследовательские компетенции в сфере работы с большими данными; с другой, разрабатывать образовательные программы, контент и микроконтент к ним и совместно их продвигать. Возможна и организация совместной магистратуры в Индонезии.

В последние годы в области искусственного интеллекта (ИИ) был совершен колоссальный прорыв. Новые изобретения позволяют воплотить в жизнь то, что еще совсем недавно казалось фантастикой. Современные компьютеры и роботы способны самообучаться, совершенствовать свою работу и даже принимать решения. И хотя сегодня действиями машины руководят написанные человеком алгоритмы, а не собственное сознание, смотреть на будущее без тревоги невозможно, а в голове рождается множество вопросов. Может ли компьютер мыслить? На что способен ИИ на данном этапе развития? Насколько велика степень автономии интеллектуальных систем? Останется ли окончательное решение за человеком?

Нам нужно другое: формировать у студентов критическое мышление. И, как ни парадоксально, помочь в этом может всё тот же искусственный интеллект и ChatGPT. Чтобы получить необходимый ответ, нужно уметь правильно задать вопрос. Поэтому ещё древние философы считали, что искусство вопроса гораздо сложнее искусства ответа. ChatGPT может стать своеобразным тренажером в умении вопрошать. Кроме того, любой сгенерированный текст требует проверки со стороны человека на предмет достоверности приведённых в нём фактов. Известно, что современные генераторы текста довольно часто предлагают правдоподобные, но не реальные кейсы. То есть они могут не только компилировать, но и фальсифицировать, создавать разного рода фейки. И это ещё одна важная причина обязательного критического осмысления того, что произведено искусственным интеллектом. Задача преподавателя – объяснить студентам, что одна и та же технология может и помогать, и вредить. Человек сам принимает решение: формировать ли у себя новые компетенции и способности с помощью ChatGPT как спарринг партнёра или идти по лёгкому пути, пользуясь готовыми сгенерированными текстами и никак при этом не развиваясь.

– Возможно. Но такие трезвые и резкие оценки ситуации с ChatGPT со стороны отечественных экспертных сообществ – IT и научно-образовательного – помогают держать её в зоне постоянного общественного внимания как чрезвычайно проблемную и непредсказуемую. Если пустить всё на самотёк, то безудержная коммерциализация технологии ChatGPT очень быстро победит все остальные тенденции, связанные с его возможностями для реального развития человека, и даже сам здравый смысл. Мы видим, какие коллизии сегодня происходят в компании OpenAI, первой разработавшей ChatGPT. Интересы людей, стремящихся максимально и быстро нажиться на ChatGPT, столкнулись с интересами тех, кто призывает сначала более подробно изучить возможные сценарии широкого проникновения этой технологии во все сферы общества, а потом уже нажимать кнопку «старт». И пока что первые побеждают! Так мы можем и не заметить, как наши судьбы будет полностью решать искусственный интеллект, представая перед нами в образе цифрового «судьи», «врача», какого-либо «эксперта». Уже во многом произошло обезличивание, деперсонализация таких сфер, как государственные, банковские и торговые услуги, услуги ЖКХ и так далее. Здесь мы говорим по телефону и переписываемся не с людьми, а ботами. И задача этих ботов, как считает Игорь Ашманов, вовсе не помогать нам, клиентам, а снижать нагрузку на справочные службы соответствующих организаций. И надо сказать, что эти технологии постоянно совершенствуются. Всё сложнее распознавать в них не-людей, настолько гладкой и даже эмоционально насыщенной становится их искусственная речь. Да и сами их советы и рекомендации выглядят всё более логичными и содержательными.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь