От смеха до арестов: ИИ в мире шуток, манипуляций и неэтичного выбора
Искусственный интеллект стремительно меняет мир, но на пути к будущему он все чаще сталкивается с нашими слабостями — от неудачных шуток и создания новостных фейков до вопиющих ошибок в правосудии. Как ошибается искусственный интеллект, почему не умеет шутить и можно ли его заставить быть более этичным по отношению к человеку, обсудили преподаватели факультета компьютерных наук с гостями в рамках первого барного лектория «ИИ всемогущий: изнанка сферы», запущенного ФКН НИУ ВШЭ с московским баром «Ровесник».
Похожая ситуация произошла и в других компаниях. В Microsoft была расформирована вся команда, занимающаяся этикой ИИ, а в Meta (признана в России экстремистской организацией и запрещена) распустили команду из 20 инженеров, работавших над этими вопросами. Вместо усиления контроля за разработкой ИИ многие компании сокращают специалистов, ответственных за этическое сопровождение данных технологий.
Генеральный директор Национальной библиотеки Беларуси Вадим Гигин подчеркнул, что искусственный интеллект, как и любое новшество, несёт в себе как угрозы, так и возможности: «Нужно придавать использованию искусственного интеллекта большей осмысленности. Например, работа с массивами документов, то есть мы отрабатываем различные подходы оцифровки, создаём удобные платформы, комфортные интерфейсы, через которые можно работать в виртуальном читальном зале. Искусственный интеллект способен укрепить не только культуру чтения, но и культуру выбора книг. Наша задача как профессионалов — превратить искусственный интеллект в дорожную карту для читателей».
Генеральный директор академии NADA и совладелец digital-агентства Love.Soft.Digital Егор Ярошевич оценил воздействие искусственного интеллекта на эффективность системы образования, рассказал о необходимости интеграции новых технологий в современное обучение: «Нейросеть, искусственный интеллект здесь, они никуда не уйдут. У нас нет другого выхода, кроме как адаптироваться к ним. Нейросеть — наш помощник, которого не нужно бояться. Актуальная проблема заключается в том, что люди не до конца умеют пользоваться искусственным интеллектом, академия NADA стремится решить этот вопрос».
Руководитель направления коммуникации SberAI и заведующая кафедрой инфокоммуникационных технологий МИСиС Ксения Кузнецова поделилась историей развития искусственного интеллекта, концепцией, при которой он — высшая форма реализации творческого потенциала, а также обсудила цифровую трансформацию «То, как будут развиваться технологии, зависит от нас с вами. Предъявлять искусственному интеллекту мы не можем, все вопросы мы должны задавать себе. Очень символично, что в сердце культурной столицы у нас есть возможность говорить о современных технологиях, в том числе об их этических и юридических аспектах. Нейросеть не станет живым осознанным существом. Интеллектом, эмпатией, волей облаем только мы. Именно все то, что составляет суть нашей жизни, позволяет нам создавать произведения культуры и искусства».
Вопреки расхожему мнению, она считает, что «у искусственного интеллекта нет ни души, ни разума — это просто математический алгоритм». Однако это не значит, что такие технологии не способны наносить вред. Основная проблема в том, что искусственный интеллект отражает предвзятость тех данных, на которых обучен. Дарья Касьяненко представила несколько ярких кейсов, где использование ИИ привело к неэтичным или даже трагическим последствиям.
Дмитрий Ильвовский отмечает, что сам термин «фейковые новости» сейчас стал общепринятым, но в научном контексте его лучше разделять на misinformation (неверная или вводящая в заблуждение информация, но необязательно со злым умыслом), malinformation (информация, основанная на фактах, но вырванная из первоначального контекста с целью ввести в заблуждение) и дезинформацию, из которых последняя наиболее опасна, так как подразумевает сознательное введение в заблуждение. «Фейковые новости — это не развлечение для малообразованных людей, а достаточно серьезная проблема, работающая на многих уровнях», — подчеркивает доцент.
Ректор ГИТИСа Григорий Заславский выделил несовершенства искусственного интеллекта в создании творческих материалов и неспособность полноценной замены человеческого ресурса в культуре: «Искусственный интеллект действительно вызывает у меня живой интерес, однако театральное искусство алогично, в то время как технологии действуют в рамках алгоритма, в рамках логики».
Директор открытого национального чемпионата ArtMasters Борислав Володин отметил, что «современные технологии для многих, в том числе и гениев, стали механизмом и способом ускорения творческих задач производства. Как мне кажется, перед человечеством стоит сложная задача — выработать регулятор правильного общения с искусственным интеллектом. Сейчас ArtMasters размышляет о создании специальности „продюсер искусственного интеллекта“ или „редактор искусственного интеллекта“, поскольку всем нам нужны кадры, способные правильно сформулировать задачу, идею, смыслы и вложить их в искусственный интеллект».
На этом фоне во многих странах развивается тренд на суверенный ИИ. Этот подход, как рассказала Дарья Касьяненко, предполагает создание систем искусственного интеллекта, разработанных на основе локальных данных и этических норм конкретных стран. «ChatGPT поддерживает арабский язык, но им там не пользуются. Почему? Потому что GPT обучен на данных, которые вообще не репрезентативны для арабского мира», — пояснила спикер. По ее словам, сейчас страны стремятся разрабатывать собственные модели, «зашивая в них локальные данные и этику».
Проблема наличия дискриминации в самих данных, используемых для машинного обучения, может привести и к более неприятным последствиям, продолжила она. Так, в 2020 году полиция Детройта использовала систему распознавания лиц, обученную на предвзятых данных, что привело к серии незаконных арестов: как оказалось, система ошибочно идентифицировала преступников среди темнокожих людей, причем точность распознавания для этой группы составила всего 4%. Это вызвало широкое общественное возмущение и подорвало доверие к ИИ в правоохранительных органах.
Формат барного лектория предполагает выступление экспертов о науке и научных открытиях в формате 20-минутных стендапов. Принять участие во встрече мог любой желающий без предварительной регистрации — достаточно было прийти в нужное время. Академический руководитель образовательной программы «Инженерия данных» Дарья Касьяненко говорила об этике ИИ и компаний-разработчиков, доцент департамента анализа данных и искусственного интеллекта Дмитрий Ильвовский — об анализе манипулятивного контента с помощью ИИ и NLP, преподаватель департамента больших данных и информационного поиска Александр Баранов — о том, как машины учатся понимать и создавать юмор.