Содержание статьи
Проблемы применения искусственного интеллекта
Италия запретила доступ к ChatGPT
1. Этические вопросы искусственного интеллекта:
Одной из основных проблем ИИ является вопрос этики. Каким образом мы устанавливаем стандарты и нормы для алгоритмов, не имеющих моральных убеждений? Проблемы возникают при создании автономных систем, способных принимать решения на основе сложных алгоритмов машинного обучения. Это вызывает недоумение в сферах, где этические стандарты крайне важны, например, в медицине, правосудии и образовании.
Сегодня поступь ИИ поражает. Он уже уверенно шагает по планете, стремительно занимает все новые ниши, вытесняя человека. Причем он мастер на все руки. Диагнозы ставит, лица идентифицирует, в судах работает адвокатом, музыку и картины пишет, чемпионов в покер и го обыгрывает. Предсказывает не только погоду, но даже банкротства.
Еще одной опасностью массового внедрения искусственного интеллекта он назвал уход с рынка труда многих работников, преимущественно низкоквалифицированных, занятых рутинным трудом. Это может привести к резкому росту асоциального поведения и преступности. Есть угроза и для людей творческих профессий: в Индии ИИ разрабатывает дизайн одежды и обуви, который оказывается более привлекательным для потребителей и имеетбо́льшее количество вариантов. Есть также сайты и программы, пишущие стихи (достаточно задать две строки и первую рифму), создающие дизайн-проект интерьера. Творчество уже не всегда требует таланта человека, что таит дополнительную опасность.
Заведующая лабораторией Светлана Климова поинтересовалась у автора доклада — приглашенного исследователя Александра Хомякова, какие опасности могут сопровождать широкое применение искусственного интеллекта. По его оценке, вероятность скорого порабощения человечества машинами сильно преувеличена, при нынешнем состоянии искусственного интеллекта это невозможно. «Можно, конечно, бояться мятежа утюгов, которые восстанут и нас всех зажарят», — иронизирует он.
И еще подчеркну такой момент. Почему мы вообще заговорили про ИИ, про нейронные сети? На самом деле только сейчас там начинают разворачиваться основные события. Ведь за последние 35 лет производительность компьютеров увеличилась в 1 млрд раз. Что это означает? Если раньше задача решалась десять лет, то сейчас за 0,3 секунды.
На Западе уже возникают скандалы, связанные с подбором персонала, когда ИИ обвиняют в расистских наклонностях, поскольку в выборки попало меньше людей с африканской и азиатской внешностью. В ситуациях, когда машина, ведомая автопилотом, совершила аварию с человеческими жертвами, неожиданно выясняется, что в обучающей программе не было предусмотрено перевернутого фургона, кареты «скорой помощи» или остановившейся на обочине пожарной машины.
Даст какой-то эффект это письмо? Ранее об опасности ИИ и массовой роботизации неоднократно писали тот же Маск, Стивен Хокинг и другие знаменитости. Эхо было громким, но недолгим. Кто согласится остановить гонку? Ведь сказано же: кто будет лидером в сфере ИИ, тот будет править миром.
Старший научный сотрудник Научно-учебной лаборатории трансцендентальной философии ВШЭ Диана Гаспарян полагает, что описанные докладчиком угрозы неравнозначны. Уход от реальности представляется ей наименее опасным, поскольку человеку скучно общаться с искусственным интеллектом. Возможно, разработчики ИИ будут пытаться обмануть людей, создавая видимость субъектности виртуальных собеседников.
3. Проблемы безопасности:
Безопасность данных и систем становится все более актуальной темой с развитием ИИ. Чрезмерная зависимость от автоматизированных систем создает угрозы в виде кибератак и неправильного использования технологий. Вопросы конфиденциальности, целостности данных и защиты от хакерских атак становятся ключевыми аспектами, требующими внимательного внимания и регулирования.
4. Алгоритмическая справедливость:
Искусственный интеллект, основанный на данных, может отражать предвзятость и неравенство, присутствующие в обществе. Некорректная обработка данных и неправильное обучение алгоритмов могут привести к смещению и дискриминации. Обеспечение алгоритмической справедливости становится неотъемлемой частью разработки ИИ для предотвращения социальных неравенств.
Другой проблемой становится способность искусственного интеллекта создавать и публиковать в соцсетях тексты, которые трудно отличить от написанных человеком. Так, бот, созданный одной из версий программы GPT, выдавал себя за человека в течение нескольких недель. Иногда тексты ИИ невозможно распознать как искусственные. Получается, машина может управлять даже эмоциями своего собеседника-человека. Эти боты могут писать в вашей ленте комментарии, создавать тот или иной информационный фон и даже подталкивать своего собеседника к тем или иным действиям, способствовать формированию мнения, объясняет Александр Хомяков.
Еще одной проблемой может стать передача принятия части решений искусственному интеллекту как помощнику без адекватной оценки его возможностей. Если, например, врач полностью доверит ИИ расшифровку рентгеновских снимков, ошибочные выводы могут иметь серьезные последствия. Установка ИИ в качестве фильтра на вызовах «скорой помощи» также небезопасна. «Это может создать угрозу для жизни человека, находящегося в стрессе, речь которого недостаточно обученный искусственный интеллект может неверно интерпретировать», — рассказывает Александр Хомяков.
Обращение Илона Маска, Стива Возняка и еще более тысячи исследователей искусственного интеллекта, которые призвали немедленно приостановить обучение систем на основе ИИ, вызвало сильнейшее эхо в СМИ и соцсетях. Ситуацию подогрела мировая новость, что чат-бот Элиза спровоцировал на самоубийство эколога в Бельгии. Звучат требования, пока не поздно, остановить безответственных ученых, которые из собственного любопытства готовы поставить человечество на грань выживания.
И тем не менее Маск и его сторонники призывают на шесть месяцев приостановить разработки. Почему? Человечество сегодня не готово использовать его без вреда самому себе. Оно словно получило в руки интересную игрушку, с удовольствием с ней играет, не понимая опасности, которая ему грозит. Авторы письма особо подчеркивают, что ИИ-лаборатории увязли в гонке по созданию все более мощных цифровых умов, которые никто, даже сами разработчики, не может до конца понять, прогнозировать и надежно контролировать. Это может спровоцировать очень болезненные, а порой даже неожиданные изменения в жизни человечества, несет угрозу самому его существованию.
Сейчас в нейронных сетях начинает появляться другая модель нейронов, так называемые спайковые модели и другие. И самое важное — появилась новая, «нефоннеймановская» архитектура, которая позволяет более эффективно производить вычисления, появляется новый вид памяти. Сегодня у любого процессора 40% занимает память по площади, по энергетике. Мы ожидаем в ближайшие 10 лет мультипликативные эффекты в 100 тыс. раз, что намного расширит возможности нейронных сетей. Многое в жизни будет меняться. Перед этим взрывом важно остановиться и еще раз просмотреть законодательную базу по ИИ.
И это только начало его бурной карьеры. Энтузиасты утверждают, что совсем скоро он возьмет на себя практически все сферы жизни, к нему перейдут функции и экспертизы, и управления, и выбора оптимальных вариантов развития экономики, а в конце концов и общества.
Итальянское управление по защите персональных данных первым в мире ввело временное ограничение на использование чат-бота ChatGPT на территории страны. Регулятор обвинил разработчика в нарушении законодательства о персональных данных после произошедшей утечки. В результате массового сбоя ряд пользователей смогли увидеть сообщения людей, общавшихся с чат-ботом, а также их имена, фамилии, электронные адреса и платежную информацию платных подписчиков сервиса, включая последние четыре цифры и сроки действия кредитных карт.
Наконец, серьезную угрозу представляет возможность ухода из реальной жизни в виртуальную или дополненную. Человек может создать виртуальное окружение, населить его приятными ему искусственными людьми. «Искусственный интеллект может в вас влюбиться. Какой молодой человек откажется от такого!» — отмечает Александр Хомяков. Ведь созданный персонаж не будет «спорить, просить денег, ругать».