Содержание статьи
Скандальная технология: что не так с нейросетями
Создатели одного из видов ИИ — нейронных сетей — гордятся тем, что им удалось смоделировать структуру человеческого мозга и разработать технологию, способную не только обрабатывать сложные наборы данных, но и обучаться на них. Нейросети уже используются для распознавания речи и образов, обработки естественного языка, прогнозирования.
Сегодня мир перешагнул порог еще одного удивительного открытия — появился искусственный интеллект (ИИ), способный решать задачи, еще недавно доступные только человеку. С ним связывают надежды на лучшее будущее — ему можно поручить рутинные операции, освободив время для более творческих задач. Искусственный интеллект может работать не покладая рук — он не болеет, не устает, не подвержен выгоранию, не совершает ошибок.
Поведение нейросетей полностью зависит от того, какие алгоритмы в них закладываются и какие данные используются в процессе ее обучения. Но что будет, если алгоритмы или данные окажутся низкокачественными? Не окажется ли небольшая ошибка ИИ губительной для человека?
Эксперты уверены: нейросети — это лишь инструмент. И как любой инструмент, их можно использовать как во благо, так и во вред. По мнению главы Сбербанка Германа Грефа, технологии искусственного интеллекта дают возможность добиться прорыва, в первую очередь, в сферах здравоохранения и образования, создать принципиально новую систему управления. Сегодня никто не может точно сказать, к чему приведет развитие технологий искусственного интеллекта. Однако число угроз, исходящих от злоумышленников, в том числе и угроз с использованием дипфейков, растет. И люди должны учиться противостоять им.
В 2022 г. создатели YouTube-канала Dan O’Down Media провели испытания автопилота автомобиля Tesla. Днем при хорошей погоде искусственный интеллект не смог распознать неожиданно появившийся на дороге детский манекен и сбил его на скорости 40 км/ч. Еще пример: в 2023 г. робот-манипулятор, который грузил коробки на складе в Южной Корее, перепутал находящегося рядом человека с коробкой и прижал его к конвейеру, раздавив лицо и грудь.
Популярные платформы YouTube и TikTok полны созданных с помощью ИИ рекламных роликов с участием знаменитостей. Например, в конце 2023 г. в социальных сетях появился видеоролик, где президент Казахстана Касым-Жомарт Токаев призывает инвестировать в новую платформу Илона Маска и заработать до $5 тыс. Ролик был сгенерирован нейросетью. Сколько людей удалось обмануть мошенникам, неизвестно.
Технологию дипфейков быстро взяли на вооружение мошенники. В 2019 г. директору британской энергетической компании по телефону позвонил руководитель головного офиса и попросил срочно перевести венгерскому поставщику $243 тыс. Искусственный интеллект так хорошо сымитировал голос начальника, что у жертвы не возникло ни малейших сомнений. Директор выполнил поручение. Обман вскрылся лишь когда мошенники позвонили с аналогичной просьбой во второй раз. Название пострадавшей компании не раскрывается.
В мае 2023 г. в социальных сетях появилась фотография, как было сказано, последствий атаки на Пентагон. Ее публикация вызвала панику на финансовых рынках — в какой-то момент биржевой индекс Dow Jones Industrial Average упал примерно на 80 пунктов, а S&P 500 вырос с 0,02% до 0,15%.
По мнению Носова, ограничение развития технологий — не лучший путь, потому что это может замедлить прогресс. Такие ограничения также могут быть неэффективными из-за глобализации технологического развития: если одна страна или организация наложит ограничения, другие могут этого не сделать, что приведет к перекосам в технологическом лидерстве. Более целесообразным может быть регулирование использования технологии, чтобы обеспечить ее безопасность и этичность, не ограничивая новые возможности.
Одна из серьезнейших проблем — обнаружение в нейросетях дискриминационного поведения. Один из первых крупных скандалов разразился в 2015 г., когда в Google Photo появился сервис на базе ИИ, автоматически помечающий загруженные фотографии. Как выяснилось, нейросеть идентифицировала чернокожих людей на снимках как гориллу. Аналогичная проблема была у Flickr — там изображения чернокожих людей отмечались тегами «обезьяна» и «животное».
Совершая научное открытие или создавая новую технологию, ученые не всегда думают или стараются не думать о том, к каким последствиям это может привести — интерес исследователя берет верх. Самый известный пример — высвобождение энергии атома и катастрофа в японских городах Хиросима и Нагасаки.
В апреле 2023 г. немецкий журнал Die Aktuelle выпустил интервью автогонщика Михаэля Шумахера. Он не появлялся в публичном поле с 2013 г. после несчастного случая в Альпах. Семья Шумахера тщательно скрывала информацию о его здоровье. Как выяснилось, ответы автогонщика в интервью были сгенерированы искусственным интеллектом. Публикация вызвала волну возмущения, Die Aktuelle уволил редактора, а семья знаменитости заявила, что обратится в суд.