Содержание статьи
Ну, тупой – этот ваш искусственный интеллект
Не секрет, что в Дзене искусственный интеллект рубит авторов направо и налево, только щепки летят. У меня были приостановлены показы на канале «Природа Карелии», потом возобновлены. С одной стороны вроде бы все верно — допустил ошибку, отвечай в соответствие с правилами Дзена, но…
В этом году демонстрировать наступление КИИ стало проще: многие мои знакомые столкнулись с ботом «Сбербанка». Людей шокирует, что бот даёт им абсолютно бессмысленные ответы, но при этом не хочет переключать на оператора-человека. «Ну, разве это проблема, – говорю я друзьям. – Вон, бот Тинькоффа вообще предлагал людям пальцы отрезать. ».
Проверить статью на соответствие правилам Дзена еще на стадии редактирования нельзя, нет там такой функции, чтобы нажал кнопочку и тебе красным подчеркнуло, что не соответствует требованиям платформы. Речь идет не только об уникальности, а о целом ряде правил, изложенных на платформе довольно расплывчато, но за нарушение которых, незамедлительно, следует строгое наказание.
После запуска канала все приходится начинать фактически сначала, так как канал отброшен на нулевой уровень. Не слишком ли строгое наказание за техническую ошибку? Мягче надо с людьми, все-таки это живые люди, а не роботы. Люди иногда могут просто ошибаться. Дзен совершенно не учитывает, что канал успешно работал несколько месяцев — за одну ошибку наказывает точно так же, как за систематические и злостные нарушения.
Пару лет назад мне предложили прочитать лекцию о машинном обучении, и я назвал её «Конец искусственного интеллекта». Организаторы удивились: как же так, ведь все вокруг только и говорят об огромных перспективах ИИ. Увы, отвечал я, перспективы почти закончились, теперь нам предстоит совсем другая эпоха – эпоха КИИ (Косяков Искусственного Интеллекта).
И это, кстати, ещё небольшая ошибка – скорее всего, «испытания» в Домодедове были «лабораторные». А вот на практике, например в Лондоне, полицейская система распознавания лиц ошибается то ли в 81% случаев, то ли даже в 98%. Высокие проценты ложных срабатываний в «боевых» условиях – одна из главных причин, почему пафосные новости о внедрении систем распознавания лиц через какое-то время сменяются новостями о том, как их отменяют или запрещают (как произошло во многих американских городах в последние два года).
Искусственный интеллект, управляющий интернет платформой – это еще цветочки, ягодки будут впереди. Мы вступаем в эпоху управленческого пофигизма, когда люди все больше будут доверять управление различными сторонами нашей жизни роботам. Этот процесс не остановить, но при этом нужно помнить два очень важных закона роботехники:
Большой минус Дзена – никто не сообщает о том, что по отношению к каналу применяются какие-то репрессивные меры. Автор об этом узнает совершенно случайно, если заметит, что прекратились показы в ленте. На вопрос «в чем дело?» — менеджеры Дзена не могут четко ответить, за какую статью последовало наказание. Приходится на всякий случай удалять несколько последних.
Но, как известно, количество не всегда переходит в качество. Бот Тинькоффа, предлагавший «отрезать пальцы», обучался на открытых данных из Интернета. Однако Интернет стремительно замусоривается. Да, можно нанять целую армию специальных людей, которые будут постоянно обучать систему, как это делают разработчики говорящих ассистентов Amazon, Apple и Microsoft. Но тогда вдруг оказывается, что ваш ИИ-ассистент не автономен, что он отправляет записи ваших разговоров кому-то на прослушку. В ответ ужесточаются законы о персональных данных – и вот уже перекрыли боту кислород.
Перегретые ожидания в этой сфере порождены голливудскими фантастами и пафосной рекламой IT-корпораций, которая построена на той же фантастике, но при этом скрывает от публики целый спектр реальных проблем машинного обучения. Вот первая из них: никаких особых прорывов в области алгоритмов ИИ в этом веке не произошло, практически все используемые алгоритмы – из 80-х годов прошлого века. А нынешний бум вокруг машинного обучения связан с тем, что появление Интернета дало возможность получать и обрабатывать огромные массивы данных.
Идём дальше. Выход ИИ из чистых лабораторий в реальный мир увеличивает число ошибок в разы. А сколько раз ему вообще можно ошибаться? Пресс-служба аэропорта Домодедово однажды сообщила о своей системе распознавания лиц: «точность идентификации по результатам испытания составила более 90%». В переводе на русский язык это 91%. Это значит, что примерно каждый десятый будет опознан неверно: мирного гражданина могут принять за преступника. Годовой пассажиропоток в Домодедово – более 20 миллионов человек. Из них два миллиона надо задержать, да?
Опубликовал статью на Дзене, потом несколько раз вносил правки. Тупой искусственный интеллект, управляющий платформой, посчитал каждое мое исправление за отдельную статью, и потребовал подтвердить, что я не робот, так как я, по его мнению, проявляю нечеловеческую работоспособность, и публикую более пяти статей в день. Вроде бы мелочь, но говорящая очень о многом.