Содержание статьи
Боязнь искусственного интеллекта
Готовьтесь к карьерным перспективам
В России зарегистрировано порядка 600 случаев репрессивного использования системы распознавания лиц. Цифровая слежка в Китае достигает таких масштабов, что жители начинают высказываться против камер в общественных местах. К тому же, технологии распознавания лиц неточно идентифицируют женщин и не-белых людей, что может привести к дискриминации.
У публики нет достаточной информации о том, как это устроено — разработкой занимается бизнес, который никогда не раскрывает внутреннюю кухню. Так или иначе, в общих чертах понимать, как работает ИИ, важно не только для продуктивной работы, но и для того, чтобы случайно не оказаться на стороне алармизма, а если и выбрать эту сторону, то с полным пониманием дела.
Государственное регулирование должно обеспечить применение ИИ, ориентированное на благо человека, а над этичностью самого ИИ работают разработчики. Это называется AI alignment-ом, или «приведением в соответствие» человеческим ценностям и целям. Заставляя ИИ усваивать soft skills, компании надеются создать безопасную среду для человеко-машинного общения и повысить точность понимания запросов. Пример эмпатичного ответа от ChatGPT — «Мне очень жаль, что вам сейчас приходится так нелегко. Похоже, вы испытываете сильный дистресс. Важно поставить свое благополучие на первое место и позаботиться о своем самочувствии».
— Этичность разработки. Эксперты обращают внимание на то, что LLM обучаются, в том числе, на персональных данных и на данных, составляющих интеллектуальную собственность. Политика конфиденциальности Meta, Google, Microsoft и тд включает пункты о том, что данные пользователей могут собираться для обучения генеративного ИИ. Кроме того факта, что личные данные на то и личные, чтобы не делиться ими с кем попало, компании не всегда могут гарантировать их защиту от утечек — и тем более от того, что не передадут их третьим сторонам.
Никита Кочетков рассказывает: «Тревожность по поводу развития ИИ похожа на другие виды беспокойства из-за технологий. У этого есть специальные названия — технофобия и технопессимизм. Первая проявляется в страхе перед новыми технологиями. Второй феномен — это мировоззренческая позиция, для которой характерно представление о техническом прогрессе как о нарушителе гармонии природы и общества».
— Недобросовестное использование ИИ. Нейросети позволяют изготавливать качественные фейки и распространять их в разы быстрее. Создатели LLM (Large Language Models) стараются пресекать такое использование своих продуктов: OpenAI стала добавлять метаданные в генерируемые DALL-E изображения, чтобы можно было узнать о происхождении картинки, Midjourney в преддверии выборов блокирует промпты о Дональде Трампе и Джо Байдене. Тем не менее, творчество моделей text-to-image, на которых были «страдающие дети Газы», неоднократно всплывали в ходе войны Израиля против Хамас.
Как справиться с ИИ-тревожностью
В том, что касается мошенничества с помощью ИИ, то ответственность здесь явно не на технологии. Никто не запрещает мобильные телефоны, которыми злоумышленники также пользуются. Но преступники часто оказываются ранними последователями (early adopters), и быстрее начинают применять технологии в своих интересах. Большинство компаний недостаточно эффективно инвестируют в защиту данных и обучение сотрудников основам кибербезопасности. А среди населения уровень цифровой грамотности еще ниже.
По его словам, любые технологии сначала пугали население. «Люди боялись появления фотографии, кинематографа, первых автомобилей, паровозов, метрополитена, мобильных телефонов, — напоминает эксперт. — В основе этого лежат как иррациональные установки, так и объяснимые страхи: фотография крадет душу людей, «движущиеся картинки» приведут к тому, что люди перестанут читать и ходить в театр, дома над метро провалятся под землю, а мобильные телефоны будут вызывать рак мозга».
В 2023 году более 1000 представителей технологической сферы подписали письмо, в котором просили «поставить на паузу» развитие ИИ. «Мы продолжим разрабатывать такие мощные ИИ-системы, когда будем уверены, что они будут иметь благоприятные последствия и что мы сможем справиться с потенциальными рисками и проблемами», говорилось в письме.
Если вы чувствуете, что перегружены, выключите на время цифровые устройства. Исследования показывают, что сокращение времени использования гаджетов на досуге улучшает самочувствие и настроение в целом. Возможно, вы сможете применять искусственный интеллект или другие цифровые инструменты для улучшения офлайн-жизни. Например, с помощью Google Maps или «Яндекс.Карт» вы проложите новый велосипедный маршрут или попросите ChatGPT подсказать рецепт блюда, которое давно хотели попробовать. Таким образом вы сможете отдохнуть от экрана и одновременно вспомнить о преимуществах технологий, которые могут улучшить повседневность.
Тревожные расстройства часто связаны со страхом неопределенности и неизвестности. Кроме страха перед неизвестностью ИИ может нести реальные угрозы, такие как генерация правдоподобных фейков. Более того, роботы со встроенным ИИ могут вызывать негативную реакцию у людей. Это ощущение называется «эффектом зловещей долины». Оно характеризуется тем, что робот или любой другой объект, который выглядит или ведет себя, как человек, вызывает неприязнь и отвращение у наблюдателей.
— Слабое регулирование. Этот аргумент связан с ощущением опасности от непредсказуемого развития ИИ: ученые увлечены интересными задачами, и могут не думать о социально-экономических последствиях. Скандалы вокруг лидера отрасли OpenAI от ухода главного научного сотрудника до жесткой политики в отношении увольняющихся работников и миллиарды инвестиционных денег еще сильнее разгоняют ажиотаж вокруг этой сферы.
География и отраслевая специализация экономики также играют роль в скорости автоматизации труда: частичная, а тем более масштабная замена людей машинами пока не выглядит возможной в большинстве стран, даже в самых технологически развитых. Это технически затратно, а долгосрочный результат плохо прогнозируется.
Еще один тревожный тренд — милитаризация ИИ. Автономные летальные виды вооружения, как дроны, уже активно используются в военных конфликтах, в тч, в войне России и Украины. Их производство не требует больших финансовых и технических затрат, они позволяют сохранить жизни солдат. Но с другой стороны, исследователи предупреждают об опасности «роботов-убийц», ИИ-систем, которые могут выйти из-под управления, попасть в руки террористов или получить слишком много прав принимать решения, например, о запуске ядерных ракет. Правозащитники хотят ограничить использование ИИ-оснащенного оружия, чтобы не провоцировать гонку вооружений, но это маловероятно: государства скорее будут соперничать за преимущество в военном использовании ИИ.