Содержание статьи
Проблемы применения искусственного интеллекта
— Оснований бояться искусственного интеллекта не больше, чем, скажем, автомобиля или компьютера. Да, машина несет потенциальную опасность, если не соблюдать правила дорожного движения, а компьютерный вирус может стереть важную информацию, если не поддерживать цифровую гигиену. Но и то и другое, как ИИ, всего лишь инструмент, результат применения которого целиком и полностью зависит от использующего его человека. Разумеется, общество неизбежно изменится, приспособится к новой технологии, как это произошло при распространении электричества, мобильных телефонов и других новинок. Но бояться ИИ не стоит: тысячелетиями человечество училось, изобретало и внедряло новые технологии себе на пользу. Несомненно, справится и на этот раз.
К примеру, пока никто не оспаривает, что Рюрик и Олег в 862 году пришли в Старую Ладогу и оттуда пошла династия Рюриковичей, но искусственный интеллект уже спорит, кто на самом деле был Рюрик. Все зависит от того, какими сведениями из интернета он оперирует. Поэтому очень важно, чтобы контент в интернете содержал верные сведения, чтобы там не было фальсификаций. И это уже зависит от нас.
— Искусственный интеллект — это будущее. И страх перед ним сродни страху извозчиков перед открытием метрополитена: то есть бесполезен, бесперспективен, ни на что не повлияет. Но ведь можно попробовать стать машинистом? Так надо относиться и к современным развитым математическим моделям и набирающим мощь нейросетям. Их грамотное применение в логистике позволяет качественно балансировать предложение на фоне более достоверных прогнозов спроса, оптимизировать маршруты доставки, предиктивным образом информировать бизнес о возможных сложностях. Мы уже давно уверенно применяем в своей работе все самые актуальные IT-решения, и модели искусственного интеллекта занимают в этом портфеле достойное место.
5. Недостаток прозрачности:
Многие алгоритмы машинного обучения являются «черными ящиками», и их решения могут быть трудно понять для обычных пользователей. Это создает проблемы в области ответственности и объяснимости. Недостаток прозрачности может усложнить принятие обоснованных решений и повысить уровень недоверия к системам ИИ.
3. Проблемы безопасности:
Безопасность данных и систем становится все более актуальной темой с развитием ИИ. Чрезмерная зависимость от автоматизированных систем создает угрозы в виде кибератак и неправильного использования технологий. Вопросы конфиденциальности, целостности данных и защиты от хакерских атак становятся ключевыми аспектами, требующими внимательного внимания и регулирования.
Мы достаточно давно занимаемся внедрением технологий ИИ на производстве, например, используем машинное обучение для управления горной техникой. На одном из активов оснастили ее датчиками, построили и запустили сеть беспроводной связи, написали собственные программные продукты. ИИ теперь принимает решение, где лучше проводить работы в карьере.
— Как и любой технологический прорыв, искусственный интеллект имеет две стороны медали. То же самое было когда-то с атомной энергетикой. На сегодняшний день искусственный интеллект во многом развивается стремительно, бесконтрольно и хаотично. И именно в этом кроется его опасность для человека. Прежде всего при использовании ИИ возникает этический вопрос ответственности, достоверности и конфиденциальности данных. Считаю, что необходимо уже сейчас выработать общемировые правила и законы, связанные с применением технологий и создании новых разработок. Пандемия ковида четко показала разобщенность стран, когда вместо того, чтобы объединиться, каждый был сам за себя. То же самое происходит сейчас и в сфере искусственного интеллекта. Мой прогноз весьма пессимистичен: в ближайшее время, к сожалению, правила игры не будут установлены, хотя они нужны. Без них развивающийся ИИ сможет нанести урон не конкретной стране, а всему человечеству.
— Люди боятся нового. Люди боятся того, чего не понимают. Люди переживают, что трансформация отнимет их работу. ИИ все еще далек, от того, что рисуют нам фантастические фильмы с роботами. Возможности ИИ — строить предсказания, кластеризовать информацию, делать компоновку материалов на основе уже известных данных. И «выдумывать» факты так, чтобы они звучали красиво и правильно. Понимая, как именно работает ИИ, понимая, что он может, его надо рассматривать в первую очередь как новый инструмент. Как способ поднять свою личную эффективность. Я — программист. И в нашей среде тоже многие боятся, что их заменит ИИ. Но для меня ChatGPT и другие нейросети — инструменты. Как автокорректор. Как система автодополнения кода. Они позволяют мне писать более сложные вещи быстрее. Меньше ошибаться. В других сферах ИИ тоже будет выступать как более продвинутый инструмент.
Стоит вспомнить работу Джейсона Аллена Theatre D’opera Spatial, сгенерированную с помощью Midjourney. Созданная ИИ, она тем не менее потребовала от художника нескольких недель работы с запросами, обработкой изображений и нанесением. Поэтому я бы сравнил появление ИИ сегодня с началом эры телевидения, которому предрекали роль убийцы радио. И то, и другое по-прежнему живы и популярны и даже вместе пережили появление интернета.
4. Алгоритмическая справедливость:
Искусственный интеллект, основанный на данных, может отражать предвзятость и неравенство, присутствующие в обществе. Некорректная обработка данных и неправильное обучение алгоритмов могут привести к смещению и дискриминации. Обеспечение алгоритмической справедливости становится неотъемлемой частью разработки ИИ для предотвращения социальных неравенств.
— Не ожидаю, что в нашей отрасли технологические новации и искусственный интеллект вытеснят людей. Скорее они будут служить им подспорьем. Условия добычи драгоценных металлов и сырья в целом постепенно усложняются: простые месторождения уже отработаны, недропользователи переходят ко все более сложным и технически нестандартным. Поэтому и ИИ, и информатизация, и компьютерные программы помогают здесь человеку.
— Технологии, в основе которых лежит ИИ,— это широкий перечень инструментов, за которыми следит HR-сообщество. Так, ИИ позволяет сделать рабочую среду более инклюзивной (технологии распознавания голоса и перевода в текст помогают создать более комфортные условия для слабослышащих и слабовидящих людей) или создать предиктивную модель аналитики текучести персонала. Вместе с тем важно помнить об аккуратности и этике, так как ИИ может быть подвержен предубеждениям. Можно вспомнить несколько случаев, когда разные компании использовали устаревшие данные, что приводило к некорректным результатам. Например, в таких ситуациях ИИ мог рекомендовать принимать на работу только мужчин среднего возраста, дискриминируя таким образом другие категории соискателей. Поэтому в любой работе важен контроль со стороны человека, особенно в такой чувствительной сфере, как работа с людьми.
Становление нового технологического уклада возможно только на основе применения ИИ. Хотим мы или не хотим, обязательно найдутся люди и страны, которые будут внедрять ИИ для повышения эффективности своей деятельности и для достижения технического и экономического лидерства.
— Мы, наоборот, достаточно позитивно относимся к развитию искусственного интеллекта. Это хороший инструмент для улучшения и ускорения работы. При этом мы все больше ощущаем со стороны наших клиентов ценность живого общения с менеджерами. Как бы много ни говорили о том, что ИИ может заменить работников, мы надеемся, что данный инструмент станет не угрозой, а помощником для развития разных направлений работы нашей компании.
— В градации искусственных интеллектов есть теория сильного искусственного интеллекта. По ней предполагается, что ИИ не просто может решать любые задачи, которые перед ним ставятся, и самостоятельно выбирать, как именно обучиться для решения новых. Он приобретает собственную личность и мышление, способность к рефлексии. Так вот, до этого уровня нам еще далеко. Сейчас у нас есть множество алгоритмов, часть из которых основана на нейросетях, помогающих нам в выполнении рутинной работы, вроде генерации картинок в одной тематике. Мы на этапе создания второго пилота, помощника или ассистента, чтобы потом выбрать что-то стоящее и развить. Поэтому, чтобы начать бояться искусственного интеллекта, надо решить ряд задач: научить быть этим самым сильным искусственным интеллектом; придумать, как решить задачу его внутренней мотивации; выдать ему доступ к значимым для нас системам или научить обходить защиты. Это все достаточно сложно, потому что каждая из этих задач не решена даже в виде набросков или оптимизации уже имеющихся подходов. Поэтому на текущий момент нет поводов бояться искусственного интеллекта. А для тех, кто сомневается, вопрос: если ИИ станет таким умным, почему ему вообще будет дело до людей? Этот альтернативный путь очень интересно описал Станислав Лем в своем романе «Голем 14».
Вспомним, к примеру, как промышленная революция XIX века принесла мириады выгод как отдельным людям, так и обществу в целом. Ей может быть приписано очень существенное и широкое улучшение уровня жизни, индивидуального и коллективного благосостояния, однако она же вызвала непреднамеренные неблагоприятные последствия. И эти самые последствия (болезни, загрязнение атмосферы, глобальное потепление), вызванные технологиями, спровоцировавшими первоначальную промышленную революцию, стали очевидны лишь столетие спустя, когда было уже слишком поздно эффективно бороться с ними и обращать их вспять. Современные общества могут и теперь столкнуться с подобной дилеммой, поскольку трудности в выявлении и прогнозировании более крупных неблагоприятных социальных последствий технологических инноваций возникают не только из-за сложностей в прогнозировании их вероятного использования и применения, но и из-за трудностей в предвидении их совокупного, кумулятивного воздействия во времени и пространстве.