Содержание статьи
Развитие искусственного интеллекта: ограничения и вызовы для технологии
Замедление ИИ
Например, чтобы научить систему распознавать изображения, специалисты используют большой массив изображений — датасет, с описанием, или разметкой, представленных на них объектов: человек, кошка, автомобиль и так далее. После загрузки массива картинок, по мере анализа полученной информации, программа учится самостоятельно идентифицировать объекты. Связь между нейронами, которые привели к правильному ответу, усиливается, а к неправильному — ослабляется. После многократных итераций сеть создаёт правильные нейронные соединения — в этот момент можно сказать, что система научилась верно решать задачу.
В мае 2023 года более 100 экспертов, в том числе глава OpenAI Сэм Альтман, подписали заявление об опасностях искусственного интеллекта. Оно состояло из одного предложения: «Уменьшение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Искусственный интеллект уже решает множество задач, на выполнение которых у людей ушли бы тысячи часов: обыгрывает шахматных гроссмейстеров, выявляет переломы на рентгеновских снимках, выбирает самый быстрый маршрут для грузовика доставки, проводит тестирование компьютерных программ с экрана. При этом у ИИ из-за отсутствия какой-либо субъектности нет понимания того, как он выполняет эти задачи.
При этом наблюдаются риски, из-за которых может возникнуть необходимость сдерживания развития технологии. ИИ может вытеснить 300 млн работников по всему миру. От 75 млн до 375 млн человек придется сменить профессию уже к 2030 году. В ноябре 2023 года 28 государств подписали Декларацию Блетчли — первое международное соглашение, направленное на устранение угроз, исходящих от ИИ.
Такое беспокойство не беспочвенно: ИИ обладает колоссальным деструктивным потенциалом. Системы уже сейчас проявляют признаки предвзятости и дискриминации. Например, проект компании Amazon, где ИИ оценивал потенциальных сотрудников, отдавал предпочтение мужчинам. В будущем системы ИИ могут стать объектами кибератак или средством ведения гибридных войн. Игнорировать такие риски нельзя. Поэтому развитие ИИ невозможно без четкой этической и правовой базы. Нужны международные стандарты, строгий аудит систем и алгоритмов. Создание сверхразумного ИИ должно идти с величайшей осторожностью под присмотром ученых и регуляторов, констатирует Романов.
О необходимости формирования глобального консенсуса в отношении ИИ на форуме в Давосе в январе 2024 года высказался Сатья Наделла, генеральный директор Microsoft. Наделла считает, что необходимо сформировать стандарты, гарантии, а также некоторые меры защиты. По его словам, правила должны быть международными, так как проблемы, связанные с ИИ, носят глобальный характер.
Анализ больших данных (от англ. Data Mining) позволяет находить полезные и доступные решения в различных сферах человеческой деятельности. Мобильные устройства, облачные вычисления и интернет вещей расширяют экосистему больших данных, давая новые возможности для извлечения полезных знаний, выявления тенденций и настройки алгоритмов.
Один из ярких примеров этого способа — AutoML, проект компании Google, который использует автоматическое машинное обучение своих нейросетей. В процессе обучения ИНС сама подбирает алгоритмы, наиболее подходящие для выполнения той или иной задачи. Одновременно с этим алгоритмы-подборщики проходят обучение с людьми. Благодаря тому, что машина в единицу времени способна обработать огромные массивы информации и проанализировать миллионы различных вариантов написания кода, процесс обучения и развития ИИ идёт гораздо быстрее, чем если бы это делала группа программистов.
Нехватка компьютерных чипов и электроэнергии
ИИ с возможностями мощнее мозга Ньютона или Эйнштейна должен начать совершать научные открытия. Если же этого не удастся сделать, он остановится в развитии на уровне хорошего «помощника по хозяйству», который будет поднимать производительность креативного класса и улучшать таргетированные предложения для пользователей, подводит итог Ольга Пескова.
В России пока нет единого закона по регулированию ИИ. Иван Бегтин из АНО «Инфокультура» в комментарии «РБК Трендам» заявлял: «Европейский союз, США и развитые страны — члены G7 и ОЭСР — сильнее всего продвинулись в деле регулирования ИИ. Регулирование несколько различается, но во всех случаях в его основе лежит безопасность использования — в значении safety, а не security. В России регулирование не только недостаточно, но и в целом далеко от ожиданий граждан, обеспокоенных применением ИИ в первую очередь крупными корпорациями».
Тем не менее прежние технологические революции доказывают, что рынок труда просто трансформируется, а количество рабочих мест не меняется. С автоматизацией экономика становится более эффективной: люди будут получать большее количество благ, прикладывая меньше усилий. Поэтому нужно не бояться новых технологий и адаптироваться к изменениям. Этот вывод подтверждают аналитики Bloomberg: по их прогнозам, мировой ВВП вырастет к 2030 году на $15,7 трлн благодаря ИИ. Основатель Microsoft Билл Гейтс отмечал, что развитие ИИ может привести к тому, что люди будут работать всего три дня в неделю.
Технически современная наука может создать модель ИНС, которая по количеству нейронов будет сравнима с нейронной сетью кошки. Но мозг — это не просто массив отдельных нейронов, имеющих связь друг с другом. Это сложная динамическая система — её рабочие процессы до сих пор изучены далеко не полностью. Это же можно сказать и про сознание, многие принципы которого до сих пор неизвестны. Так что даже сознание кошки — цель для современного ИИ пока недостижимая. И выступает он сегодня только в качестве помощника, которые берёт на себя множество рутинных задач, требующих обработки больших массивов данных.
Этот пример — сильно упрощённая модель как искусственной нейронной сети, так и биологической нейросети человека или животного. Архитектуры и топологии современных глубинных ИНС гораздо сложнее и масштабнее. Они имеют множественные слои ассоциативных элементов, способных структурировать и ранжировать информацию. Эти сети создают многоуровневые композиции из примитивных данных, которые позволяют моделировать сложные, нелинейные отношения.
Еще один фактор — конкурентное давление и ограниченная подотчетность. По причине экономии и конкурентной борьбы компании развертывают системы ИИ без достаточной проверки на безопасность. Например, в феврале 2023 года компания Microsoft поспешила с выпуском чат-бота Bing. В результате он стал угрожать пользователям и оскорблять их.
Можно с уверенностью сказать, что сегодня ИИ — это всего лишь множество интеллектуальных систем и их комбинаций, способных решать конкретные задачи: рисовать, водить автомобиль, проводить тестирование компьютерной программы или даже писать довольно крупные фрагменты кода. Однако о появлении общего искусственного интеллекта, обладающего разумом и самосознанием, пока говорить рано. Поэтому в противовес термину «общий ИИ» используется «слабый ИИ», чтобы обозначить технологию, которая пусть и может справляться с отдельными задачами лучше человека, но не обладает сознанием и не способна сравниться с интеллектом человека на широком спектре задач.
Развитие ИИ — технологический и социальный тренд, который вписывается в череду индустриальных инноваций прошлого, таких как развитие железнодорожного транспорта или электрификация, констатирует Давыдов. Особенность нынешней ситуации заключается в том, что прежние технологии были направлены на улучшение и ускорение физического труда. ИИ впервые в истории позволяет оптимизировать интеллектуальный труд. Поэтому наибольшие изменения в результате внедрения ИИ произойдут в информационно емких индустриях.