Содержание статьи
Искусственный интеллект: преимущества в современном мире
Процессоры для искусственного интеллекта
Чат-боты могут быть текстовыми и голосовыми, на стандартные вопросы они отвечают по сценарию, составленному заранее с учетом опыта, накопленного живыми операторами. Они могут применяться для решения задач отдела кадров или службы технической поддержки, помогать адаптации сотрудников на новом месте и т. д. Но в наибольшей мере эти ИИ-решения изменили процесс обслуживания клиентов. Если раньше пользователю обычно приходилось изучать интерфейс взаимодействия с системой, то теперь чат-бот «изучает» пользователя, «угадывая» его намерения и подсказывая дальнейшие действия.
Среди задач, которые позволяет решать машинное обучение, — персонализация обслуживания клиентов, динамическое ценообразование, диагностика заболеваний, противодействие «отмыванию» денег и многое другое. Принцип действия средств машинного обучения — обнаружение закономерностей, присутствующих в данных, с применением математических моделей. Машинное обучение используется все шире, чему способствуют стремительные темпы роста данных в организациях и активное развитие вычислительных инфраструктур.
Последнее исследование Gartner о развитии искусственного интеллекта свидетельствует о большом разнообразии применений ИИ на предприятиях. И это логично, учитывая, что по данным опросов, проводимых этой компанией, в 2019 г. доля организаций, внедривших ИИ, выросла по сравнению с прошлым годом с 4% до 14%. И, несмотря на относительную молодость рынка ИИ в целом, аналитики Gartner поместили сразу две технологии в секцию «плато продуктивности» — «распознавание речи» и «ускорители ИИ на основе графических процессоров» (последние подходят для создания систем искусственного интеллекта гораздо лучше, чем процессоры «общего назначения»).
Чат-боты, «лицо» искусственного интеллекта, с которым мы сталкиваемся почти ежедневно, также меняют процессы, касающиеся взаимодействия с клиентами. Например, в компании Kia они еженедельно помогают решать вопросы 115 тысячам автовладельцев, а в немецкой сети дискаунтеров Lidl бот по имени Margot дает покупателям советы по выбору вин и закусок.
По убеждению экспертов, пренебрегать созданием системы управления ИИ (AI governance) на предприятиях нельзя. Это необходимо, в том числе, для понимания и контроля потенциальных рисков, связанных с регулированием и возможностью ущерба для репутации. Как поясняют в Gartner, система управления ИИ строится на специально разработанных политиках предотвращения системных ошибок («предвзятости») ИИ, дискриминации пользователей или групп пользователей по тем или иным признакам и других возможных негативных последствий использования искусственного интеллекта.
ИИ в своем зачаточном состоянии существует уже десятилетия, но в последние годы он стал более популярным и востребованным благодаря росту вычислительной мощности, доступности больших объемов данных и развитию новых алгоритмов и методов машинного обучения. Кроме технической части необходимо развивать и применять ИИ с учетом этических, юридических и социальных аспектов, а также налаживать сотрудничество между различными заинтересованными сторонами — учеными, разработчиками, мировыми правительствами и общественными организациями для того, чтобы ИИ помог миру, а не создал дополнительных проблем.
ChatGPT и другие подобные системы никогда не стали был реальностью, если бы не самоотверженный труд тысяч программистов в области машинного обучения. Разработчики играют важную роль в создании и улучшении ИИ. Они используют различные языки программирования, фреймворки, библиотеки и инструменты для реализации алгоритмов и методов машинного обучения, нейронных сетей, глубокого обучения и других подходов ИИ. Они также тестируют, отлаживают и оптимизируют свои программы, а также следят за их безопасностью и эффективностью.
Тем не менее, основной аргумент имеет смысл. Разумно разрабатывать рекомендации и меры безопасности для мощных ИИ-технологий. Если этого не сделать, фильмы «Матрица» и «Терминатор» могут когда-нибудь стать реальностью. В области ИИ необходима четкая стандартизация для повышения качества, безопасности, эффективности и совместимости ИИ-продуктов и услуг, а также укрепления доверия к ним со стороны пользователей и общества. Стандартизация в области ИИ также поможет решать этические, юридические и социальные вопросы, связанные с применением ИИ, такие как защита прав человека, приватности, справедливости и ответственности.
Краткая история развития искусственного интеллекта
Идея создания машин, способных имитировать человеческий интеллект, появилась еще в древности, когда люди строили механические автоматы и роботов. Однако научное основание для ИИ было заложено в 20 веке, когда математик Алан Тьюринг предложил тест для определения интеллекта машины, а также сформулировал основные проблемы и цели ИИ. В 1956 году на Дартмутской конференции был введен термин «искусственный интеллект» и была запущена первая программа, способная играть в шахматы. С тех пор ИИ прошел несколько этапов развития, открывая новые возможности и сталкиваясь с новыми проблемами. Сейчас ИИ достиг уровня, когда он может не только решать конкретные задачи, но и обучаться на основе данных, адаптироваться к изменяющимся условиям и создавать новые знания.
Среди других применений ИИ, которым прочат скорый успех, — средства диалогового ИИ, чему способствует успех виртуальных ассистентов наподобие Amazon Alexa, Google Assistant и т.д. Появляется интерес к новым технологиям, таким как дополненный интеллект (augmented intelligence), «периферийный» ИИ (edge AI), популярность которого растет вместе с популярностью самих периферийных вычислений, автоматизированная разметка данных и «объяснимый» ИИ (система искусственного интеллекта, решения которой люди могут объяснить). А вот автономные транспортные средства, которые, как считаю многие, вот-вот появятся на дорогах, по мнению Gartner, «выедут» на плато продуктивности больше, чем через 10 лет.
Использование искусственного интеллекта в этом качестве помогает уменьшить объем рутинной работы и, соответственно, количество ошибок в ходе ее выполнения. А участие человека, в свою очередь, снизит риск, связанный с автоматизированным принятием решений — за счет того, что человек сможет решить вопросы, ответам на которые ИИ еще не обучен.
Не так давно более 1000 экспертов, включая технологического магната Илона Маска, подписали открытое письмо с призывом приостановить на 6 месяцев разработку ИИ-систем, более мощных, чем популярный GPT-4. Ссылаясь на потенциальные риски для человечества, авторы призывают к осторожности.
Есть ли у Маска скрытые мотивы? С одной стороны, возможности продвинутого ИИ вызывают тревогу. Но участие Маска настораживает. Его Tesla использует далеко не совершенный ИИ для автопилота. Приостановка продвижения ИИ могла бы дать Маску время догнать конкурентов. Такие себе «двойные стандарты» от самого богатого человека на Земле.
В целом на «кривой хайпа» искусственного интеллекта появилось немало новых технологий, и существенная доля из них отмечена голубыми кружками, свидетельствующими о том, что в Gartner надеются на их скорый выход на плато продуктивности. Причем многие из них получили прогноз «от двух до пяти лет до внедрения», еще только взбираясь на пик надежд.