Что искусственный интеллект не умеет

0
23

Что умеет искусственный интеллект и насколько разработчики его контролируют? Рассказывает Алексей Шпильман

— Поговорим о роботах в поп-культуре. Есть очень популярный сюжет, как ИИ обращается против его создателя. Но насколько такой сценарий реален?

— Есть боты, которые оказывают психологическую помощь, если не с кем поговорить. Так что кто-то дружит с ботами уже прямо сейчас. Думаю, таких случаев станет больше: эта индустрия развивается. Но последствия дружбы с искусственным интеллектом мне пока непонятны. Если таких умных ботов станет много, можно завести кучу виртуальных друзей и забыть про настоящих, прекратить человеческое общение.

Вот тут есть одна загвоздка: за нас часто принимает решение искусственный интеллект, который не до конца понимаем. Мы только по косвенным признакам видим, как искусственный интеллект принимает решения, но давно потеряли контроль над этим процессом. Ведь ИИ получает и обрабатывает огромное количество информации. Если разработчик допустил небольшую ошибку в процессе, машина может начать делать то, что ей нужно. Так что нужно внимательнее относиться к ИИ и продумывать инструменты безопасности. Ну или нужно делать, как Тони Старк во втором фильме про «Мстителей»: если по ошибке получился Альтрон, то нужен и Вижн.

Оказалось, технологов или обычных рабочих заменить намного сложнее. Роботам плохо даются тонкие манипуляции — например, соединить между собой два провода. Но роботам пока тяжело дается пространственное мышление, особенно когда они сами — часть этого пространства. Так что такие операции пока надежнее отдавать людям.

В последние годы принято множество инициатив в области развития искусственного интеллекта (ИИ). В России действует Национальная программа «Цифровая экономика Российской Федерации», в рамках которой технологии ИИ признаются одними из «сквозных цифровых технологий». Принята Национальная стратегия развития искусственного интеллекта на период до 2030 года.

Изначально колыбелью искусственного интеллекта были IT-компании. Они сильно продвинулись в работе с ним, но в наиболее полезных для их бизнеса областях: рекомендательных системах, диалогах с пользователями, текстах. Но нельзя внедрить такие же методы в производственные решения, иначе ничего не работает. Промышленные компании развивают собственные методы с самого начала, но у них пока недостаточно большие команды разработчиков. Думаю, это вопрос мотивации, образования и подбора кадров. Мало кто думает: «Я хочу заниматься искусственным интеллектом, пойду-ка в промышленность». Обычно все идут в Apple, Google, «Яндекс» или нечто похожее. Надо менять это мнение, потому что в промышленности не менее интересные задачи.

— Истории о том, как боты выходили из под контроля создателей, уже бывали. В 2016 году Microsoft в одной из соцсетей запустил бота, который обучался на общении с другими пользователями. В конце из него получился прожженный расист и тролль. Была еще история о том, как в соцсети запустили ботов, которые должны были как можно больше общаться с людьми. Говорить им что-то, чтобы непременно получать ответ. В какой-то момент два бота нашли друг друга и начали настолько активно друг с другом общаться, что их стало сложно понимать.

— Как раз в медицине, но там единичные случаи использования ИИ. Это связано с тем, что медицина — одна из самых сильно регулируемых законодательством областей. Если ученые захотят развивать предиктивную диагностику, им понадобится большой массив данных, а их очень тяжело собрать. Речь ведь не просто о персональных данных, а об очень личных. Ни один пациент не захочет, чтобы о его диагнозе кто-то случайно узнал.

Очевидно, что машина (компьютерная программа) — это не субъект, а объект, который не будет обладать состраданием, чувством такта и справедливостью. Можно научить нейросеть обходить скользкие вопросы — ограничить робота в советах, например, о здоровье, не давать ему возможность отвечать на вопросы о способах совершения преступлений, не пытаться помочь в сложных жизнеугрожающих ситуациях, но оценивать, верное ли решение принял человек, виноват ли он, нарушил ли он закон, никакая технология сама по себе не может.

— Как вы думаете, однажды мы сможем дружить с голосовыми помощниками? Как в фильме «Она», где это спасает героя от одиночества.

Кроме того, часто нейросеть, например созданная для генерации изображений, музыки, текстов, произведений искусства, «учится» на чужих произведениях, охраняемых авторским правом. Пока этот вопрос недостаточно проработан на уровне законодательства и практики, и, как уверены эксперты, эта правовая неопределенность может принести немало проблем для правообладателей.

ЧИТАТЬ ТАКЖЕ:  Нейросеть которая рисует по фото человека бесплатно

Этот случай с конкурсом говорит нам о том, что профессия художника на грани вымирания. Нейросети не просто рисуют, но делают это настолько круто, быстро и качественно, что могут заменить реальных специалистов. Дизайнеры тоже в группе риска: у «Студии Артемия Лебедева» есть нейросеть, которая способна разработать айдентику для бренда. Так что пока все складывается не так, как раньше думали ученые. Мы считали, что творческие профессии исчезнут последними, а искусственным интеллектом заменят обычных рабочих. Пока выходит наоборот.

Пока у нас не появятся законы, регулирующие работу роботов, никто не станет повсеместно использовать искусственный интеллект. Но даже если такие законы появятся, нужна будет какая-то компания, которая согласится страховать этих роботов. А той уже нужно понимать, из чего складывается цена на страховку, какова будет процедура взыскания. Чтобы найти ответы на все эти вопросы, нужно много времени.

— Есть роботы Boston Dynamics, которые и пляшут, и крутятся, и выглядят солидно. Но какая от них практическая польза — не очень понятно. В прошлом году Boston Dynamics разработали робота-грузчика. Он выглядит как коробка, к которой сверху прикреплена рука. Этот робот ездит по складу и переставляет ящики. Конечно, после танцующих продвинутых роботов такое решение выглядит забавным, но оно логичное и удобное. Если нам нужно, чтобы система просто двигала коробки с места на место, то можно обойтись без танцев и красоты.

Так, например, по словам Владислава Архипова, одно из самых частных нарушений в машинном обучении — вторжение в частную жизнь и нарушение законодательства о персональных данных. Искусственный интеллект и нейросети обучаются, «подгружая» в свою «память» огромные массивы информации, среди которых постоянно встречаются персональные данные — не только лица, фамилии, адреса, но многие другие сведения, которые могут быть соотнесены с конкретными людьми при использовании дополнительной информации, и пока исключить риски нарушений в этой сфере невозможно.

Мне сложно дать однозначный ответ, насколько реально восстание машин. Искусственный интеллект — это инструмент, и использовать его можно по-разному. Можно готовить с его помощью мясо, а можно — красть шоколадки из магазина. Но даже если робот начнет делать что-то плохое, это еще не говорит о том, что у него есть сознание.

Объясню на примере. Вот есть у вас друзья, вы их любите и с удовольствием проводите с ними время. Но наверняка нужно подстраиваться под каждого из них: одного не вытащишь из дома, а другой постоянно хочет тусоваться. А теперь представьте десять идеальных друзей-ботов, с которыми у вас полное взаимопонимание. Они не зеркалят ваше поведение, наоборот — делятся своими идеями, предлагают места, куда можно сходить. Заскучаете вы с этими идеальными ботами или начнете общаться только с ними — загадка.

Искусственный интеллект и нейросети стали неотъемлемой частью жизни людей. Они общаются, сочиняют стихи, и это далеко не все их возможности. Крупные компании все чаще задаются вопросом, какие профессии могут исчезнуть из-за технологического прогресса, а в поп-культуре все чаще встречаются сюжеты о продвинутых роботах и восстании машин. На какой стадии развития сейчас находится искусственный интеллект — рассказал Алексей Александрович Шпильман, академический руководитель магистерской программы «Машинное обучение и анализ данных» НИУ ВШЭ — Санкт-Петербург.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь