Искусственный интеллект в терминаторе как

0
12

Подойдем к сценарию «Терминатора». Российские специалисты назвали риски развития искусственного интеллекта

Общество Маугли

К аналогичной угрозе Алексей Лукацкий относит создание цифровых двойников людей, которые позволяют от имени человека вести его виртуальную жизнь и тем самым вводить в заблуждение окружающих. «Как обратная сторона этой истории, это создание цифрового профиля человека, чтобы его атаковать по различным каналам, как виртуальным, так и физическим. Чем больше информации мы скармливаем искусственному интеллекту, тем больший портрет нас можно составить и манипулировать нами, и с целью дезинформации, и с целью введения в заблуждение и так далее. Это тоже одна из серьезнейших угроз и в этом году, и в следующем», — считает Лукацкий.

Далее Риз рассказал, что саму войну не видел и вырос уже после неё. При этом по сюжету он прибыл из 2029 года — это всего через пять лет после 2024-го. Служил Риз, по его же словам, с 2021-го по 2027-й, пока не попал под командование Джона Коннора — сына Сары. Таким образом, согласно первому фильму франшизы, война началась задолго до 2024 года. Причём ни в одном из таймлайнов вселенной «Терминатора» Судный день не случался конкретно в этот год.

Его опасения вызывает перспектива внедрения систем ИИ в управление вооружением и ядерными арсеналами. «Сегодня уже идут разговоры, — но от разговоров до действия на самом деле не так уж и долго пройдет времени — об управлении с помощью искусственного интеллекта ядерным вооружением, чтобы исключить человеческий фактор при принятии решения о нанесении ядерного удара. По крайней мере, такие разговоры шли на стороне американцев. Кроме того, ведутся исследования по оснащению искусственным интеллектом обычных вооружений — ракеты, торпеды, беспилотные танки и так далее, то, что сейчас эпизодически используют в дронах, — говорит Лукацкий. — Конечно, я смотрю на это с опасением, потому что ИИ все-таки программируется людьми, людям свойственно ошибаться, и достаточно совершить небольшую ошибку в коде либо в модели, либо в обучающих данных, и ИИ начнет принимать некорректные решения. И мы как раз подойдем к сценарию фильма «Терминатор», который ровно с этого и начался».

Еще одну опасность в будущем Дмитрий Николаев видит в риске переноса ответственности на ИИ: «Ни я, ни вы практически нигде с «опасными» системами искусственного интеллекта пока не пересекаемся. Но уже сейчас, не хочу называть конкретный банк, у меня иногда блокируются транзакции. Спрашиваю — какого… то есть, какова причина? Мне отвечают — ну, там у нас программа считает, что эта транзакция была подозрительной.

И эти операторы зачастую находятся в очень интересных странах. Ведь самые лучшие рынки труда находятся в странах, в прошлом развитых, но в которые пришла разруха. Соответственно, на Украине сейчас соотношение стоимости и квалификации разметки данных наилучшее. И изображения наших паспортов и договоров между компаниями путешествуют по всему миру. Проблема ли это избытка искусственного интеллекта? Лично мне кажется, что, скорее, недостатка естественного».

По мнению Грунина, ИИ — это продолжение развития все более и более глубокой автоматизации процессов, которая в первую очередь затронула IT-сферу и вообще работу с информацией, и с неким временным лагом сферы, где человек задействован своими физическими способностями. Хороший пример, показывающий, что это снижает риски, автоматизация управлением самолетами, которая была реализована еще полвека назад на предыдущем технологическом витке, и статистика показала, что автопилот снижает аварийность полетов.

Человек возьмет конкретное решение, относящееся к области искусственного интеллекта, но низкой степени готовности, и поставит его в эксплуатацию, а потом еще, не дай Бог, масштабирует. Как например, если бы уже сейчас запустили текущие автопилоты на дороги общего пользования. Совсем недавно прошла очередная примечательная новость. «Макдоналдс» отказывается от использования ИИ для формирования заказов из-за частых, неприятных и необъяснимых ошибок. Систему ИИ разработала IBM, не какой-нибудь гаражный стартап. Излишняя и неразборчивая восторженность по отношению к новым технологиям больно ударила сначала по пользователям, а следом — по бизнесу. Внедряться должны не новые или старые, а качественные и экономически оправданные технологии. Нужны испытания, исследования, все эти скучные материи. Но гораздо интереснее и приятнее кричать «ИИ прекрасно» либо же «ИИ ужасно», безусловно».

ЧИТАТЬ ТАКЖЕ:  Нейросеть которая генерирует текста

Что касается дипфейков, по мнению Андрея Грунина, опасность представляют даже не частные случаи их применения для обмана людей, а новая реальность, в которой дипфейки будут существовать повсеместно. «История с мошенниками, и обманутыми бабушками — то частные примеры, и есть практики борьбы с этим. Крупные опасности возникают, когда все это масштабируется. И на самом деле мы будем жить в мире не просто постправды, который формировался предыдущим поколением ИИ с рекомендательными алгоритмами You-Tube и тому подобным, — считает эксперт.

Рост безработицы

Бизнес-консультант по безопасности компании Positive Technologies Алексей Лукацкий не склонен делить угрозы ИИ на реальные или нереальные. «Технологии развиваются настолько быстро, что то, что раньше казалось нереальным, завтра становится вполне обыденной историей. И как раз применение ИИ это очень ярко иллюстрирует — то, что раньше было недоступным для большинства людей, сегодня стало реальностью, любой может написать музыку, любой может нарисовать картинку, распознать текст, перевести его на любой язык, и это не представляет большого труда, — считает эксперт. — Как человек, который занимается безопасностью, я понимаю, что джинна уже выпустили из бутылки. И полностью загнать его в некие рамки невозможно. Это примерно как с развитием ядерных технологий, которые создавали для вполне конкретных целей, потом стали применять для совершенно других».

По мнению Николаева, не стоит переоценивать опасность распространения дипфейков в будущем. «Дипфейки будут раздражающим фактором, и раздражение будет расти, это очевидно. Но «работает» или «не работает» фейк, связано с тем, какие доводы принимает, например, суд, и не окажется ли, что в суде появятся поддельные доказательства? Человечество как-то с этим разбиралось и меняло свое отношение к тому, что принимается в суде, а что — не принимается. Если будет известно, что что-либо легко подделывается, то оно перестанет приниматься как доказательство, — считает специалист.

По мнению заместителя директора Института Искусственного интеллекта МГУ Андрея Грунина, современные опасения следует разделить на психологические фобии и реальные последствия применения ИИ. «Из фобий это например создание антропоморфного искусственного интеллекта, который полностью повторяет человека, только сильнее его. Это скорее невозможно, просто ввиду разных принципов лежащих в основе искусственного и естественного интеллекта. Вторая фобия — что в экономике начнется коллапс, и все потеряют рабочие места, — уверен Грунин. — На самом деле, в экономике и истории инноваций этот вопрос хорошо изучен на разных технологических волнах. И показано, что каждая новая технология, технологическая парадигма, наоборот рождает новые рабочие места, хотя и происходит сильное перераспределение и изменение структуры рынка труда».

Герой рассказывал о знаменитом роботе, которого сыграл Арнольд Шварценеггер, — терминаторе T-800, модель 101. Отличительной чертой этой машины была «живая плоть» поверх металлического скелета. При этом в своём рассказе Риз вспомнил о других, более простых роботах, которые, очевидно, были созданы раньше.

Опасения по поводу развития искусственного интеллекта раздаются все чаще: безработица, снижение умственных способностей человека, дипфейки, манипуляции людьми и угроза ядерного апокалипсиса, вот лишь некоторые из угроз, которые связывают с ИИ. RTVI поговорил со специалистами в области ИИ и узнал, какие из этих страхов реальны, а какие нет.

Лукацкий считает появление дипфейков существенной угрозой, проявление которой наблюдается уже сейчас. «Существенная угроза это дипфейки, и эта угроза будет только расти, причем расти очень быстро. 2024 год я бы назвал как раз годом дипфейков. И 2025 они выйдут на определенное плато, когда дипфейк смогут создавать абсолютно все без исключения, причем очень сложные и многомодальные», — считает Лукацкий.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь