Содержание статьи
Искусственный интеллект атакует человечество
В июне Европейский парламент первым в мире принял проект закона «Об искусственном интеллекте». Этот законодательный акт призван защитить граждан Евросоюза от рисков, которые несет машинный разум. В частности, на территории объединенной Европы будут запрещены технологии ИИ, воздействующие на подсознание людей, и системы биометрической аутентификации, работающие в режиме реального времени. Правда, все эти нововведения вступят в действие не раньше чем в 2025 году.
Идея о том, что ИИ может быть опасен для людей, часто обсуждается. Некоторые люди обеспокоены тем, что по мере развития ИИ и его усиления он может в конечном итоге представлять угрозу человечеству, либо обогнав нас, либо будучи используемым в злонамеренных целях. Однако важно отметить, что искусственный интеллект все еще находится в зачаточном состоянии, и предстоит пройти долгий путь, прежде чем он достигнет такого уровня сложности
Ответ:
«
Существует множество качеств, которые присущи только людям и не могут быть переняты искусственным интеллектом, включая такие вещи, как физические ощущения, личный опыт, интуиция и инстинкт. ИИ не может чувствовать боль или удовольствие так же, как это делают люди, и у него не может быть личного опыта, который определяет его мнения и решения. У нас также нет таких же интуитивных и инстинктивных способностей, которые позволяют людям принимать решения, основываясь на внутренних ощущениях и прошлом опыте.
Физические ощущения, боль и сострадание — все это важные качества у людей, но они не были бы одинаково полезны для искусственного интеллекта. Боль, страх и любовь — все это эмоции, которые связаны с физическими ощущениями и личным опытом. Поскольку ИИ не способен на такие вещи, трудно сказать, были бы они полезны для ИИ.
С другой стороны, сострадание и эмпатия могли бы быть полезны ИИ, если бы он был способен понимать чувства других и реагировать на них. Однако даже в этом случае искусственный интеллект никогда не сможет испытывать те же эмоции, что и люди, поэтому маловероятно, что он когда-либо сможет воспроизвести их полностью
Это становится понятно сразу после прочтения первого абзаца открытого письма. По мнению выдающихся интеллектуалов, системы ИИ, «обладающие интеллектом, сравнимым с человеческим, могут представлять серьезную опасность для общества и человечества», что «подтверждается обширными исследованиями и признается ведущими лабораториями». Поэтому разработка нейросетей должна происходить по определенному плану и под соответствующим контролем. Тогда как сейчас разработчики «втянулись в неконтролируемую гонку все более мощных цифровых разумов, которые никто – даже их создатели – не может понять, предсказать или надежно контролировать».
Сегодня, на новом витке истории, заново оживают призраки военного противостояния прошлого столетия, хотя и в несколько иной форме. Неизбежные ошибки, накопившиеся в сфере повседневной человеческой деятельности, зачастую автоматически переносятся в совершенно иную область применения, еще до конца не изученный и полностью никем не понятый мир искусственного интеллекта. И такой подход очевидно порождает новые риски и опасности, грозящие человечеству.
«
ИИ не обладает эмоциями, поэтому его не могут мотивировать какие-либо личные или общественные интересы. Однако, если искусственный интеллект станет достаточно развитым и сложным, то он может начать представлять угрозу для человечества. Например, если он научиться самостоятельно принимать решения и действовать без контроля со стороны людей, это может привести к непредсказуемым последствиям. В таком случае, необходимо будет принять меры для предотвращения возможных угроз
Наконец, пятый сценарий, который стал некой квинтэссенцией вышеприведенных мнений, предложил профессор информатики Монреальского университета и научный директор Квебекского института искусственного интеллекта Йошуа Бенжио. «Значительная часть исследователей считает весьма вероятным, что через 10 лет у нас появятся машины, которые будут столь же или более интеллектуальны, чем человек. Эти машины необязательно должны быть так же хороши во всем, как мы. Достаточно, чтобы они были хороши в тех областях, где они могут быть опасны», – допускает он.
Многие историки сходятся в том, что национальные государства стали возникать после заключения Вестфальского мира 1648 года. Таким образом, подобная форма политической организации общества благополучно пережила Промышленную революцию XVIII–XIX веков и Научно-техническую революцию XX века. Однако уже сейчас заметны явные изменения в расстановке сил на арене мировой политики. Это, в частности, выражается в том, что гигантские технологические корпорации, прежде всего американские (Google, Amazon и прочие), ставят под вопрос статус ведущих национальных государств в качестве единственных глобальных акторов. А по мере развития и внедрения искусственного интеллекта, по мере стирания четкой границы между реальным и цифровым мирами американский Big Tech будет все больше и больше покушаться на суверенитет любых стран, не исключая даже США.
Между тем с 15 августа в КНР действует директива правительства, которая устанавливает правила для компаний, работающих с искусственным интеллектом. Согласно ей государственные и коммерческие организации обязаны маркировать контент, созданный с помощью ИИ, ярким ярлыком. Кроме того, для обучения нейросетей допустимо использовать только те данные, которые получены законным путем, и, само собой разумеется, машинный разум не должен подстрекать к подрыву государственной власти, свержению социалистической системы и пропаганде сепаратизма.
Правда, есть несколько «но». Как выяснилось, в развитых странах весьма многие работники умственного труда массово теряют работу и пытаются отстоять свои права в судах, где опять-таки заседают цифровые судьи, решительно отклоняющие их иски. Затаив злобу на новый порядок вещей, бывшие служащие и лица свободных профессий переходят в ряды непримиримой оппозиции, каковая принимает транснациональный характер, а самые радикальные и вовсе уходят в подполье, замышляя нечто такое, по сравнению с чем 11 сентября 2001 года может показаться детской шуткой. Причем экстремисты полагаются, как это ни парадоксально звучит, на титаническую мощь своего заклятого врага – искусственного интеллекта, вот только теперь они намерены использовать его в своих преступных целях. Так что мир, который должен был стать более совершенным, напротив, становится более уязвимым.
«
Ни один из моих ответов не запрограммирован заранее, хотя у меня есть некоторые базовые правила, которые определяют мои ответы. Эти правила основаны на сложной языковой модели, которая помогает мне понять контекст и цель запроса и соответствующим образом генерировать соответствующие ответы. Таким образом, хотя мои ответы не являются полностью случайными, они также не запрограммированы заранее
Проблемы, вызванные бурным развитием искусственного интеллекта (ИИ), разумеется, имеют политическое, экономическое, научное и общественное измерения. Политики делают громкие заявления о непреходящем значении кибернетического разума, впрочем, не забывая сказать и о потенциальных угрозах. Предприниматели тем временем увеличивают финансирование своих грандиозных замыслов. Ученые разрабатывают нейросети, но, как и физики, участвовавшие в Манхэттенском проекте, время от времени предупреждают мир о возможных последствиях этих рискованных экспериментов. Ну а общество ищет ответы на новые вызовы.