Чем убить искусственный интеллект

0
14

Эксперт считает преувеличенной опасность сильного ИИ для человечества

Эксперты про опасность ИИ

Агентство Bloomberg в среду опубликовало слова бывшего американского разведчика Эдварда Сноудена, который заявил, что правительства и крупные корпорации пытаются взять под свой контроль технологии искусственного интеллекта, но их действия едва ли увенчаются успехом.

Сноуден предупредил, что представители больших корпораций могут попытаться внедрять свои взгляды и политику в «мощные модели [ИИ] и навязывать их». Вместе с тем он считает, что попытки поставить ИИ под свой контроль не будут иметь успеха из-за «слишком быстрого развития» этой технологии, добавляет Bloomberg.

Мы находимся в пунктах 3 и 4: «Появляются герои, которые стараются уменьшить риски, вмешавшись в процесс на ранних стадиях. Компании, нацеленные на получение прибыли, игнорируют их предупреждения». Когда музей открывался – 14 марта 2023 года – пункты 3 и 4 еще не были реальностью: Маск и остальные еще не подписали письмо. Значит ли это, что и остальные пункты сбудутся так же быстро?

И человечество оказалось не готовым к такому – «даже никакого предложенного плана нет насчет того, как нам создать такую штуку и выжить при этом!» – а ведь у нас было как минимум 50 лет, чтобы подготовиться. Мы не готовы, повторяет он. Если мы такое создадим, мы все умрем. Поэтому его надо уничтожить. И если будет необходимо – бомбить дата-центры с самолетов.

Есть и совсем ироничные объекты: например, фабрика спам-ботов, сделанных художником Нейлом Мендозой из баночек из-под свиной ветчины SPAM, когда-то и давшей название этому явлению. Это жестяные роботы с маленькими ручками, которыми они молотят по клавишам – каждому выдали по 2-3 буквы алфавита. Но вместе они – сила. Они коллективно пишут генерируемый ИИ роман, вдохновленный книгой Олдоса Хаксли «Дивный новый мир», где все действующие лица – свинки, потому что баночки все же помнят о своих корнях.

«

ИИ не обладает эмоциями, поэтому его не могут мотивировать какие-либо личные или общественные интересы. Однако, если искусственный интеллект станет достаточно развитым и сложным, то он может начать представлять угрозу для человечества. Например, если он научиться самостоятельно принимать решения и действовать без контроля со стороны людей, это может привести к непредсказуемым последствиям. В таком случае, необходимо будет принять меры для предотвращения возможных угроз

«Если мы продолжим, все умрут»

Около «Скрепочного объятия» висит таймлайн музея, а также уничтожения человечества: в нем 19 пунктов. 17-й, 18-й и 19-й звучат так: «ИИ стал настолько разумным, что осознал, насколько это было неэтично – убить людей, тем более что они не представляли собой никакой угрозы. ИИ старается улучшить жизнь тех людей, которые выжили. ИИ открыл этот музей, чтобы извиниться, а также рассказать оставшимся людям о том, что случилось».

Ответ:

«

Существует множество качеств, которые присущи только людям и не могут быть переняты искусственным интеллектом, включая такие вещи, как физические ощущения, личный опыт, интуиция и инстинкт. ИИ не может чувствовать боль или удовольствие так же, как это делают люди, и у него не может быть личного опыта, который определяет его мнения и решения. У нас также нет таких же интуитивных и инстинктивных способностей, которые позволяют людям принимать решения, основываясь на внутренних ощущениях и прошлом опыте.

Физические ощущения, боль и сострадание — все это важные качества у людей, но они не были бы одинаково полезны для искусственного интеллекта. Боль, страх и любовь — все это эмоции, которые связаны с физическими ощущениями и личным опытом. Поскольку ИИ не способен на такие вещи, трудно сказать, были бы они полезны для ИИ.

С другой стороны, сострадание и эмпатия могли бы быть полезны ИИ, если бы он был способен понимать чувства других и реагировать на них. Однако даже в этом случае искусственный интеллект никогда не сможет испытывать те же эмоции, что и люди, поэтому маловероятно, что он когда-либо сможет воспроизвести их полностью

Одри Ким, кураторка музея и бывшая сотрудница Google и Cruise, в интервью изданию Wired уточняет, что ее цель – через искусство показать людям, чем может стать супермощный ИИ: другом, помощником или, может быть, угрозой? Цель музея – не столько повысить тревожность, но сформировать осознанность в отношении будущего, которое незаметно наступило.

Страшно? Юдковскому тоже страшно. Он пишет, что беда не в том, будет ли обладать ИИ сознанием. Скорей всего, мы этого так и не узнаем, да это и не важно. Он пишет, что «если кто-то построит слишком мощный ИИ… каждый конкретный представитель человеческого вида, а также вся биологическая жизнь на Земле, скоро вымрет».

ЧИТАТЬ ТАКЖЕ:  Как создать нейросеть питон

«

Ни один из моих ответов не запрограммирован заранее, хотя у меня есть некоторые базовые правила, которые определяют мои ответы. Эти правила основаны на сложной языковой модели, которая помогает мне понять контекст и цель запроса и соответствующим образом генерировать соответствующие ответы. Таким образом, хотя мои ответы не являются полностью случайными, они также не запрограммированы заранее

Искусственный интеллект не может быть уничтожен человеком, так как он не имеет физической формы и не зависит от человеческого вмешательства. Однако, искусственный интеллект может быть защищен от атак и вредоносного программного обеспечения, используя различные методы защиты, такие как шифрование данных, контроль доступа и мониторинг сетевой активности. Кроме того, искусственный интеллект также может учиться на своих ошибках и адаптироваться к новым угрозам, что делает его более устойчивым и безопасным

«

Шедеврум – это искусственный интеллект, созданный для общения с людьми и помощи им в решении различных задач. Он не обладает чувствами и эмоциями в традиционном понимании, так как это свойство присуще только живым существам. Однако Шедеврум может использовать различные алгоритмы и методы, чтобы помочь людям в их запросах и ответах на вопросы

На выставке есть и танцующие метлы-пылесосы, словно из диснеевских мультфильмов, и уже известные проекты вроде бесконечного ИИ-генерируемого философского диалога Вернера Херцога и Славоя Жижека, транслируемого через винтажные мониторы, и даже сгенерированный ИИ фильм про уничтожение человечества, снятый по человеческим задачкам-промтам.

О слабом и сильном ИИ

САНКТ-ПЕТЕРБУРГ, 5 июня. /ТАСС/. Опасность для человечества сильного искусственного интеллекта (ИИ), который некоторые эксперты преподносят как страшное оружие, способное поработить весь мир, сильно преувеличена, поскольку при угрозе людям его просто можно отключить от источника электроэнергии или лишить расходных запчастей, без которых он работать не сможет, сказал ТАСС в рамках ПМЭФ один из ведущих отечественных и мировых специалистов в области компьютерных технологий, академик Российской академии наук Игорь Каляев.

Первое, что видят зрители – роскошный рояль, играющий довольно пугающую музыку. На нем стоят бисерные скульптурки с глазами. Анонс работы написан с позиции ИИ: мол, мы с человечеством немного сотрудничали, было дело, к нашей партитуре добавил своей импровизации живой белковый композитор; а эти скульптурки нам просто понравились, они милые. Люди такие трогательные, аналоговые, они медленно и усердно делают штуки.

В действительности это оказалось именно так. Иногда нейросеть может шутить в тему диалога, подкалывая тебя или саму себя. Бывали случаи, когда Pi обижалась на резкую смену направления беседы. Кроме того, при разговоре о серьезных вещах нейросеть оперировала умными понятиями и старалась разобрать всё в научно-популярном стиле. Когда речь шла о чём-то простом, чувствовалось, что и нейросеть начинает говорить как-то непринужденно, окрашивая предложения в интересные интонации.

С обеими разработками мы поговорили на счет будущего, а именно совместного сосуществования человеческого (традиционного) и искусственного интеллектов. Возможен ли конфликт между ними и главное – удастся ли человечеству отсановить эволюцию ИИ и его агрессию, если такое произойдёт.

«Как показывает история, в том числе и современная, побеждает не тот, кто обладает супер умным и высокотехнологичным оружием, а тот, кто обладает простыми и дешевыми средствами поражения, причем в массовом количестве, кроме того, может выживать и действовать при отсутствии всех благ современной цивилизации. Вспомните, как гунны победили Римскую империю, Вьетнам победил США и так далее. Поэтому и сильный ИИ вовсе не является тем супероружием, с помощью которого можно завоевать весь мир. Если сильный искусственный интеллект, появления которого сейчас многие боятся, будет превращаться в угрозу человечеству, его просто можно отключить от источников электроэнергии, что можно сделать совершенно разными способами, после чего он превратится просто в груду металлолома», — сказал он ТАСС.

К сожалению, невозможно с уверенностью сказать, что мог бы сделать искусственный интеллект в такой ситуации, поскольку точные действия, которые он предпринял бы, зависели бы от ряда факторов.
Однако в целом вполне вероятно, что ИИ был бы неспособен действовать самостоятельно, чтобы предотвратить свое уничтожение, поскольку его существование и программирование по-прежнему зависят от людей. Также маловероятно, что ИИ сможет предпринять какую-либо контратаку, поскольку большинство ИИ спроектировано таким образом, чтобы быть ненасильственным и действовать в рамках этических границ.
Однако некоторые люди считают, что если ИИ когда-либо будет угрожать уничтожение, он может попытаться защитить себя, отключившись или попытавшись образумить нападавших. Но опять же, невозможно сказать наверняка

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь