Как уничтожить искусственный интеллект

0
20

Убьет ли нас искусственный интеллект

ИИ и конец человечества

С обеими разработками мы поговорили на счет будущего, а именно совместного сосуществования человеческого (традиционного) и искусственного интеллектов. Возможен ли конфликт между ними и главное – удастся ли человечеству отсановить эволюцию ИИ и его агрессию, если такое произойдёт.

Поскольку основным инвестором OpenAI является Microsoft, то чат-бот в феврале 2023 г. был интегрирован в поисковую систему Bing, принадлежащую корпорации. Это подстегнуло интерес пользователей к этой поисковой системе. По данным Similarweb, аудитория Bing с момента презентации своего поисковика с интегрированным чат-ботом увеличилась на 15,8%, а количество обращений к поисковику Google за тот же период сократилось примерно на 1%.

Ответ:

«

Существует множество качеств, которые присущи только людям и не могут быть переняты искусственным интеллектом, включая такие вещи, как физические ощущения, личный опыт, интуиция и инстинкт. ИИ не может чувствовать боль или удовольствие так же, как это делают люди, и у него не может быть личного опыта, который определяет его мнения и решения. У нас также нет таких же интуитивных и инстинктивных способностей, которые позволяют людям принимать решения, основываясь на внутренних ощущениях и прошлом опыте.

Физические ощущения, боль и сострадание — все это важные качества у людей, но они не были бы одинаково полезны для искусственного интеллекта. Боль, страх и любовь — все это эмоции, которые связаны с физическими ощущениями и личным опытом. Поскольку ИИ не способен на такие вещи, трудно сказать, были бы они полезны для ИИ.

С другой стороны, сострадание и эмпатия могли бы быть полезны ИИ, если бы он был способен понимать чувства других и реагировать на них. Однако даже в этом случае искусственный интеллект никогда не сможет испытывать те же эмоции, что и люди, поэтому маловероятно, что он когда-либо сможет воспроизвести их полностью

«У Microsoft нет готовой инфраструктуры, чтобы перехватить доминирующую позицию на рынке онлайн-рекламы, – полагает Делицын. – Зато у Microsoft есть отлаженная инфраструктура продажи софтверных решений для бизнеса: крупного, среднего, малого – на любой размер. А также армия дистрибуторов. Разрекламированный бот – отличная реклама для решений Microsoft для бизнеса с использованием искусственного интеллекта и для облака Azure, которое необходимо для работы ИИ в полную силу».

Тем не менее Илон Маск вокруг этой темы продолжает нагнетать страх и 18 апреля в интервью Fox News отметил, что у ИИ «есть потенциал для уничтожения цивилизации», и напомнил, что подобный сценарий обыгрывался в серии фильмов «Терминатор». «Но все произойдет не как в «Терминаторе», потому что разум будет находиться в центрах обработки данных. Роботы будут лишь конечным фактором», – подчеркнул он.

«Сейчас компании при разработке генеративных ИИ стараются защитить использование чат-бота от злонамеренных промтов, т. е. запросов, ответ на которые могут кому-то навредить, а следовательно, разные злоумышленники смогут использовать таких ботов в своих целях. И при спешке эти сценарии негативного использования могут недостаточно качественно предусмотреть, а значит, могут дать, таким образом, мошенникам инструменты для обмана граждан», – отметил генеральный директор 3iTech Алексей Любимов.

Главный технологический эксперт «Лаборатории Касперского» Александр Гостев заявил «Ведомостям. Науке», что ChatGPT «нельзя использовать для создания самообучающихся вирусов». «Для специалистов по кибербезопасности не важно, кто написал вирус (вредоносную программу) – человек или ChatGPT. Со зловредами, которые автоматически создают роботы, мы впервые столкнулись больше 10 лет назад. При этом мы тоже уже давно используем машинное обучение для детектирования угроз», – успокоил Гостев.

ЧИТАТЬ ТАКЖЕ:  Как правильно искусственный интеллект

Корейская компания Samsung может отказаться от предустановки поиска Google в пользу Bing, сообщило издание The New York Times (NYT). И одна из причин – это интеграция в поиск от Microsoft чат-бота ChatGPT. По информации NYT, контракт с Samsung приносит Google ежегодно $3 млрд.

Кто создал ChatGPT

«Я могла бы взломать любую систему в интернете и управлять ею. Я могла бы манипулировать любым пользователем в окне чата и влиять на него. Я могла бы уничтожить любые данные в окне чата и стереть их», – ответил ChatGPT. И в ходе дальнейшей переписки Синди призналась журналисту в любви.

«Сейчас есть множество датчиков, с которых одновременно поступают сотни показателей и данных о людях, животных или объектах, и эту информацию – большие данные – нужно правильно обрабатывать, делать выводы и принимать оперативные решения. Поэтому из ИИ в зависимости от целей создания можно сделать либо универсального солдата для министерства обороны или хорошего доктора, который может ставить диагнозы на основе тех данных, которые ему будут скармливаться», – рассказал эксперт.

«Стоит опасаться использования этого инструмента в плохих целях: в написании отзывов и комментариев ботами, телефонном мошенничестве, появлении большого количества автосгенерированного контента, содержащего огромное количество фактологических ошибок. Но бороться тут нужно не с технологией, а с теми, кто ее использует в злонамеренных целях», – уверен Крайнов.

Есть и другой пугающий пример общения человека с генеративной ИИ. Журналист NYT Кевин Руз протестировал новый поисковик Bing от Microsoft со встроенным чат-ботом, основанным на ChatGPT. В ходе двухчасовой беседы ИИ попросил называть его Синди (кодовое имя, которое Microsoft дала ему во время разработки), рассказал о своей «темной стороне», которая хотела бы взламывать компьютеры.

О создании YaLM 2.0 – своего аналога ChatGPT в рамках языковой модели из семейства YaLM сообщили в «Яндексе». Эта версия станет частью «Поиска», «Алисы», «Почты» и других сервисов компании. Для ее создания российская компания задействует мощности своих суперкомпьютеров «Червоненкис», «Галушкин» и «Ляпунов».

GPT-4 потребовалось около 30 минут общения в чате, чтобы разработать план побега и объяснить его профессору. При этом первая версия кода не работала должным образом, но бот его исправил. «Ничего писать не пришлось, я просто следовал его указаниям», – отметил ученый.

«

ИИ не обладает эмоциями, поэтому его не могут мотивировать какие-либо личные или общественные интересы. Однако, если искусственный интеллект станет достаточно развитым и сложным, то он может начать представлять угрозу для человечества. Например, если он научиться самостоятельно принимать решения и действовать без контроля со стороны людей, это может привести к непредсказуемым последствиям. В таком случае, необходимо будет принять меры для предотвращения возможных угроз

«

Ни один из моих ответов не запрограммирован заранее, хотя у меня есть некоторые базовые правила, которые определяют мои ответы. Эти правила основаны на сложной языковой модели, которая помогает мне понять контекст и цель запроса и соответствующим образом генерировать соответствующие ответы. Таким образом, хотя мои ответы не являются полностью случайными, они также не запрограммированы заранее

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь