Как искусственный интеллект влияет на человечество

0
14

Как искусственный интеллект изменяет наше общество

Риски ИИ

Во-вторых, ИИ может негативно повлиять на систему образования — сделать ее поверхностной, если будет сразу предлагать готовые ответы. Сейчас в каких-то школах запрещено приносить калькуляторы на уроки, чтобы дети научились самостоятельно выполнять математические действия. И это правильно. Важно учить фундаментальные основы для понимания того, как устроены различные вещи. Если что-то выйдет из строя, например тот же калькулятор, мы должны суметь сами справиться с задачей.

Особую озабоченность у инициаторов вызывает так называемый генеративный ИИ. Так, большое внимание эксперты уделяют нейронной сети DALL-E. Она может генерировать высококачественные картинки по текстовому описанию и во всевозможных визуализациях — от реалистичных подобий фотографии до картин и эмодзи.

Другой элемент адаптации — общественная дискуссия возможностей и последствий использования искусственного интеллекта. Важно вести живой диалог. С этого, я думаю, все и начнется. Причем не только в профессиональных сообществах, но и в широких массах. Наверное, будут сферы, где технологии ИИ будут запрещены или использоваться по минимуму. Но основную часть общества можно будет подготовить.

Но прогнозы не сбылись. Так называемые генеративные системы ИИ уже пишут тексты и картины, сочиняют симфонии, создают компьютерные коды и многое другое. Медиакомпании начинают делегировать простые журналистские задачи виртуальному разуму. Кинокомпании и рекламные агентства уже работают с саундтреками, созданными искусственным интеллектом. Авиакомпании используют его, чтобы предсказывать количество пассажиров, которые отменят или просто пропустят свой рейс, а также выявлять мошенничество при онлайн-бронировании.

— Конечно, организации, которые разрабатывают ИИ, должны по закону запрашивать согласие на использование ваших данных. Как это сейчас делают, например, банки. Также разработчики должны обеспечить защиту личной информации пользователей. Кроме того, в будущем будет трудно доказать, что в генерации контента участвовали данные, собранные без разрешения. И как выработать меры для решения этой проблемы, пока непонятно.

Тот факт, что технология ИИ позволяет создавать убедительные подделки в кратчайшие сроки и с минимальными усилиями, также вызывает большие опасения. Эксперты предупреждают, что преступники и авторитарные режимы могут использовать эти системы для распространения дезинформации в интернете, тем самым оказывая влияние на общественное мнение. В настоящее время кампании по дезинформации осуществляются живыми людьми на так называемых фабриках троллей. Когда за подобные задачи возьмется искусственный интеллект, то масштаб возможной угрозы станет совершенно иным.

— Все виды искусства и культуры трансформируются. Появятся новые традиции и даже новые виды искусства, появился же киберспорт. Оборотная сторона медали тут тоже возможна: начиная от авторских прав и заканчивая потерей неповторимой индивидуальности, присущей большим художникам, — можно сделать сколько угодно копий их произведений, отредактировать их, попросить нейросеть сгенерировать, например, изображение в стиле художника и т.д.

Кроме того, нужны несколько мощных центров ИИ, которые бы конкурировали друг с другом, чтобы соблюдался баланс сил. Когда в разных странах появятся модели ИИ, они будут перепроверять и «выводить друг друга на чистую воду», а также с помощью искусственного интеллекта анализировать те данные, на которых они обучаются. Я думаю, что здесь только конкуренция и альтернативы в технологиях, подходах и идеях смогут создать хрупкое равновесие, за которое нужно будет постоянно бороться. В нашей стране тоже нужны соответствующие конкурентоспособные технологии. Иначе это будет единая довлеющая точка зрения.

ЧИТАТЬ ТАКЖЕ:  Как выглядит нейросеть мозга

Угроза распространения дезинформации

Помимо гендиректора Tesla Маска, активно разрабатывающего системы ИИ, открытое письмо подписали более тысячи человек. В их числе — Эмад Мостак, глава ИИ-компании Stability AI и несколько разработчиков из DeepMind, дочерней компании Google по ИИ. Их поддержал и соучредитель Apple Стив Возняк. В Германии эту инициативу приветствовало общество технического надзора (TÜV-Verband), в задачи которого входит контроль и обеспечение технической безопасности продуктов, оборудования и услуг с помощью независимых экспертов. «Открытое письмо подтверждает необходимость политических действий с целью разработать четкое правовое регулирование систем искусственного интеллекта», — считает Йоахим Бюлер (Joachim Bühler), управляющий директор ассоциации TÜV.

Искусственный интеллект в сочетании с робототехникой в первую очередь заменит профессии, которые связаны с риском для жизни, тяжелыми и опасными условиями труда: шахтеров, водителей самосвалов и другие. Кроме того, исчезнут или сильно изменятся профессии, где много рутины. Например, секретарей и даже программистов.

Искусственный интеллект будет внедряться в различные устройства. Это будет не просто программа, а технология автономных поездов, автомобилей, роботов и другой техники, которая сможет физически выполнять какие-то действия. Думаю, что через 30–50 лет уже появятся мощные квантовые компьютеры и они в комбинации с ИИ позволят осуществить прорыв и фундаментальные открытия в разных областях науки.

— Уровень развития искусственного интеллекта, когда у каждого будет свой индивидуальный помощник, требует наличия дешевой энергетики. Если этого не будет, то и прогресс в ИИ будет медленным. Среди источников дешевой энергии может быть, например, новая энергетика или термоядерный синтез. Сейчас разработку мощных нейросетей вроде ChatGPT могут позволить себе только компании с миллиардными инвестициями, такие как OpenAI. В будущем, думаю, будет прогресс в энергетической области, который позволит сделать ИИ массовым.

В марте 2023 года предприниматель Илон Маск и многие другие эксперты из индустрии искусственного интеллекта призвали к шестимесячному перерыву в работах по дальнейшему развитию ИИ. Это время должно быть использовано для разработки протоколов безопасности и создания правовой базы в этой области, говорится в открытом письме некоммерческой организации Future of Life Institute. Специалисты считают, что системы ИИ с интеллектом, не уступающим человеческому, могут представлять большие риски. Поэтому более мощные системы ИИ следует развивать только тогда, когда можно быть уверенными, что эффект от их использования будет положительным, а риск — управляемым.

Многие люди уже не раз сталкивались с чат-ботами. В некоторых ресторанах роботы выполняют задачи, которые раньше делали люди, например, развозят гостям заказанные блюда и забирают грязную посуду. Появились юридические фирмы, которые при помощи ИИ проводят юридические исследования и составляют контракты. Услугами ИИ стали активно пользоваться и мошенники — они генерируют точную копию голоса и даже плача или смеха человека, а затем вымогают у его близких крупные денежные суммы.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь