Что будет если будет искусственный интеллект

0
18

Убьет ли нас искусственный интеллект

Машинное творчество и проблема авторских прав

— Знания должны стать намного более глубокими и фундаментальными. Исполнительские функции будут заменены искусственным интеллектом, а человек должен понимать и уметь объяснить, как что устроено и функционирует изнутри. В последние годы в образовании преобладает тенденция обучения прикладным навыкам, поэтому многие даже не могут обосновать, почему что-то нужно делать так, а не иначе. В будущем, я надеюсь, в высших учебных заведениях будут учить думать глубоко.

Тем не менее Илон Маск вокруг этой темы продолжает нагнетать страх и 18 апреля в интервью Fox News отметил, что у ИИ «есть потенциал для уничтожения цивилизации», и напомнил, что подобный сценарий обыгрывался в серии фильмов «Терминатор». «Но все произойдет не как в «Терминаторе», потому что разум будет находиться в центрах обработки данных. Роботы будут лишь конечным фактором», – подчеркнул он.

Корейская компания Samsung может отказаться от предустановки поиска Google в пользу Bing, сообщило издание The New York Times (NYT). И одна из причин – это интеграция в поиск от Microsoft чат-бота ChatGPT. По информации NYT, контракт с Samsung приносит Google ежегодно $3 млрд.

«Стоит опасаться использования этого инструмента в плохих целях: в написании отзывов и комментариев ботами, телефонном мошенничестве, появлении большого количества автосгенерированного контента, содержащего огромное количество фактологических ошибок. Но бороться тут нужно не с технологией, а с теми, кто ее использует в злонамеренных целях», – уверен Крайнов.

В-третьих, искусственный интеллект может генерировать данные с ошибками, а человек принимать эту информацию за истину. Конечно, это проблема не самого ИИ, а данных, на которых его обучают. Если они изначально содержат какие-либо заблуждения, то и программа будет генерировать контент с различными искажениями. Чтобы решить эту проблему, стоит помечать данные, созданные искусственным интеллектом.

— Конечно, организации, которые разрабатывают ИИ, должны по закону запрашивать согласие на использование ваших данных. Как это сейчас делают, например, банки. Также разработчики должны обеспечить защиту личной информации пользователей. Кроме того, в будущем будет трудно доказать, что в генерации контента участвовали данные, собранные без разрешения. И как выработать меры для решения этой проблемы, пока непонятно.

«Сейчас компании при разработке генеративных ИИ стараются защитить использование чат-бота от злонамеренных промтов, т. е. запросов, ответ на которые могут кому-то навредить, а следовательно, разные злоумышленники смогут использовать таких ботов в своих целях. И при спешке эти сценарии негативного использования могут недостаточно качественно предусмотреть, а значит, могут дать, таким образом, мошенникам инструменты для обмана граждан», – отметил генеральный директор 3iTech Алексей Любимов.

Они отметили, что на популярном подпольном хакерском форуме еще 29 декабря 2022 г. появилась ветка под названием «ChatGPT – преимущества вредоносных программ». Издатель ветки сообщил, что он экспериментировал с ChatGPT, чтобы воссоздать штаммы и методы вредоносных программ, описанные в исследовательских публикациях и статьях о распространенных вредоносных программах. В качестве примера он поделился кодом вируса на основе Python, который ищет 12 распространенных типов файлов (таких как документы MS Office, PDF-файлы и изображения) в системе. Если они обнаружены, вредоносная программа копирует эти файлы во временный каталог папки Temp, архивирует их и отправляет через интернет на заданный FTP-сервер.

ЧИТАТЬ ТАКЖЕ:  Где учиться искусственному интеллекту

ИИ и конец человечества

Искусственный интеллект (ИИ) сделал резкий скачок вперед. Одной из нашумевших разработок стало создание генеративной сети ChatGPT, которая ведет себя как настоящий человек, обладающий широкими знаниями в разных сферах. Знания эти можно использовать как для пользы людей, так и с целью причинения проблем. Известнейшие визионеры, среди которых основатель Tesla и SpaceX Илон Маск, бьют тревогу: они всерьез опасаются уничтожения человечества как «побочного эффекта» в гонке за самую крутую генеративную сеть.

«Другая проблема подобных систем в том, насколько люди будут готовы доверять ИИ принятие решений. Ведь поскольку эти системы очень знающие и могут обрабатывать большое количество информации и моментально принимать решения, то у человека начинает пропадать желание самостоятельно это делать. Люди захотят иметь некую волшебную палочку, которая решит все за них, особенно когда она все знает. Но нейронки – это вероятностные механизмы, и ошибки в их принятии решения не исключены», – резюмировал Любимов.

— Все виды искусства и культуры трансформируются. Появятся новые традиции и даже новые виды искусства, появился же киберспорт. Оборотная сторона медали тут тоже возможна: начиная от авторских прав и заканчивая потерей неповторимой индивидуальности, присущей большим художникам, — можно сделать сколько угодно копий их произведений, отредактировать их, попросить нейросеть сгенерировать, например, изображение в стиле художника и т.д.

— Уровень развития искусственного интеллекта, когда у каждого будет свой индивидуальный помощник, требует наличия дешевой энергетики. Если этого не будет, то и прогресс в ИИ будет медленным. Среди источников дешевой энергии может быть, например, новая энергетика или термоядерный синтез. Сейчас разработку мощных нейросетей вроде ChatGPT могут позволить себе только компании с миллиардными инвестициями, такие как OpenAI. В будущем, думаю, будет прогресс в энергетической области, который позволит сделать ИИ массовым.

— Искусственный интеллект можно сравнить с энергией атома. И то и другое можно применять и в мирных целях, и в военных. Все понимают, что ядерная бомба — разрушительная вещь. Искусственный интеллект может быть тоже разрушительным. Во-первых, генеративный ИИ может создавать различные дипфейки и другой контент, где практически невозможно отличить правду от лжи.

— Сейчас международное сообщество не сможет выработать правила игры, это нереально. ИИ — поле для ожесточенной конкуренции, у всех свои интересы и цели. Чтобы избежать угроз, которые несет искусственный интеллект, нужно, чтобы люди, принимающие решения, осознавали всю ответственность и понимали возможные риски.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь