Содержание статьи
Эксперт считает преувеличенной опасность сильного ИИ для человечества
Эксперты про опасность ИИ
Несколько ведущих мировых экспертов в области цифровых технологий на протяжении последних лет высказывают опасения, что развитие сильного ИИ может привести к серьезным проблемам для людей, такой искусственный интеллект способен стать угрозой существования человечества.
Агентство Bloomberg в среду опубликовало слова бывшего американского разведчика Эдварда Сноудена, который заявил, что правительства и крупные корпорации пытаются взять под свой контроль технологии искусственного интеллекта, но их действия едва ли увенчаются успехом.
Италия первой в мире временно запретила доступ к ChatGPT. Итальянский регулятор обвинил разработчика OpenAI в нарушении сохранности персональных данных после утечки. Из‑за сбоя некоторые пользователи могли видеть чужие сообщения, а также имена, фамилии, имейлы и платежную информацию платных подписчиков сервиса.
«Искусственный сверхинтеллект не станет долго оставаться запертым внутри компьютеров, — рассуждает эксперт. — В современном мире уже можно послать цепочки ДНК в лаборатории, чтобы там изготовили из них белки, которые позволят ИИ создать искусственную форму жизни. Или можно сразу загрузить себя в постбиологические молекулы».
Аналитики из инвестиционного банка Goldman Sachs предполагают, что нейросети, построенные на модели ChatGPT, лишат работы 300 млн человек — и это только в США и ЕС . К похожим выводам пришли и исследователи из Университета Пенсильвании и OpenResearch: ИИ может выполнять половину задач 49% распространенных профессий. Из них под наибольшей угрозой веб-дизайнеры, математики, копирайтеры и блокчейн-инженеры. Риски довольно высоки даже для топ-менеджеров, но при этом почти не касаются сфер, где требуется физический труд.
В письме говорится о «неконтролируемой» гонке лабораторий, которые стремятся разработать все более и более мощные системы искусственного интеллекта, однако никто, включая создателей, «не может понять, предсказать или контролировать» их действия. Авторы письма призывают сделать паузу в разработках как минимум на полгода, чтобы человечество смогло оценить риски, связанные с развитием искусственного интеллекта, и убедиться, что он безопасен. Если же такую паузу нельзя взять быстро, то «правительства должны вмешаться и ввести мораторий».
Мы все потеряем работу?
В последние недели обсуждение и без того нашумевшего ChatGPT вышло на новый уровень. Рядовые специалисты готовятся к скорой потере работы, а первые лица мировых ИТ заявляют об опасности для всего человечества. «Афиша Daily» разбирается, чем всех так пугает искусственный интеллект.
Юдковский предлагает ввести бессрочный и глобальный мораторий на обучение всех крупных моделей, не делая исключений даже для правительств и военных. Более того, если запрет будет нарушен, он считает целесообразным уничтожать дата-центры авиационными или ракетными ударами.
«Как показывает история, в том числе и современная, побеждает не тот, кто обладает супер умным и высокотехнологичным оружием, а тот, кто обладает простыми и дешевыми средствами поражения, причем в массовом количестве, кроме того, может выживать и действовать при отсутствии всех благ современной цивилизации. Вспомните, как гунны победили Римскую империю, Вьетнам победил США и так далее. Поэтому и сильный ИИ вовсе не является тем супероружием, с помощью которого можно завоевать весь мир. Если сильный искусственный интеллект, появления которого сейчас многие боятся, будет превращаться в угрозу человечеству, его просто можно отключить от источников электроэнергии, что можно сделать совершенно разными способами, после чего он превратится просто в груду металлолома», — сказал он ТАСС.
Сноуден предупредил, что представители больших корпораций могут попытаться внедрять свои взгляды и политику в «мощные модели [ИИ] и навязывать их». Вместе с тем он считает, что попытки поставить ИИ под свой контроль не будут иметь успеха из-за «слишком быстрого развития» этой технологии, добавляет Bloomberg.
Один из самых больших пессимистов среди экспертов ИИ Элиезер Юдковский, работающий в этой области более 20 лет, тоже не подписал это письмо — но только потому, что предложенные меры показались ему слишком мягкими. «Многие исследователи, и я в том числе, полагают, что самым вероятным исходом создания сверхчеловечески умного ИИ при любых условиях, хоть отдаленно напоминающих нынешние, будет буквальная гибель всех на Земле», — утверждает Юдковский в своей колонке для Time. Специалист уверен, что, если у такого ИИ не будет жестких мер сдерживания, он не станет действовать в интересах человечества.
В конце марта было опубликовано открытое письмо с призывом по меньшей мере на полгода остановить обучение нейросетей мощнее GPT-4. Его подписали более 50 тыс. человек, многие из них напрямую связаны с разработкой или изучением искусственного интеллекта. Среди прочих инициативу поддержали Илон Маск, сооснователь Apple Стив Возняк и писатель Юваль Ной Харари.