Содержание статьи
Эксперт считает преувеличенной опасность сильного ИИ для человечества
О слабом и сильном ИИ
Такое будущее уже не выглядит сюжетом фантастического рассказа. Во всяком случае, ведущие страны делают ставку на нейросети, заявляя: кто будет лидером в этой сфере, тот будет править миром. Поэтому принимаются национальные программы, выделяются огромные деньги в надежде, что нейросети помогут решать задачи развития государства, которые уже настолько сложны, что мозговые штурмы не могут найти оптимальные ответы. Словом, сейчас ИИ наше все.
Даст какой-то эффект это письмо? Ранее об опасности ИИ и массовой роботизации неоднократно писали тот же Маск, Стивен Хокинг и другие знаменитости. Эхо было громким, но недолгим. Кто согласится остановить гонку? Ведь сказано же: кто будет лидером в сфере ИИ, тот будет править миром.
Технологии ИИ по своему влиянию на человечество в определенном смысле сравнимы с атомным оружием. Речь идет не о взрывах, а о негативных последствиях неконтролируемого применения ИИ. И условиях, в которых сегодня создаются такие системы. Фактически между несколькими крупнейшими фирмами идет, говоря образно, «гонка вооружений» в области ИИ. Сами разработчики не в полной мере представляют, как работают эти «черные ящики», но продолжают стремительно наращивать их «мускулы», открывая для них все новые возможности в самых разных сферах. В такой гонке времени на проверку безопасности систем, на оценку последствий их применения практически нет. Сейчас об этом мало думают, главное — опередить конкурентов.
— Мне кажется, нынешняя ситуация с ИИ напоминает ту, которая сложилась после того, как при самом активном участии ученых в невероятной гонке было создано атомное оружие. А когда его возможности были продемонстрированы, ученые первыми стали думать, как оставить его в арсеналах, обеспечить его неприменение. В итоге было создано МАГАТЭ, которое контролирует многие вопросы в атомной сфере. Между странами подписаны важнейшие документы, где они берут на себя обязательства по неприменению и нераспространению такого оружия.
Агентство Bloomberg в среду опубликовало слова бывшего американского разведчика Эдварда Сноудена, который заявил, что правительства и крупные корпорации пытаются взять под свой контроль технологии искусственного интеллекта, но их действия едва ли увенчаются успехом.
САНКТ-ПЕТЕРБУРГ, 5 июня. /ТАСС/. Опасность для человечества сильного искусственного интеллекта (ИИ), который некоторые эксперты преподносят как страшное оружие, способное поработить весь мир, сильно преувеличена, поскольку при угрозе людям его просто можно отключить от источника электроэнергии или лишить расходных запчастей, без которых он работать не сможет, сказал ТАСС в рамках ПМЭФ один из ведущих отечественных и мировых специалистов в области компьютерных технологий, академик Российской академии наук Игорь Каляев.
«Как показывает история, в том числе и современная, побеждает не тот, кто обладает супер умным и высокотехнологичным оружием, а тот, кто обладает простыми и дешевыми средствами поражения, причем в массовом количестве, кроме того, может выживать и действовать при отсутствии всех благ современной цивилизации. Вспомните, как гунны победили Римскую империю, Вьетнам победил США и так далее. Поэтому и сильный ИИ вовсе не является тем супероружием, с помощью которого можно завоевать весь мир. Если сильный искусственный интеллект, появления которого сейчас многие боятся, будет превращаться в угрозу человечеству, его просто можно отключить от источников электроэнергии, что можно сделать совершенно разными способами, после чего он превратится просто в груду металлолома», — сказал он ТАСС.
В отличие от слабого искусственного интеллекта, сильный ИИ может сам ставить себе задачи, решать их и делать выводы. Это вызывает опасения у многих экспертов, ведь невозможно предугадать, какие цели поставит себе сильный ИИ, и к каким последствиям это приведет, в том числе для всего человечества. Пока что сильный искусственный интеллект не создан, но ученые продолжают исследования в этой области.
Эксперты про опасность ИИ
Итальянское управление по защите персональных данных первым в мире ввело временное ограничение на использование чат-бота ChatGPT на территории страны. Регулятор обвинил разработчика в нарушении законодательства о персональных данных после произошедшей утечки. В результате массового сбоя ряд пользователей смогли увидеть сообщения людей, общавшихся с чат-ботом, а также их имена, фамилии, электронные адреса и платежную информацию платных подписчиков сервиса, включая последние четыре цифры и сроки действия кредитных карт.
Примерами слабого искусственного интеллекта являются ChatGPT от OpenAI и YandexGPT, которые основаны на технологии нейросетей. Слабый AI ограничен в своих возможностях и не способен к самостоятельному обучению и адаптации. Он работает на основе алгоритмов и правил, заданных разработчиками.
И еще подчеркну такой момент. Почему мы вообще заговорили про ИИ, про нейронные сети? На самом деле только сейчас там начинают разворачиваться основные события. Ведь за последние 35 лет производительность компьютеров увеличилась в 1 млрд раз. Что это означает? Если раньше задача решалась десять лет, то сейчас за 0,3 секунды.
В частности, американский миллиардер Илон Маск в апреле предупредил об опасности обучения искусственного интеллекта политкорректности, указав, что подобный ИИ вместо генерации толерантных изображений мог бы «воплотить их в реальность, вероятно, чтобы убить миллионы людей и достичь целей разнообразия».
В принципе ситуация с ИИ не новая. Она возникает каждый раз, когда речь идет о появлении революционной технологии. Она может приносить как огромную пользу, так и огромный вред. Вопрос в том, сумеет ли человечество правильно и вовремя распорядиться этим достижением науки.
Сейчас в нейронных сетях начинает появляться другая модель нейронов, так называемые спайковые модели и другие. И самое важное — появилась новая, «нефоннеймановская» архитектура, которая позволяет более эффективно производить вычисления, появляется новый вид памяти. Сегодня у любого процессора 40% занимает память по площади, по энергетике. Мы ожидаем в ближайшие 10 лет мультипликативные эффекты в 100 тыс. раз, что намного расширит возможности нейронных сетей. Многое в жизни будет меняться. Перед этим взрывом важно остановиться и еще раз просмотреть законодательную базу по ИИ.
Сноуден предупредил, что представители больших корпораций могут попытаться внедрять свои взгляды и политику в «мощные модели [ИИ] и навязывать их». Вместе с тем он считает, что попытки поставить ИИ под свой контроль не будут иметь успеха из-за «слишком быстрого развития» этой технологии, добавляет Bloomberg.
Обращение Илона Маска, Стива Возняка и еще более тысячи исследователей искусственного интеллекта, которые призвали немедленно приостановить обучение систем на основе ИИ, вызвало сильнейшее эхо в СМИ и соцсетях. Ситуацию подогрела мировая новость, что чат-бот Элиза спровоцировал на самоубийство эколога в Бельгии. Звучат требования, пока не поздно, остановить безответственных ученых, которые из собственного любопытства готовы поставить человечество на грань выживания.