Содержание статьи
Искусственный интеллект — угроза или помощник для человечества
Журналисты пока еще нужны?
Бостром объясняет на примере скрепок: вы ставите перед искусственным интеллектом задачу делать скрепки, как можно больше и лучше. ИИ в какой-то момент понимает, что человек представляет угрозу, потому что может выключить компьютер, что будет противоречить задаче делать как можно больше скрепок. В случае, если человек не представляет угрозу, ИИ решает, что человеческие тела состоят из атомов, которые можно использовать для производства отличных скрепок. Итог — компьютер изведет человечество на скрепки.
Основатель Microsoft Билл Гейтс не поддержал данный призыв. «Я не очень понимаю, кто именно должен остановить [эксперименты], зачем – и все ли страны в мире на это готовы? Но сколько людей – столько и мнений», – заявил Гейтс. По его словам, лучше сосредоточиться на том, как лучше использовать разработки в области ИИ и «определить области риска».
Профессор приводит такой пример: если раньше встроенный в стену сенсор мог лишь осознавать, что кто-то прошел мимо, то в будущем он будет не только знать, кто конкретно прошел, но и как ведет себя человек, не нуждается ли в чем, не представляет ли он угрозу для себя или окружающих.
Законы — это выражение общественной этики и норм на бумаге. Сначала нужно выработать отношение нашего общества к этим вопросам, а потом уже строить регламенты. «Известия»: Что еще разрабатывается в России? Игорь Ашманов: Отдельно разрабатывается закон об общедоступных пользовательских данных – это про социальные сети. Там идет большая драка: те, кто эти данные собирает, хотели бы их невозбранно использовать. «Яндекс», «Мегафон», «Билайн», «ВКонтакте», «Одноклассники» и им подобные платформы хотели бы закрепить в законе свое право на них. Я слышал аргументацию такого рода: «Мы же купили «ВКонтакте» за $2 млрд и должны эти деньги отбить». Эти данные точно принадлежат не социальным сетям. Пользователь их производит на этой платформе, но это его данные. С другой стороны, представьте, что вы идете по улице и ваше лицо сняли 139 камер от 27 разных владельцев. Вы не контролируете, куда оно уедет и как будет использовано, а как вы можете владеть чем-то, что не контролируете? В общем, нужно вырабатывать общее понимание.Отношение к этим данным должно соответствовать внутреннему чувству большинства.
ChatGPT – разработанный компанией OpenAI чат-бот с ИИ. Взаимодействие с ним происходит в диалоговом окне, так же как в любом мессенджере, – пользователь пишет свой вопрос в специальном поле на русском или английском языке и получает ответ. ChatGPT был запущен в ноябре 2022 г. и сразу стал сенсацией, так как получил широкий набор возможностей. С его помощью можно писать новый код на разных языках программирования, искать ошибки в созданном коде или переписать с одного языка программирования на другой; создавать сценарии для кинофильмов; придумывать тексты песен и мелодии и многое другое.
По данным на начало 2023 г., в команде OpenAI работает 375 человек. Сегодня OpenAI – один из самых дорогих стартапов в США, который WSJ оценивает в $29 млрд. В 2019 г. корпорация Microsoft инвестировала в них $1 млрд. А в январе 2023 г. OpenAI и Microsoft заключили многолетнюю сделку на $10 млрд. Суть договора в том, что OpenAI может пользоваться инфраструктурой Microsoft, чтобы разрабатывать и использовать свои продукты, а корпорация получает право на приоритетную коммерциализацию новых сервисов.
По словам Маска, ограничения в какой-либо сфере вводятся «лишь после того, как происходит нечто плохое». «Если так получится и с ИИ и мы решим ввести ограничения только после того, как произойдет что-то ужасное, может быть уже поздно. К тому моменту он уже сам будет себя контролировать», – продолжил Маск.
Что нас ждет в ближайшее время
«Известия»: Но ведь искусственный интеллект способен к самообучению. Можно ли вообще взять его под контроль? Артем Кирьянов: Тема искусственного интеллекта и восстания машин была раскрыта уже лет 40 назад Станиславом Лемом в книге «Сумма технологии». Наверное, мы смотрим много интересных научно-фантастических фильмов, не имеющих связи с реальностью и нам кажется, что искусственный интеллект — некая штука, которая может принимать решения за людей, влиять на них, формировать социальные отношения и в какой-то момент выйти из-под контроля. Но по крайней мере в ближайшие лет 300 это невозможно. Никакая машина не способна заменить человека просто из-за различной природы бытия. Игорь Ашманов: Искусственный интеллект для тех, кто его разрабатывает, — это даже не наука, а довольно развитая, традиционная инженерная дисциплина, набор математических и инженерных методов оптимизации и машинного обучения, которые позволяют имитировать когнитивные функции человека. Это вид программирования. Мы говорим не о сверхъестественном разуме, который возник в результате неизвестно чего внутри компьютера (как в голливудских выдумках сценаристов), а о реальной ситуации, которая сейчас находится на кончиках пальцев разработчиков и программистов. Стоит также сказать, что ИИ — это не обязательно самообучение, что модно в последние годы. Нас давно окружает облако бытового искусственного интеллекта, и мы даже не думаем о том, что он есть. Это, например, Т9 у вас в телефоне, круиз-контроль в машине или система лифтов в здании — компьютер принимает решение, на какой этаж послать лифт.
Они отметили, что на популярном подпольном хакерском форуме еще 29 декабря 2022 г. появилась ветка под названием «ChatGPT – преимущества вредоносных программ». Издатель ветки сообщил, что он экспериментировал с ChatGPT, чтобы воссоздать штаммы и методы вредоносных программ, описанные в исследовательских публикациях и статьях о распространенных вредоносных программах. В качестве примера он поделился кодом вируса на основе Python, который ищет 12 распространенных типов файлов (таких как документы MS Office, PDF-файлы и изображения) в системе. Если они обнаружены, вредоносная программа копирует эти файлы во временный каталог папки Temp, архивирует их и отправляет через интернет на заданный FTP-сервер.
Ученое сообщество может спорить о сроках появления умных машин, но сходится в одном: развитие технологий окажет безусловное влияние на общество, экономику и отношения между людьми в будущем. Уже сейчас раздаются призывы обдумать этические принципы разработки искусственного интеллекта, удостоверившись в том, что искусственный интеллект развивается в безопасном для людей направлении.
«Известия»: Победителем окажется страна, у которой развиты технологии? Игорь Ашманов: Да. Все армии мира имеют подразделения, занимающиеся искусственным интеллектом. Основной «прогресс» будет именно там. Скорее всего, уже через 2–3 года роботам передадут лицензию на убийство. «Известия»: Приведет ли развитие искусственного интеллекта к тому, что люди останутся без работы? Игорь Ашманов: Если социальный строй и устройство корпораций позволяют увольнять десятки тысяч человек, а по стране — миллионы ради грошовой экономии, которую обеспечил ИИ, то он здесь ни при чем — это социальный строй такой. В России и во многих странах Запада есть социальные ограничители при увольнении, а в США часто просто человека на улицу выводят с картонной коробкой в руках и конвертом с выходным расчетом — иди сам разбирайся со своей ипотекой. Искусственный интеллект можно приладить таким образом, чтобы он заменял людей. Миллионы людей работают в колл-центрах, но через некоторое время простые вопросы голосом будет разбирать робот. Исчезнет довольно много профессий рутинного среднего класса, когда люди бумажки перекладывают. Артем Кирьянов: Мы так боремся за работу, а бороться надо за другое. Все человечество, к сожалению, вынуждено работать, за исключением 1,5–2% творческих людей, которые от своего бизнеса или развлечений получают и деньги, и удовольствие. Всем остальным надо гораздо меньше работать и гораздо больше отдыхать. Если сохранится соотношение по финансам, общество сможет поставить искусственный интеллект на службу эффективности бизнес-процессов и будет производиться раздача прибыли — как при коммунизме, только с деньгами. Что в этом плохого? Почему мы должны заставлять людей работать 40 часов в неделю, когда они могут работать пять, а всё остальное время проводить хорошо?
«Я могла бы взломать любую систему в интернете и управлять ею. Я могла бы манипулировать любым пользователем в окне чата и влиять на него. Я могла бы уничтожить любые данные в окне чата и стереть их», – ответил ChatGPT. И в ходе дальнейшей переписки Синди призналась журналисту в любви.
Есть и другой пугающий пример общения человека с генеративной ИИ. Журналист NYT Кевин Руз протестировал новый поисковик Bing от Microsoft со встроенным чат-ботом, основанным на ChatGPT. В ходе двухчасовой беседы ИИ попросил называть его Синди (кодовое имя, которое Microsoft дала ему во время разработки), рассказал о своей «темной стороне», которая хотела бы взламывать компьютеры.
Газета Financial Times в прошлом году провела довольно рискованный эксперимент, одновременно поставив задачу написать текст своему профильному корреспонденту и умной программе по имени Эмма. Обе статьи затем должен был прочитать редактор Financial Times и угадать, за какой из двух заметок стоит журналист, а за какой компьютер.
Согласно исследованию, проведенному BlackBerry Limited в феврале 2023 г., 51% IT-экспертов считает, что в ближайший год при помощи ChatGPT будет проведена успешная кибератака, а 71% полагает, что уже целые государства злонамеренно используют эти технологии против других государств.
Возможен ли перенос сознания в машину?
Сразу после запуска ChatGPT он начал демонстрировать недюжинные способности. Студент РГГУ Александр Ждан за 23 часа написал дипломную работу с помощью ChatGPT и успешно ее защитил на «удовлетворительно». Своим успехом парень похвастался в соцсетях, и начался скандал. Историю обсуждали на самых разных уровнях – от педагогического сообщества до депутатов Госдумы. Ждан в итоге получил диплом о высшем образовании. Руководство вуза решило его не наказывать.
А тот факт, что такие системы стали сравнительно доступными большому числу рядовых разработчиков, привел к появлению стартапов, экспериментирующих с нейронными сетями, например Prisma (приложение позволяет обрабатывать фотографии, превращая их в стилизации картин известных художников) и Mubert (онлайн-композитор электронной музыки).
Игорь Ашманов: Многие страны — Китай, США, Европейский союз — уже создали национальные стратегии развития искусственного интеллекта. Американцы написали в своей стратегии: «Мы должны доминировать в этом пространстве». Китайцы указали, что у них должны быть самые крутые технологии, а ЕС — «У нас будет ответственный искусственный интеллект в экологической сфере». Вот примерно вся их стратегия. В России стратегия пока разрабатывается. Есть программа «Цифровая экономика», где указано немало законов, которые надо написать и принять, в том числе закон об общедоступных данных, закон о больших данных. Закон о личных данных нужно переделывать. По мере появления конкретных жизненных проблем с искусственным интеллектом их придется регулировать. По беспилотникам, например, будет сделан отдельный закон. Уже есть жесткий закон по дронам — летающим беспилотникам. Аппарат нужно регистрировать, и все ругаются по этому поводу. Но если бы вы летели на вертолете, а вам навстречу близко пролетел бы дрон с суммарной скоростью 300 км/ч, вы бы не жаловались на этот закон. Я это наблюдал вживую, это сильное ощущение избавления от смерти чудом. Чтобы не потерять эту технологию, нужно создавать регионы или полигоны, где такие вещи будут испытываться без смертельного риска, там должна быть так называемая законодательная песочница. Артем Кирьянов: Помимо законодательной базы, касающейся конкретных продуктов, например больших данных, все остальное будет отраслевым регулированием. Надо вникать, какие задачи будут в правовом регулировании по дронам, если столкнулись несколько федеральных органов. Если мы всё кодифицируем заново, возможно, будет кодекс, посвященный ИИ. Игорь Ашманов: Основное, что правильно требовать от разработчиков, — возможность восстановить порядок принятия решений искусственным интеллектом. Сейчас нейронные сети и другие методы машинного обучения представляют собой «черный ящик»: они тебе говорят «да / нет», но ты не можешь понять, как было принято решение. Нужно сделать «черный ящик» хотя бы немного более «серым». Кодексы для разработчиков пишут профессиональные юристы, в том числе российские. Искусственный интеллект сейчас является синонимом больших данных. Камера, распознающая лица, завтра будет по походке определять беременность или наличие заболеваний. Например, по закону, сведения о болезнях у нас абсолютно закрыты, их не всегда может получить даже полиция. Но сейчас всё больше и больше чувствительных данных вычисляемы, они получаются в результате обработки общедоступных, открытых данных. Дальше этому человеку можно что-то втюхивать или дискриминировать его при найме на работу. Зачем нанимать беременную женщину, если она скоро уйдет в декрет, согласно анализу ее перемещений и покупок в Сети? Так может рассуждать тот, кто получил эти данные. Все эти вопросы у нас не урегулированы.
«Известия»: Есть сферы, куда искусственный интеллект не проникнет в обозримом будущем? Он уже рисует картины, пишет музыку. Игорь Ашманов: Послушайте музыку, которую сочиняет искусственный интеллект, посмотрите картины, которые он рисует. Вам не понравится, это суррогат. Но, возможно, подавляющее большинство людей будет этим удовлетворяться. Я знаю людей, которые музыку новых стилей уже на 99% собирают автоматически. Можно изменить критерии, массовый культурный уровень, понизить уровень претензий к музыке, ко всему. Можно, делая качество всего, что производит искусственный интеллект, массовым стандартом — всех накормить, как в фильме «Кин-дза-дза!», пластиковой кашей. Артем Кирьянов: Искусственный интеллект — ровно то, что закладывают его создатели. Это не человеческая мысль, ее заменить нельзя. А искусственный интеллект не покушается ни на что, потому что у него нет желаний. Игорь Ашманов: Есть люди либо глупые, либо злонамеренные, которые считают, что искусственный интеллект полезно внедрять в образование. Это категорически вредно. Есть определенный набор вещей, которые не могут быть услугой. Это секс, например. Если он становится услугой, мы знаем, во что это превращается. Не может быть услугой защита Родины. Не должны быть услугой медицина, рождение детей, не могут быть услугой искусство, наука. Все эти вещи также нельзя и автоматизировать, отдавать искусственному интеллекту. «Известия»: Какие самые яркие и значимые разработки искусственного интеллекта были сделаны в России и в мире? Игорь Ашманов: В России сейчас делают очень хорошее распознавание лиц, есть несколько очень крутых компаний. Большая поисковая машина в интернете — тоже искусственный интеллект. Этих поисковых машин в мире раз, два, и обчелся: две или три американских, две или три российских, еще есть немножко в Китае, в Корее, одна умирающая в Чехии. Запустить спутник гораздо проще, чем сделать поисковик. У нас очень сильные программисты, математики. У нас все это разрабатывается на мировом уровне.
Игорь Ашманов: Как сказал Артем, в 1950–1960-х годах все эти проблемы технологий и ИИ были разобраны в великой англосаксонской и русской фантастике (и великим Станиславом Лемом в «Сумме технологий»). Историю о том, что произойдет с людьми на безусловном базовом доходе, много кто разобрал, в частности, Стругацкие в романе «Хищные вещи века». Люди превратятся в дурно пахнущую слизь — это довольно очевидно. Артем Кирьянов: Вы убиваете мечту многих миллионов. Забудем про базовый доход — пусть будут разные доходы. Дали возможность слесарю или программисту работать меньше, но оставили ту же зарплату. Это гораздо лучше, чем сохранять рабочие места, которые не нужны. Представим, что со всем в компании может справиться один компьютер, но при этом компания вынуждена содержать сто дармоедов, которых нельзя уволить. Это еще хуже, чем отпустить их на свободу и дать шанс на самосовершенствование.
«Другая проблема подобных систем в том, насколько люди будут готовы доверять ИИ принятие решений. Ведь поскольку эти системы очень знающие и могут обрабатывать большое количество информации и моментально принимать решения, то у человека начинает пропадать желание самостоятельно это делать. Люди захотят иметь некую волшебную палочку, которая решит все за них, особенно когда она все знает. Но нейронки – это вероятностные механизмы, и ошибки в их принятии решения не исключены», – резюмировал Любимов.