Каковы ограничения искусственного интеллекта
Резюме
Одним из главных событий прошлого года стало появление чат-бота ChatGPT и подобных ему систем, таких как Midjourney. Чат-боты на основе нейронной сети способны самостоятельно генерировать тексты, вести диалог с человеком, запоминая контекст, сочинять стихи, рисовать. При этом созданные нейросетью произведения уникальны, а не скопированы из базы знаний.
Далее гипотеза ученого касается интерпретации воли человека и искусственного интеллекта. «Воля человека, по-видимому, является характеристикой непреложного стремления к реализации некой цели. Исходная базовая цель человека как возникшего однажды живого организма, как естественного интеллекта состояла в стремлении биологически выжить. В дальнейшем эта цель для своей гарантии усиливалась новыми вложенными целями: умножиться, развиться, покорить физические процессы, создать новые технологии и инструменты, осуществить космическую экспансию. Одна из таких инструментальных вложенных целей состоит в создании человеком искусственного интеллекта, который будет способен автономно принимать решения, помогая человеку выживать более качественно. Однако базовая цель человека не изменялась.
В России также готовится законопроект о регулировании в сфере ИИ. Как сообщил в апреле 2023 г. зампред комитета Госдумы по информационной политике Антон Горелкин, особое внимание в документе будет уделяться защите рынка труда от негативного влияния ИИ. Законопроект должен определить ответственность за разработку систем ИИ и создаваемый с их помощью контент и исключить использование технологии мошенниками.
США усиливают международное сотрудничество в области ИИ. Так, буквально на следующий день после подписания Джо Байденом рассматриваемого указа вице-президент Камала Харрис приняла участие в первом международном саммите по безопасности ИИ, организованном Великобританией. По его итогам была принята Декларация Блетчли 4 , фиксирующая обязательства государств 5 регулировать развитие технологий ИИ.
Стремительный рост популярности генеративных языковых моделей (в частности, ChatGPT) в мире актуализировал дискуссии о необходимости регулировать искусственный интеллект (ИИ). Институт статистических исследований и экономики знаний НИУ ВШЭ сопоставил первые законодательные инициативы в этой сфере, принятые или обсуждаемые на уровне правительств в Евросоюзе, Китае, России и США.
Данный материал ИСИЭЗ НИУ ВШЭ может быть воспроизведен (скопирован) или распространен в полном объеме только при получении предварительного согласия со стороны НИУ ВШЭ (обращаться issek@hse.ru). Допускается использование частей (фрагментов) материала при указании источника и активной ссылки на интернет-сайт ИСИЭЗ НИУ ВШЭ (issek.hse.ru), а также на автора материала. Использование материала за пределами допустимых способов и с нарушением указанных условий приведет к нарушению авторских прав.
Согласно законопроекту, для систем ИИ, используемых для биометрической идентификации, потребуется оценка со стороны специализированного органа. Особые правила вводятся и для так называемых фундаментальных моделей — систем на основе ИИ, способных компетентно выполнять широкий спектр задач: создание видео, текста, изображений, программного кода. К этой группе относятся и системы генеративного ИИ (одной из них является ChatGPT): их разработчики будут обязаны сообщить, какие объекты авторского права использовались для обучения модели.
Достигнув экрана наблюдения, частица фиксирует свое местоположение, а ее волновая функция «схлопывается». Таким образом, частица появляется на экране, реализовывая свою вероятность только в момент наблюдения. В остальные моменты частица может находиться где угодно.
Новые вызовы
«Гиперспектральные камеры — одна из наших востребованных технологий. Она используется не только в спутниках и беспилотниках, но может устанавливаться на обычные смартфоны. С помощью камеры на телефоне делается снимок, определяющий химический состав продуктов. Потребитель получает информацию о полезности того или иного продукта. В перспективе технология может стать крайне успешным коммерческим проектом», — рассказал Артем Никоноров.
Весной 2023 г. ученые и представители ИТ-индустрии опубликовали открытое письмо с призывом приостановить хотя бы на полгода обучение систем ИИ мощнее ChatGPT 4, чтобы за это время разработать соответствующие протоколы безопасности. В мае Сэм Альтман, глава компании OpenAI, разработавшей ChatGPT, заявил о необходимости создать специальное агентство для лицензирования систем ИИ, чтобы снизить риски использования технологии. Тогда же стали появляться новости о разработке и принятии законов в области регулирования ИИ различными странами. На данный момент более всего проработаны три законодательных инициативы (табл. 1).
В основе законопроекта лежит риск-ориентированный подход: документ подразделяет системы ИИ на запрещенные вредоносные ИИ-практики 1 ; высокорисковые системы ИИ, на которые как раз и распространяются большинство регуляторных мер 2 ; системы ограниченного риска, разработчики которых должны соблюдать требования обеспечения прозрачности процессов; системы с низким или минимальным риском, на которые не налагаются никакие ограничения.
Пока искусственный интеллект выполняет вложенные в него создателями цели, он выступает только дополнительной степенью свободы человека и является составной частью реализации человеческой воли. Если искусственный интеллект сможет переопределить в составе своей программной логики базовую цель человека, когда новая цель ИИ перестанет быть сонаправленной с реализацией базовой цели человека и ее вложенными целями, то можно будет констатировать, что у ИИ возникнет собственная воля. Ее далее он будет исполнять независимо от человека, получив собственную „свободу воли“. Пока что мы не знаем, возможно ли это и что это будет за цель. Однако если мы это каким-то образом обнаружим, то сам этот факт будет являться маркером наличия возникшей самостной воли ИИ», — заключает ученый.
В декабре 2023 г. Европарламент и Евросовет после трехдневного обсуждения согласовали положения Закона об искусственном интеллекте (AI Act). Документ призван защитить от высокорискового искусственного интеллекта (ИИ) гражданские права и демократию, обеспечить верховенство закона и экологическую устойчивость, стимулировать инновации и вывести Европу в лидеры в области ИИ. Еврокомиссар по вопросам внутренней торговли и услуг Тьерри Бретон назвал декабрьское согласование положений «историческим», заявив, что ЕС стал «первым континентом, установившим четкие правила в сфере ИИ».
«Несмотря на то, что происходящее похоже на преодоление теста Тьюринга, но целепологание при прохождении теста было все-таки на стороне человека. Субъективности у искусственного интеллекта не появилось. Слабый ИИ решает задачи великолепно, до сильного ИИ с человеческим разумом нам еще очень далеко», — уверен Артем Никоноров.
В отношении высокорисковых систем ИИ вводятся следующие правила. Для обеспечения прозрачности компании-разработчики, а также государственные организации, использующие в своей работе решения на базе ИИ, будут обязаны зарегистрироваться в базе данных ЕС по высокорисковым системам ИИ, управляемой Еврокомиссией. Причем разработчики обязаны регистрировать свои продукты в общеевропейской базе данных еще до вывода их на рынок или ввода в эксплуатацию. Высокорисковые системы ИИ должны соответствовать требованиям по риск-менеджменту, тестированию, технической надежности, обучению и управлению данными, прозрачности, кибербезопасности и управляемости людьми. Поставщикам за пределами Евросоюза потребуется уполномоченный представитель в ЕС, который обеспечит оценку соответствия, создаст систему постмаркетингового мониторинга и, при необходимости, предпримет корректирующие действия.
Параллельно с этим в 2018 году, утверждает Артем Никоноров, началось переосмысление этих технологий. Стало очевидно, что потребность нейронных сетей глубокого обучения в огромных массивах данных можно удовлетворить далеко не для всех задач. Сами же нейронные сети запоминают только статистику решения задач, но логикой по-прежнему не обладают.