Что такое квантовая нейросеть

0
22

Квантовые нейронные сети на процессорах будущего

Представление

Теперь мы хотим немного изменить параметры 𝚹, чтобы уменьшить потери. Можно сделать это, выбрав близкие случайные значения или посчитав градиент по отношению к 𝚹, а затем сделать небольшой шаг в направлении уменьшения. Теперь у нас есть новые параметры 𝚹 1 . Мы можем взять следующую строку обучающей выборки и снова оценить потери. Затем немного изменить 𝚹 1 , чтобы опять уменьшить потери — и так далее. Эту операцию можно продолжать до тех пор, пока мы не найдём параметры, при которых получим правильные метки для входной строки.

Лучше всего понять адекватность и применимость какой-то технологии, особенно основанной на комплексном научном базисе, позволяет как раз таки ее применение — чего удалось добиться кому-то на практике и насколько результаты пригодны для того, чтобы хвататься за технологию. Вместе с тем, практические результаты дадут нам глубже понять и в последствии объяснить, как гибридные сети работают под капотом. Приведём два примера, которые хорошо показывают разницу в ограничениях при использовании полностью квантовых и гибридных квантово-классических сетей.

В первом примере была построена полностью квантовая генеративная состязательная сеть, задачей которой являлось воспроизвести MNIST, однако у всего эксперимента был один нюанс. Из-за текущего размера квантовых вычислителей было предложено уменьшить размерность MNIST с 784 до 4 при помощи метода главных компонент (PCA), чтобы его хоть как-то можно было отправить в квантовую схему. Очевидно, сеть такого размера не в состоянии тягаться с классическими сетями на десятки тысяч весов, поэтому конечным результатом стало сравнение по количеству весов при идентичных результатах. Полностью квантовая сеть смогла получить такие же результаты, как и классическая, при это имея на 95% меньше параметров. Эти результаты всё ещё поднимают вопрос того, будут ли они справедливыми для моделей, адекватно справляющихся с задачей.

Снова рассмотрим бинарную классификацию. Разделим выборку на классы с метками +1 и –1. Каждое из наших состояний можно рассматривать как пакет, содержащий все образцы с одинаковой меткой. Пакетное обучение тоже предполагает две стратегии. Сначала мы объединяем различные выборки в единичные состояния суперпозиции, а затем оцениваем градиент для подходящей функции потерь. В качестве альтернативы мы можем вычислить градиенты каждой выборки за раз, а затем усреднить их, как это делается в традиционном пакетном обучении. Здесь мы рассматриваем первый подход.

Теперь перейдём к квантовому классификатору. Мы решили ограничить набор операций для унитарных единиц: он состоит из оператора для единичных кубитов и оператора для пар кубитов. Примем оператор для единичных кубитов 𝝨 за X, Y и Z, действующие на любой из 17 кубитов. Для пары кубитов мы принимаем 𝝨 за XY, YZ, ZX, XX, YY и ZZ. В контексте квантового компьютера эти операторы называются вентилями. Вентиль — это базовый элемент квантовой машины, преобразующий входные состояния кубитов на выходные по определённому закону.

Мы провели простой численный эксперимент. Работая с 8 кубитами данных и одним выходным кубитом, мы составили кубический граф с 12 рёбрами. Для обучающих и тестовых наборов состояния формируются случайном образом, поэтому мы можем быть уверены, что эти выборки различны. После представления примерно 1000 тестовых состояний квантовая сеть правильно классифицировала 97% из них.

Введение#

Наш пример демонстрирует, что нейронная сеть может классифицировать квантовые состояния и обобщать результат на новых данных. Предупреждение: состояния, которые мы использовали для обучения и тестирования QNN, происходят от простых унитарных единиц. Мы описали метод, который можно применять в квантовой метрологии или других применениях сетей, классифицирующих квантовые состояния.

55000 примеров разбиты на группы по 5500 для каждого числа. Но при более детальном рассмотрении мы видим, что выборки, скажем, для цифры 3, состоят из 797 16-битных строк, а для цифры 6 — из 617. Многие изображения размыты, и на самом деле для цифр 3 и 6 существует только 197 строк. В нашей задаче мы решили полностью исключить ошибку Байеса, удалив неоднозначные строки.

Ученые уже давно используют симбиоз предсказательных алгоритмов и квантовых вычислений. Например, физики используют машинное обучение для предсказания динамики многочастичных систем, на которых строятся кубиты, а квантовые вычисления, в свою очередь, могут помочь ускорить классические алгоритмы обучения. Одна из областей такого машинного обучения включает в себя создание квантовой нейросети, способной обучаться на квантовых данных. Для создания такой сети ученым необходимо реализовать искусственный нейрон в квантовых системах, разработать архитектуру сети и модель обучения.

Алгоритмы машинного обучения обладают высокой вычислительной сложностью. Сейчас, когда мощность классических компьютеров перестает расти (начинает нарушаться закон Мура), необходим новый подход к обучению, что влечет за собой фундаментально другую реализацию нейросети. В то же время квантовые устройства, способные превзойти классические компьютеры в определенных задачах, позволяют реализовать квантовое машинное обучение.

ЧИТАТЬ ТАКЖЕ:  Нейросеть которая меняет фон на фото

Тем не менее, есть задачи, реализуемые только на квантовом устройстве — например, при больших размерах данных преимущества такого подхода были бы более очевидны. Квантовые процессоры, которые появятся в ближайшем будущем, смогут обрабатывать только небольшое число входных переменных. В этом случае применение QNN к реальным задачам может быть ускорено с помощью квантово-гибридной архитектуры: первые слои нейронной сети реализуются классическим способом, и только конечные (обычно самые маленькие) выглядят как QNN. Мы надеемся, что в скором времени можно будет создать полномасштабную модель и реализовать весь потенциал квантовых нейронных сетей.

Далее мы расширили набор вентилей за пределы диагональных, выбрав XX и ZX, где первый кубит — кубит данных, а второй — кубит считывания. Нам снова удалось приблизить эмпирический риск к 0.5, и квантовая нейронная сеть имела низкую категориальную ошибку на тестовом наборе.

Законы квантовой механики в теории позволяют создать новый тип вычислительных машин, способных решать сверхпроизводительные задачи, недоступные даже самым мощным современным суперкомпьютерам. Квантовые процессоры смогут манипулировать огромными объёмами данных за один проход и моделировать нейронные сети экспоненциального размера. В этой статье мы расскажем об особенностях и преимуществах квантового искусственного интеллекта по сравнению с классическим машинным обучением.

В статье мы рассмотрели конкретную структуру для построения квантовых нейронных сетей, которые можно обучать с помощью классических и квантовых данных. Ограничение состоит в том, что на обычном компьютере можно смоделировать только небольшое квантовое устройство. Основываясь на этом, мы не можем обосновать какое-либо преимущество квантовых сетей перед традиционным обучением, поскольку в мире не существует аналогичных моделей для обработки квантовых состояний. Мы продемонстрировали, что квантовые нейронные сети могут использоваться в классификации данных.

А теперь сразу пакетом

Наша квантовая нейросеть моделируется на обычном компьютере. Ограничение будет состоять в том, что мы сможем обрабатывать только 16-битные данные с помощью классического симулятора 17-кубитового квантового компьютера с одним битом считывания. Поэтому будем использовать уменьшенную версию MNIST с изображениями 4 на 4 пикселя. С одним битом считывания у нас не получится взять все 10 меток (от 0 до 9), поэтому мы выберем две цифры — например, 3 и 6, — и оставим в наборе данных только их образцы.

Интересно, но термин anzatz пришел в квантовые вычисления и QML из теоретической физики. Этот термин имеет немецкое происхождение, так как в первой половине XX века именно немецкие научные журналы были самыми передовыми. Частое употребление этого термина в отношении квантового машинного обучения объясняется тем, что большая часть специалистов в этой области это именно люди, занимающиеся теоретической физикой.

Второй способ — ввести вспомогательный кубит и рассматривать нашу схему U(𝚹) как состоящую из 2L+2 унитарных единиц, каждая из которых зависит от нескольких кубитов. С помощью вспомогательного кубита мы можем добиться точной оценки потерь при выполнении повторных измерений. Это позволяет избежать проблемы численной точности, но требует корректной установки скорости обучения.

А теперь представим пример из реальной жизни, где набор данных состоит из пиксельных изображений. На каждом снимке есть корректная метка, указывающая, изображена ли на нём, скажем, кошка или собака. В этом случае классические нейронные сети могут научиться правильно классифицировать новые фотографии, содержащие собак или кошек. Мы не будем рассматривать, как именно они это делают, а сразу обратимся к квантовой нейронной сети.

Первое, что мы попробовали — случайно выбрать 500 или 1000 унитарных единиц. Случайность заключается в выборе одного из 9 вентилей и кубитов, к которым он будет применяться. После нескольких сотен обучающих выборок категориальная ошибка достигла примерно 10%. Но потери для отдельных строк были чуть ниже 1, что соответствует вероятности успеха около 50% у большинства строк. Мы двигались в верном направлении, но надеялись добиться большего.

Как уже было упомянуто в лекции по VQC , на данный момент квантовые вычислители ещё недостаточно развиты для того, чтобы в одиночку решать большие задачи, имеющие практическое значение для индустрии – это в особенной степени актуально для нейронных сетей, которые и в классическом сценарии требуют значительных вычислительных ресурсов. Именно поэтому на данный момент наиболее популярна категория гибридных вариационных алгоритмов, которые обучают квантовую параметрическую схему (QNN) при помощи классической оптимизации, например, VQ Eigensolvers и Quantum Approximate Optimization Algorithms. В общем и целом идея гибридных алгоритмов заключается в оптимизации над некоторым классом параметрических вычислений для минимизации энергии волновой функции (VQE/QAOA), экстракции нелокальной информации (QNN Classifiers) или генерации данных, соответствующих квантовому распределению (Quantum Generative Models).

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь