Loading...
«В свое время преодолеть предел в несколько кубитов и слоев в QAOA было очень сложно. Разработанная нами программа эмуляции могла обрабатывать только упрощенные модели, и сначала я думал, что, хотя этот проект и являет собой увлекательную задачу, он может оказаться невыполнимым. К счастью, меня окружали оптимистичные и увлеченные своим делом коллеги, что мотивировало меня довести дело до конца и воспроизвести данные Google на суперкомпьютере в Сколтехе. Конечно, было очень волнительно, когда наши данные совпали с данными Google и мы получили то же статистическое распределение, что позволило обнаружить этот эффект», — рассказал Акшай Вишванатан, аспирант Сколтеха.
Эмуляция — это выполнение компьютером программы или ее части, записанной в системе команд другого компьютера. С самого начала эпохи численных вычислений наибольшую сложность для эмуляции представляли квантовые системы, хотя конкретные причины этого феномена остаются предметом исследований. В 1980 г. ученые выдвинули теорию, что компоненты, чье отсутствие затрудняет эмуляцию квантовой системы, можно использовать в качестве вычислительного ресурса. Базируясь на этих идеях, технологические гиганты (в том числе и Google) создали первые прототипы квантовых процессоров. Однако существующие версии не совершенны — они ошибаются и выполняют лишь простейшие квантовые программы.
Квантовый приближенный алгоритм оптимизации (QAOA) — это одна из самых исследуемых областей применения квантовых процессоров. QAOA представляет собой подход к оптимизации функции многих переменных с помощью аппроксимации на гибридной системе, состоящей из классического компьютера и квантового сопроцессора. Существующие прототипы квантовых процессоров (например, Google Sycamore) не слишком эффективны в своей работе, поскольку физические шумы в устройстве провоцируют появление погрешностей и ошибок. Однако гибридные системы представляют большой потенциал, поскольку могут работать с большей точностью.
Недавно ученые из Сколтеха выяснили, что плотность переменных в задаче оптимизации (т. е. соотношение соответствующих ограничений и переменных) сильно ограничивает применимость QAOA. Именно она препятствует получению приближенных решений. Ученые захотели узнать, возникал ли подобный эффект в недавнем исследовании Google. Исследовательская команда создала эмуляцию, выводящую данные с тем же статистическим распределением, что и у Google. Эксперимент показал диапазон реализации численных экспериментов с различной плотностью переменных, при которых производительность QAOA резко снижается. В ходе исследования обнаружилось, что данные Google располагаются на границе этого диапазона, в его пределах текущий уровень развития квантовых компьютеров не позволяет получить какие-либо преимущества.
Команда из Сколтеха изучила так называемый «дефицит достижимости» — это ограничения производительности, т. е. соотношение ограничений и переменных в задаче. Результаты показали, что дефициты достижимости создают «лавинный эффект». Это означает, что данные Google находятся на тонкой грани, после которой потребуются более мощные и длинные цепи QAOA, которые не могут быть реализованы на квантовом процессоре Google Sycamore. «Мы рады видеть, что наш компьютер позволил получить такие грандиозные результаты. Проект был сложным и занял много времени. И мы тесно сотрудничали с Лабораторией квантовой обработки информации по его реализации. Мы считаем, что наш проект станет основой для будущих исследований в этой области с использованием суперкомпьютера "Жорес"», — заключает Олег Панарин, менеджер по информационным сервисам и обработке данных в Сколтехе.
Подписывайтесь на InScience.News в социальных сетях: ВКонтакте, Telegram, Одноклассники.