Nový benchmark QPU se ukáže, kdy kvantové počítače překonávají stávající výpočetní schopnosti, říkají vědci

Nový kvantový výpočetní měřítko odhalilo silné a slabé stránky několika jednotky pro zpracování kvantu (Qpus).
Benchmarkingové testy vedené týmem ve výzkumném centru Jülich v Německu porovnávaly 19 různých QPU od pěti dodavatelů-včetně IBM, Quantinuum, IONQ, Rigetti a IQM-, aby určily, které čipy byly stabilnější a spolehlivější pro vysoce výkonný výpočet (HPC).
Tyto kvantové systémy byly testovány jak na různých „šířkách“ (celkový počet qubits), stejně jako různé „hloubky“ pro 2-quitské brány. Brány jsou operace, které působí na dva zapletený qubits současně a hloubka měří délku obvodu – jinými slovy, jeho složitost a čas provádění.
QPU IBM vykazovaly největší sílu z hlediska hloubky, zatímco kvantinuum fungovalo nejlépe v kategorii šířky (kde bylo testováno větší počet qubits). QPU z IBM také vykazovaly významné zlepšení výkonu napříč iteracemi, zejména mezi dřívějšími Eagle a novější generace Heron Chip.
Tyto výsledky, uvedené ve studii nahrané 10. února na předvolek arxiv Databáze, naznačují, že vylepšení výkonu lze připsat nejen lepšímu a efektivnějšímu hardwaru, ale také vylepšením firmwaru a integraci zlomkových bran – vlastní brány dostupné na Heron mohou snížit složitost obvodu.
Nejnovější verze Heron Chip, nazývaná IBM Marrákesh, však neprokázala očekávaná zlepšení výkonu, přestože měla polovinu chyb na vrstvenou bránu (EPLG) ve srovnání s předchozím QPU výpočetním gigantem IBM Fez.
Nad rámec klasického výpočtu
Menší společnosti také dosáhly relativně velkých zisků. Důležité je, že jeden chip kvantinuum prošel benchmarkem na šířku 56 qubitů. To je významné, protože představuje schopnost kvantového výpočetního systému překonat stávající klasické počítače v konkrétních kontextech.
Související: Čína dosahuje nároku na kvantovou nadvládu s novým kvadrillionem čipu 1 rychleji než nejmocnější superpočítače
„V případě kvantinua H2-1 jsou experimenty 50 a 56 qubitů již nad schopnostmi přesné simulace v systémech HPC a výsledky jsou stále smysluplné,“ napsali vědci ve své studii předtištu.
Konkrétně chip kvantinuum H2-1 přinesl výsledky při 56 qubits, běží tři vrstvy lineárního algoritmu přibližného optimalizace (LR-QAOA)-benchmarking algoritmus-zahrnující 4 620 dvoukvalitních bran.
„Podle našich nejlepších znalostí je to největší implementace QAOA, která vyřeší problém s kombinatoriálním optimalizací FC na reálném kvantovém hardwaru, který je certifikován tak, aby poskytl lepší výsledek oproti náhodnému hádání,“ uvedli vědci ve studii.
Fez IBM řídil problémy v nejvyšší hloubce testovaných systémů. V testu, který zahrnoval 100 qubitův problém s použitím až 10 000 vrstev LR-Káoa (téměř milion dvou qubitních bran), Fez ponechal některé koherentní informace až do téměř 300 vrstev. Nejnižší výkonnost QPU při testování byla Ankaa-2 od Rigetti.
Tým vyvinul měřítko pro měření potenciálu QPU provádět praktické aplikace. S ohledem na to se snažili vymyslet test s jasným a konzistentním souborem pravidel. Tento test musel být snadno spuštěn, platforma agnostická (aby mohla fungovat nejširší možnou škálu kvantových systémů) a poskytnout smysluplné metriky spojené s výkonem.
Jejich měřítko je postaveno na testu zvaném problém s maxcut. Představuje graf s několika vrcholy (uzly) a hranami (připojeními) a poté systém požádá, aby uzly rozdělil do dvou sad, takže počet hran mezi oběma podmnožinami je maximální.
To je užitečné jako měřítko, protože je to výpočetně velmi obtížné a obtížnost lze zvětšit zvýšením velikosti grafu, uvedli vědci v článku.
Systém byl považován za selhal test, když výsledky dosáhly plně smíšeného stavu – když byly nerozeznatelné od výsledků náhodného vzorkovače.
Protože benchmark spoléhá na testovací protokol, který je relativně jednoduchý a škálovatelný a může přinést smysluplné výsledky s malou sadou vzorků, je přiměřeně levné spustit, dodali počítačoví vědci.
Nový benchmark není bez jeho nedostatků. Výkon je závislý například na parametrech s pevným plánem, což znamená, že parametry jsou nastaveny předem a nejsou během výpočtu dynamicky upraveny, což znamená, že nelze optimalizovat. Vědci navrhli, že spolu s jejich vlastním testem „by měly být navrženy různé kandidátské referenční hodnoty pro zachycení základních aspektů výkonu a nejlepší z nich s nejjasnějším souborem pravidel a užitečnosti zůstanou.“