Professor Margaret Martonosi svarer på spørgsmål om sin nylige artikel i Nature, hvor hun og kolleger skitserer kvantecomputernes fremtid. Kredit:David Kelly Crow
Efterhånden som nye enheder flytter kvantecomputere tættere på praktisk brug, journalen Natur bad for nylig Princeton-datamatiker Margaret Martonosi og to kolleger om at vurdere tilstanden af software, der er nødvendig for at udnytte denne kraftfulde beregningsmetode.
Stoler på subtile kvantemekaniske effekter til datalagring og beregning, kvantecomputere viser løfte om at fremskynde visse typer beregninger enormt. Martonosi, Hugh Trumbull Adams '35 professor i datalogi, forklarede i et interview, at selvom kvantecomputere er fundamentalt anderledes end klassiske, begge kræver en effektiv kæde af software for at fungere. Hendes medforfattere i Nature er professorerne i datalogi Frederic Chong og Diana Franklin fra University of Chicago.
Hvad er kvanteberegning, og hvordan adskiller det sig fra standard - eller klassisk - computing?
I klassisk databehandling, vi har bygget computere i mange år, der er afhængige af binære værdier for det, vi kalder staten, eller lagerdata, i maskinen. Så værdien kan enten være 0 eller 1. Og vi opbyggede evnen til at lave regnestykker eller til at lave logiske operationer baseret på 0- eller 1-værdierne. I kvantecomputere, i stedet for disse klassiske 0 eller 1 bits, vi har det, der kaldes kvantebits eller qubits. Du kan tænke på en qubit som en probabilistisk fordeling af mange mulige værdier. Så det er ikke 0 eller 1, men nogle "superposition" af forskellige stater. At være i stand til at manipulere disse komplekse tilstande, man kan lave unikke beregninger, der går ud over de simple additions- eller logiske operationer på en klassisk computer.
Kvanteberegning giver mulighed for at lave betydeligt mere kraftfulde beregninger, i det mindste konceptuelt, med relativt færre qubits end de tilstandsbits, der kræves af et klassisk alternativ. Der er nogle kvantealgoritmer, der viser muligheden for betydelig fremskyndelse, nogle gange endda eksponentiel fremskyndelse, over den klassiske tilgang. For eksempel, der er nogle problemer i stor skala, som ville tage ti eller hundreder af år at beregne på en klassisk maskine - hvilket gør dem i det væsentlige uoverskuelige - men hvis der fandtes passende kvantehardware, den tilsvarende kvantealgoritme kunne tillade, at disse opgaver løses på timer i stedet for årtier. Det er det faktum, at vi kan gøre ting potentielt eksponentielt hurtigere i en kvantecomputer, der har fået verden til at være meget fascineret af mulighederne.
Så en kvantecomputer er ikke bare en hurtigere version af en standardcomputer?
Det bruger dybt forskellige fysiske egenskaber til at lave beregningerne. Og det gør det muligt at være hurtigere, potentielt, ved nogle beregninger, selvom den stadig er afhængig af klassisk sekvensering af operationerne og klassisk kontrol af operationerne. Så et af de store fokusområder i løbet af de sidste 10 år har været at komme fra kvantealgoritmer, der viser teoretisk eksponentiel speedup til at se, hvordan disse algoritmer virkelig vil kortlægges til ægte kvantehardware, og hvilken slags speedups vil være mulige, når vi begynder at bygge faktisk kvantehardware.
Din artikel i Natur siger, at kvanteberegning har nået et kritisk stadium, som du kalder et 'bøjningspunkt'. Hvorfor nu?
Det er en række ting. I mange år havde vi kvantealgoritmer, der teoretisk skitserede, hvordan de kunne bruge kvantesuperposition og sammenfiltring (kvantetilstandes evne til at interagere med hinanden), men havde ikke noget hardware at kortlægge på. I mellemtiden der var fysikere, der byggede individuelle qubit-teknologier, men at bygge så få qubits – én ad gangen, eller to ad gangen – at man ikke rigtig kunne få en fornemmelse af, hvordan man faktisk regner med dem.
Det, der sker nu, er, at antallet af qubits, der kan bygges, forventeligt snart vil være stort nok til, at man faktisk er nødt til at tænke praktisk over, hvordan man bygger systemer til at beregne dem. Så hvor det tidligere var OK blot at bygge individuelle qubits og teste deres egenskaber på en engangs måde, nu begynder folk at tænke på, hvordan man bygger rigtige computersystemer ud af dem, herunder forståelse af, hvordan opbevaringen vil fungere, hvordan kommunikationen vil fungere.
Så når vi taler om at bygge kvantecompilere (software, der udfører programmernes instruktioner i hardwaren) eller kvanteværktøjsflows (software, der optimerer applikationer), vi gør det af et par grunde. En grund er, at når der bygges kvantecomputere af stadig mere interessante størrelser, vi ønsker at kunne kompilere til dem. En anden grund er, at selv før maskinerne er bygget, vi ønsker bedre at kunne vurdere forskellige design-afvejninger. Så værktøjet flyder, som papiret diskuterer, den type mine samarbejdspartnere og jeg har arbejdet på, er en måde at udføre nogle af vurderingerne på, som vil hjælpe med at se, hvilke algoritmer der drager fordel af hvilke teknologivalg, eller hvilke organisatoriske valg, som forskere bygger hardwaren.
Det andet aspekt af bøjningspunktet er renter og finansiering. Vi er nu på et punkt, hvor du kan bruge en 16-qubit kvantecomputer på nettet. IBM, gennem sin Quantum Experience indsats, har udgivet en kvantecomputer, som alle kan bruge. Google, Microsoft, Intel og andre presser alle på for at bygge væsentligt større kvantecomputere, end der nogensinde er blevet bygget. Og der er lidt af et kapløb i gang for at se, hvem der når hvor langt og hvornår. Så med industrien, der lægger stor vægt på at bygge kvantecomputere, Jeg tror, det har øget troværdigheden, at der er noget her, der er noget at fokusere på. Og som et resultat, det har øget det tempo, hvormed andre dele af kvanteforskningsrummet også har bevæget sig.
Kunne kvantedatabehandling være lige så gennemgribende som klassisk databehandling, eller er det sandsynligvis mere specialiseret?
Hvis du ser på de kvantealgoritmer, der er blevet udviklet indtil videre, de er relativt fokuserede. Der er et par områder, hvor quantum viser potentialet for fremskyndelse, men der er mange områder, hvor vi endnu ikke har kvantealgoritmer, der viser speedup. Så ingen ser kvantecomputere helt erstatte klassisk. Det vil ikke blive brugt på den måde inden for en overskuelig fremtid. Hellere, folk ser kvantecomputere være nyttige til nogle meget fokuserede beregninger. Du kan tænke på det som en specialiseret accelerator til disse beregninger.
I mange år, en vigtig katalysator for interessen for kvanteberegning var det faktum, at mange af vores nuværende krypteringsmetoder er afhængige af den antagelse, at faktorisering af store tal vil være beregningsmæssigt vanskelig. Og kvanteberegning, især noget, der kaldes Shor's algoritme, har vist en måde at fremskynde denne faktorisering dramatisk. Så i mange år, en af de vigtigste opmærksomhedsskabere omkring kvante var bekymringen om, hvorvidt kvanteberegning ville — citat, unquote—"brud kryptering."
Det vi ser lige nu er, først og fremmest, krypteringsfællesskabet udvikler nye algoritmer, der er designet til at være kvanteresistente. Det går fremad på et eller andet niveau. Samtidigt, vi ser, at factoring-algoritmen, der kunne "bryde kryptering", faktisk kræver så mange qubits, at det vil vare et stykke tid, før vi kan bruge den til at faktorisere de store tal, der bruges i vores krypteringsalgoritmer. Så, af den grund, factoring er ikke den største algoritmiske opmærksomhedsfanger lige nu inden for selve kvantecomputersamfundet.
Men hellere, der er andre algoritmer, der får opmærksomhed i form af ting som at simulere molekyler. Såkaldt kvantekemi er af interesse i disse dage, og ser ud til at være et anvendelsesområde, som vi kunne komme til hurtigere med den slags maskiner, vi forestiller os at kunne bygge tidligere på tidslinjen.
Du nævner konceptet med hybridsystemer, der kombinerer klassisk og kvanteberegning i papiret.
Det er uundgåeligt. Du kommer ikke til at bygge kvantecomputersystemer, der udelukkende er kvante. Og folk i marken ved dette, men det er ikke blevet godt skildret til omverdenen. For at få en kvantecomputer til at fungere, og at udføre et sæt kvanteoperationer, du vil stadig have en klassisk kontrol-sequencer, der træder ind gennem et sæt fysiske manipulationer. Og så vil du altid have denne klassiske kontrol over kvanteoperationer.
Så den dobbelthed vil være der uanset hvad. Og der er interessant arbejde at gøre med hensyn til at beslutte, hvordan det skal organiseres, hvor meget klassisk kontrol går hvor. Kvanteoperationerne udføres ofte under meget lave temperaturer, tæt på det absolutte nul. Spørgsmålet er, hvor meget af den klassiske kontrol kan udføres ved disse temperaturer i forhold til hvor meget skal udføres ved stuetemperatur, som vi er vant til at lave klassisk databehandling? Og så den slags design-afvejninger forbliver for det meste ubesvarede.
Quantum computing er meget spændende, men der er ingen garanti for, at kvanteberegning vil have den samme bane eller det samme åndedrag, som klassisk edb har haft. På mange måder, alt ser lige nu ud, som om kvanteberegning kan være mere snæver end klassisk i sine applikationer. Men det er stadig nyttigt og lærerigt at prøve at se på tværs af forskellige innovationscyklusser og prøve at se, hvor man ser paralleller eller ej.
Kvantedatabehandling er måske bare en anden nyttig måde at lave databehandling på?
Håbet er, at det vil accelerere visse ting en del. Så, for eksempel, hvis kvantekemi bliver den levedygtige anvendelse, som den ser ud til at være, så kan man forestille sig, at det er dybt indflydelsesrig for ting som landbrug, at forstå, hvordan man bygger bedre gødning, og så videre, og også til udvikling af lægemidler. Så selvom det er noget fokuseret på, hvor det har anvendelighed, det kan stadig være meget virkningsfuldt i disse områder.