Videnskab
 science >> Videnskab >  >> Elektronik

Google træner chips til at designe sig selv

Kredit:CC0 Public Domain

En af de vigtigste udfordringer ved computerdesign er, hvordan man pakker chips og ledninger på den mest ergonomiske måde, bevare magten, hastighed og energieffektivitet.

Opskriften indeholder tusindvis af komponenter, der skal kommunikere fejlfrit med hinanden, alt sammen på et stykke fast ejendom på størrelse med en negl.

Processen er kendt som spångulvsplanlægning, svarende til, hvad indretningsarkitekter gør, når de lægger planer om at pynte et værelse. Med digitale kredsløb, imidlertid, i stedet for at bruge en etageplan, designere skal overveje integrerede layouts inden for flere etager. Som en teknisk publikation omtalte det for nylig, spångulvsplanlægning er 3-D Tetris.

Processen er tidskrævende. Og med løbende forbedringer i chipkomponenter, møjsommeligt beregnede endelige designs bliver hurtigt forældede. Chips er generelt designet til at holde mellem to og fem år, men der er konstant pres for at forkorte tiden mellem opgraderinger.

Google-forskere har netop taget et kæmpe spring inden for gulvplanlægning. I en nylig meddelelse, senior Google-forskningsingeniører Anna Goldie og Azalia Mirhoseini sagde, at de har designet en algoritme, der "lærer", hvordan man opnår optimal placering af kredsløb. Det kan gøre det på en brøkdel af den tid, der i øjeblikket kræves til en sådan design, analyserer potentielt millioner af muligheder i stedet for tusinder, som i øjeblikket er normen. Derved, det kan levere chips, der hurtigere udnytter den seneste udvikling, billigere og mindre.

Goldie og Mirhoseini anvendte begrebet forstærkningslæring på den nye algoritme. Systemet genererer "belønninger" og "straffe" for hvert foreslået design, indtil algoritmen bedre genkender de bedste tilgange.

Forestillingen om en sådan forstærkning har rødder i den psykologiske skole kendt som behaviorisme. Dens grundlægger, John Watson, berømt foreslog alle dyr, inklusive mennesker, var dybest set komplekse maskiner, der "lærte" ved at reagere på positive og negative svar. Hvor ville Watson være overrasket over at erfare, at principper, som han først formulerede i 1913, også bliver brugt mere end et århundrede senere på "intelligente" maskiner.

Google-forskere sagde, at efter omfattende test, de fandt, at deres nye tilgang til kunstig intelligent samlebåndsproduktion var overlegen i forhold til design skabt af menneskelige ingeniører.

"Vi tror på, at det er AI i sig selv, der vil give midlerne til at forkorte chipdesigncyklussen, skabe et symbiotisk forhold mellem hardware og AI, med hver næring til fremskridt i den anden, " sagde designerne i en erklæring offentliggjort på arxiv.org, et lager af videnskabelig forskning forvaltet af Cornell University.

Computerkredsløb er kommet langt siden den første "helelektroniske regnemaskine" - ENIAC - blev afsløret i 1945. Jam fyldt med 18, 000 vakuumrør, forløberne for integrerede kredsløb og computerchips, og miles af ledninger, den enorme maskine på 6 millioner dollars strakte sig så bred som tre pendlerbusser, vejede 30 tons og indtog et helt rum i Princeton University lab, hvor det blev skabt.

Dagens iPhones har chips på størrelse med en pinky fingernegl, der er 1, 300 gange stærkere, 40 millioner gange mindre og 1/17, 000 omkostningerne til ENIAC.

Googles nye algoritme kan også være med til at sikre fortsættelsen af ​​Moores lov, som angiver, at antallet af transistorer pakket ind i mikrochips fordobles hvert eller hvert andet år. I 1970, Intels 4004-chip indeholdt 2, 250 transistorer. I dag, AMD Epyc Rome er vært for 39,5 milliarder transistorer.

Hvilket efterlader masser af muligheder for Googles nye rumdesignalgoritme.

© 2020 Science X Network




Varme artikler