Kredit:Princeton University
Ved at flytte en grundlæggende egenskab ved beregning, Princeton -forskere har bygget en ny type computerchip, der øger ydeevnen og reducerer energibehovet for systemer, der bruges til kunstig intelligens.
Chippen, der fungerer med standard programmeringssprog, kan være særlig nyttig på telefoner, ure eller andre enheder, der er afhængige af højtydende computing og har begrænset batterilevetid.
Chippen, baseret på en teknik kaldet in-memory computing, er designet til at rydde en primær beregningsmæssig flaskehals, der tvinger computerprocessorer til at bruge tid og energi på at hente data fra lagret hukommelse. In-memory computing udfører beregning direkte i lageret, giver mulighed for større hastighed og effektivitet.
Meddelelsen om den nye chip, sammen med et system til at programmere det, følger tæt på en tidligere rapport om, at forskerne i samarbejde med Analog Devices Inc. havde fremstillet kredsløb til computere i hukommelsen. Laboratorietest af kredsløbet viste, at chippen ville udføre titusindvis til hundredvis af gange hurtigere end sammenlignelige chips. Imidlertid, den oprindelige chip inkluderede ikke alle komponenterne i den seneste version, så dens kapacitet var begrænset.
I den nye meddelelse, forskere i laboratoriet af Naveen Verma, lektor i elektroteknik, rapportere, at de har integreret in-memory kredsløb i en programmerbar processorarkitektur. Chippen fungerer nu med almindelige computersprog som C.
"Den tidligere chip var en stærk og kraftfuld motor, "sagde Hongyang Jia, en kandidatstuderende i Vermas gruppe og en af chipdesignerne. "Denne chip er hele bilen."
Selvom det kunne fungere med en bred vifte af systemer, Princeton-chippen er beregnet til at understøtte systemer, der er designet til indlæring med dyb læring-algoritmer, der gør det muligt for computere at træffe beslutninger og udføre komplekse opgaver ved at lære af datasæt. Deep learning-systemer styrer ting som selvkørende biler, ansigtsgenkendelsessystemer og medicinsk diagnostisk software.
Verma sagde, at for mange applikationer, chipens energibesparelser ville være lige så afgørende som ydelsesforøgelsen. Det skyldes, at mange AI -applikationer forventes at fungere på enheder, der drives af batterier såsom mobiltelefoner eller bærbare medicinske sensorer. Apple iPhone X, for eksempel, har allerede en AI -chip som en del af sit kredsløb. Men, både energibesparelser og ydelsesforøgelser kan kun bruges, hvis de kan tilgås af den brede base af applikationer, der har brug for dem - det er her behovet for programmerbarhed kommer ind.
"Den klassiske computerarkitektur adskiller den centrale processor, som knuser dataene, fra hukommelsen, som gemmer dataene, "Sagde Verma." Meget af computerens energi bruges til at flytte data frem og tilbage. "
Delvis, den nye chip er et svar på det langsommere løfte om Moores lov. I 1965, Intel -grundlægger Gordon Moore observerede, at antallet af transistorer på integrerede kredsløb fordobles cirka hvert år, og industrien bemærkede også, at disse transistorer blev hurtigere og mere energieffektive i processen. I årtier, disse observationer, som blev kendt som Moores lov, understøttede en transformation, hvor computere blev stadig mere kraftfulde. Men i de senere år har transistorer er ikke blevet ved med at forbedre sig som tidligere, støder på fundamentale begrænsninger i deres fysik.
Verma, der har specialiseret sig i kredsløb og systemdesign, tænkt på måder omkring dette pres på det arkitektoniske plan frem for transistorniveauet. Den beregning, AI har brug for, ville være meget mere effektiv, hvis den kunne udføres på samme sted som computerens hukommelse, fordi den ville fjerne den tid og energi, der bruges til at hente data, der er gemt langt væk. Det ville gøre computeren hurtigere uden at opgradere transistorerne. Men at skabe et sådant system udgjorde en udfordring. Hukommelseskredsløb er designet så tæt som muligt for at pakke store mængder data ind. Beregning, på den anden side, kræver, at der afsættes plads til yderligere transistorer.
En mulighed var at udskifte elektriske komponenter kaldet kondensatorer for transistorer. Transistorer er i det væsentlige switches, der bruger spændingsændringer til at stå for 1'erne og 0'erne, der udgør binære computersignaler. De kan udføre alle slags beregninger ved hjælp af arrays på 1 og 0 cifre, derfor kaldes systemerne digitale. Kondensatorer lagrer og frigiver elektrisk ladning, så de kan repræsentere ethvert tal, ikke kun 1'er og 0'er. Verma indså, at han med kondensatorer kunne udføre beregninger i et meget tættere rum, end han kunne med transistorer.
Kondensatorer kan også laves meget præcist på en chip, meget mere end transistorer. Det nye design parrer kondensatorer med konventionelle celler med statisk random access memory (SRAM) på en chip. Kombinationen af kondensatorer og SRAM bruges til at udføre beregninger på dataene i det analoge (ikke digitale) domæne, dog på måder, der er pålidelige og modtagelige for at inkludere programmerbarhedsfunktioner. Nu, hukommelseskredsløbene kan udføre beregninger på måder, der styres af chipens centrale processorenhed.
"In-memory computing har vist mange løfter i de seneste år, i virkelig at tage fat på energien og hastigheden i computersystemer, "sagde Verma." Men det store spørgsmål har været, om det løfte ville skalere og kunne bruges af systemdesignere til alle de AI -applikationer, vi virkelig interesserer os for. Det gør programmerbarhed nødvendig. "