En million processer er kortlagt til pixels i en 1000 × 1000 pixel sort-hvid skitse af Alan Turing. Pixels tændes og slukkes i overensstemmelse med de øjeblikkelige binære værdier af processerne. Kredit:Nature Communications
"In-memory computing" eller "computational memory" er et spirende koncept, der bruger de fysiske egenskaber af hukommelsesenheder til både lagring og behandling af information. Dette er i modstrid med de nuværende von Neumann systemer og enheder, såsom almindelige stationære computere, bærbare computere og endda mobiltelefoner, som flytter data frem og tilbage mellem hukommelsen og computerenheden, hvilket gør dem langsommere og mindre energieffektive.
I dag, IBM Research annoncerer, at dets forskere har påvist, at en uovervåget maskinlæringsalgoritme, kører på en million phase change memory (PCM) enheder, med succes fundet tidsmæssige korrelationer i ukendte datastrømme. Sammenlignet med avancerede klassiske computere, denne prototypeteknologi forventes at give 200x forbedringer i både hastighed og energieffektivitet, hvilket gør den særdeles velegnet til at muliggøre ultratæt, lav strøm, og massivt parallelle computersystemer til applikationer i AI.
Forskerne brugte PCM-enheder lavet af en germanium antimon tellurid-legering, som er stablet og klemt mellem to elektroder. Når forskerne tilfører en lille elektrisk strøm til materialet, de opvarmer det, som ændrer sin tilstand fra amorf (med et uordnet atomarrangement) til krystallinsk (med en ordnet atomkonfiguration). IBM-forskerne har brugt krystalliseringsdynamikken til at udføre beregninger på plads.
"Dette er et vigtigt skridt fremad i vores forskning af AIs fysik, som udforsker nye hardwarematerialer, enheder og arkitekturer, " siger Dr. Evangelos Eleftheriou, en IBM Fellow og medforfatter til papiret. "Efterhånden som CMOS-skaleringslovene bryder sammen på grund af teknologiske begrænsninger, en radikal afvigelse fra processor-hukommelse-dikotomien er nødvendig for at omgå begrænsningerne for nutidens computere. I betragtning af enkelheden, høj hastighed og lav energi af vores in-memory computing tilgang, det er bemærkelsesværdigt, at vores resultater er så lig vores benchmark klassiske tilgang, der køres på en von Neumann-computer."
Detaljerne er forklaret i deres papir, der vises i dag i peer-review-tidsskriftet Naturkommunikation . For at demonstrere teknologien, forfatterne valgte to tidsbaserede eksempler og sammenlignede deres resultater med traditionelle maskinlæringsmetoder, såsom k-betyder klyngedannelse:
"Hukommelse er hidtil blevet betragtet som et sted, hvor vi blot gemmer information. Men i dette arbejde, vi viser endegyldigt, hvordan vi kan udnytte disse hukommelsesenheders fysik til også at udføre en beregningsprimitiv på et ret højt niveau. Resultatet af beregningen gemmes også i hukommelsesenhederne, og i denne forstand er konceptet løst inspireret af, hvordan hjernen beregner." sagde Dr. Abu Sebastian, udforskende hukommelse og kognitiv teknologi videnskabsmand, IBM Research og hovedforfatter af papiret.
En skematisk illustration af in-memory computing-algoritmen. Kredit:IBM Research