Videnskab
 science >> Videnskab >  >> Elektronik

Intel:Hot Chips-begivenhedsdetaljer AI-styrke-processorer

Kredit:CC0 Public Domain

Tekniske overvågere fik i denne uge et væld af imponerende AI -acceleratorarbejde hos Intel, nemlig afsløringer ved Hot Chips -arrangementet 2019, hvor Intel præsenterede detaljer om sine Nervana neurale netværksprocessorer, (1) NNP-T til træning og (2) NNP-I til slutning.

Lad os først gå tilbage til slutningen (Spring Hill) -værket, og NNP-1, er blevet udviklet på sit anlæg i Haifa, Israel. NNP-1 står for Neural Network Processor for Inference.

Dens konstruktion vil tillade den "at klare store arbejdsbyrder ved hjælp af minimale mængder energi, "sagde Steven Scheer, Reuters.

Beskriver dens funktion, Ravie Lakshmananin, TNW, sagde, at det "specifikt er målrettet inferensaspektet ved AI for at udlede ny indsigt. Ved at gøre brug af en specialbygget AI-inferensberegningsmotor, NNP-I leverer større ydelse med lavere effekt. "

Hvor kommer navnet Nervana fra? Nervana Systems er det selskab, det købte i 2016. Dengang var analytiker Karl Freund fortalte EE Times at det gav meget mening for Intel at gøre det. At erhverve Nervana var en måde at komme ind på markedet for dyb læring på.

Denne uge, spørgsmålet om hvorfor blev forvandlet til et hvorfor-ikke af en Intel-talsmand.

"For at nå en fremtidig situation med 'AI overalt', vi skal håndtere enorme mængder data, der genereres, og sikre, at organisationer er udstyret med det, de har brug for for effektivt at kunne bruge dataene og behandle dem, hvor de indsamles, "sagde Naveen Rao, grundlægger af Nervana og nu general manager for Intels kunstige intelligensprodukter -gruppe, i en rapport fra Reuters. "Disse computere har brug for acceleration til komplekse AI -applikationer."

Tekniske overvågere inklusive Silikon VINKEL sagde, at NNP-1 var god til store datacentre, der kører AI-arbejdsbyrder. Fossbytes sagde et omfattende sæt af RAS -funktioner var at sikre, at det let kan implementeres i eksisterende datacentre.

Joel Hruska i ExtremeTech :"Intel hævder, at NNP-I kan levere ResNet50-ydelse på 3, 600 slutninger i sekundet, når der køres med en 10W TDP. Det svarer til 4,8 TOPS/watt, som opfylder Intels overordnede effektivitetsmål (virksomheden hævder, at NNP-I er mest effektiv ved lavere watt). "

Den anden interesse ved Hot Chips-konferencen i 2019 var NNP-T, som står for Intel Nervana Neural Network Processor for Training. Intel beskrev NNP-T (kodenavnet Spring Crest) som specialbygget (1) til at træne komplekse deep learning-modeller i massiv skala, og (2) forenkle distribueret træning med out-of-the-box skaleringsstøtte.

Paul Alcorn, Toms hardware , skrev om, hvordan "NNP-T er designet til at skalere limfrit fra chassis til chassis, og endda rack-til-rack, uden en switch. "Han sagde, at netværket var specielt designet med høj båndbredde og lav latens i tankerne; til gengæld, arkitekturen skal håndtere "massive modeller, der skaleres til 5 eller 8 milliarder parametre, eller videre. "

Naveen Rao kommenterede:"Intel Nervana NNP-T skubber grænserne for dyb læringstræning. Den er bygget til at prioritere to vigtige virkelige overvejelser:hvordan man træner et netværk så hurtigt som muligt, og hvordan man gør det inden for et givet strømbudget." Arkitekturen blev bygget fra bunden, uden ældre arbejdsbyrder at understøtte.

I det større billede, The Times of Israel sagde "Virksomheder som Intel, Nvidia, Qualcomm og Google og startups globalt er alle på jagt efter nye teknologier på dette område, som blandt andet indebærer oprettelse af hardware til at muliggøre behandling af enorme mængder information. "

Behandlingshardwaren har to formål, skrev Shoshanna Solomon:(1) oplæring af computere til at udføre nye opgaver og (2) lære dem at udlede og derved nå indsigt.

Alt i alt, Intel gør sit til, at dataforskere kan gøre både, når de arbejder på ustrukturerede og komplekse data.

© 2019 Science X Network




Varme artikler