Kredit:CC0 Public Domain
Aktiemarkedsinvestorer er ofte afhængige af finansielle risikoteorier, der hjælper dem med at maksimere afkastet og samtidig minimere økonomiske tab på grund af markedsudsving. Disse teorier hjælper investorer med at opretholde en afbalanceret portefølje for at sikre, at de aldrig vil tabe flere penge, end de er villige til at skille sig af med på et givet tidspunkt.
Inspireret af disse teorier, MIT-forskere har i samarbejde med Microsoft udviklet en "risikobevidst" matematisk model, der kan forbedre ydeevnen af cloud-computernetværk over hele kloden. Især cloud-infrastruktur er ekstremt dyr og bruger meget af verdens energi.
Deres model tager højde for fejlsandsynligheder for forbindelser mellem datacentre verden over - svarende til at forudsige aktiernes volatilitet. Derefter, den kører en optimeringsmotor for at allokere trafik gennem optimale stier for at minimere tab, samtidig med at den samlede brug af netværket maksimeres.
Modellen kan hjælpe store cloud-tjenesteudbydere – såsom Microsoft, Amazon, og Google – bedre udnytte deres infrastruktur. Den konventionelle tilgang er at holde links inaktive for at håndtere uventede trafikskift som følge af linkfejl, hvilket er spild af energi, båndbredde, og andre ressourcer. Den nye model, kaldet TeaVar, på den anden side, garanterer, at i en målprocentdel af tiden - f.eks. 99,9 procent – netværket kan håndtere al datatrafik, så der er ingen grund til at holde nogen links inaktive. I løbet af de 0,01 procent af tiden, modellen holder også dataene nede så lavt som muligt.
I eksperimenter baseret på data fra den virkelige verden, modellen understøttede tre gange trafikgennemstrømningen som traditionelle trafiktekniske metoder, og samtidig opretholde det samme høje niveau af netværkstilgængelighed. Et papir, der beskriver modellen og resultaterne, vil blive præsenteret på ACM SIGCOMM-konferencen i denne uge.
Bedre netværksudnyttelse kan spare tjenesteudbydere for millioner af dollars, men fordelene vil "sive ned" til forbrugerne, siger medforfatter Manya Ghobadi, TIBCO Career Development Assistant Professor i MIT Department of Electrical Engineering and Computer Science og en forsker ved Computer Science and Artificial Intelligence Laboratory (CSAIL).
"At have mere udnyttet infrastruktur er ikke kun godt for cloud-tjenester - det er også bedre for verden, " Ghobadi siger. "Virksomheder behøver ikke at købe så meget infrastruktur for at sælge tjenester til kunder. Plus, at være i stand til effektivt at udnytte datacenterressourcer kan spare enorme mængder energiforbrug af cloud-infrastrukturen. Så, der er fordele både for brugerne og miljøet på samme tid."
Med Ghobadi på avisen er hendes elever Jeremy Bogle og Nikhil Bhatia, begge af CSAIL; Ishai Menache og Nikolaj Bjørner fra Microsoft Research; og Asaf Valadarsky og Michael Schapira fra Hebrew University.
På pengene
Cloud-tjenesteudbydere bruger netværk af fiberoptiske kabler, der løber under jorden, forbinder datacentre i forskellige byer. For at dirigere trafik, udbyderne er afhængige af "traffic engineering" (TE) software, der optimalt allokerer databåndbredde - mængden af data, der kan overføres på én gang - gennem alle netværksstier.
Målet er at sikre maksimal tilgængelighed for brugere over hele verden. Men det er udfordrende, når nogle links kan fejle uventet, på grund af fald i den optiske signalkvalitet som følge af afbrydelser eller ledninger skåret under byggeriet, blandt andre faktorer. For at forblive robust over for fiasko, udbydere holder mange links ved meget lav udnyttelse, ligger og venter på at absorbere fuld databelastning fra nedadgående links.
Dermed, det er en vanskelig afvejning mellem netværkstilgængelighed og udnyttelse, hvilket ville muliggøre højere datagennemstrømning. Og det er her, traditionelle TE-metoder fejler, siger forskerne. De finder optimale veje baseret på forskellige faktorer, men kvantificer aldrig pålideligheden af links. "De siger ikke, 'Dette link har større sandsynlighed for at være oppe at køre, så det betyder, at du burde sende mere trafik hertil, " siger Bogle. "De fleste links i et netværk fungerer ved lav udnyttelse og sender ikke så meget trafik, som de kunne sende."
Forskerne designede i stedet en TE-model, der tilpasser kernematematik fra "betinget værdi ved risiko, " et risikovurderingsmål, der kvantificerer det gennemsnitlige tab af penge. Med investering i aktier, hvis du har en endagsværdi på 99 procent med risiko for 50 USD, dit forventede tab af det værst tænkelige 1 procent-scenarie på den dag er $50. Men 99 procent af tiden, du vil klare dig meget bedre. Det mål bruges til at investere i aktiemarkedet - hvilket er notorisk svært at forudsige.
"Men matematikken passer faktisk bedre til vores cloud-infrastrukturindstilling, " siger Ghobadi. "For det meste, forbindelsesfejl skyldes udstyrets alder, så sandsynligheden for fiasko ændrer sig ikke meget over tid. Det betyder, at vores sandsynligheder er mere pålidelige, sammenlignet med aktiemarkedet."
Risikobevidst model
I netværk, databåndbreddeandele er analoge med investerede "penge, " og netværksudstyret med forskellige sandsynligheder for fejl er "aktier" og deres usikkerhed om at ændre værdier. Ved hjælp af de underliggende formler, forskerne designet en "risikobevidst" model, der, ligesom dets finansielle modstykke, garanterer, at data når deres destination 99,9 procent af tiden, men holder trafiktab på et minimum under 0,1 procent worst-case fejlscenarier. Det giver cloud-udbydere mulighed for at justere afvejningen mellem tilgængelighed og udnyttelse.
Forskerne kortlagde statistisk tre års netværkssignalstyrke fra Microsofts netværk, der forbinder dets datacentre med en sandsynlighedsfordeling for forbindelsesfejl. Indgangen er netværkstopologien i en graf, med kilde-destinationsstrømme af data forbundet via linjer (links) og noder (byer), med hvert link tildelt en båndbredde.
Fejlsandsynligheder blev opnået ved at kontrollere signalkvaliteten af hvert link hvert 15. minut. Hvis signalkvaliteten nogensinde er faldet under en modtagetærskel, de anså det for en linkfejl. Alt ovenstående betød, at linket var oppe at køre. Fra det, modellen genererede en gennemsnitlig tid, hvor hvert link var oppe eller nede, og beregnede en fejlsandsynlighed - eller "risiko" - for hvert link ved hvert 15-minutters tidsvindue. Ud fra disse data, den var i stand til at forudsige, hvornår risikable links ville fejle på et givet tidspunkt.
Forskerne testede modellen mod anden TE-software på simuleret trafik sendt gennem netværk fra Google, IBM, ATT, og andre, der spredte sig over hele verden. Forskerne skabte forskellige fejlscenarier baseret på deres sandsynlighed for at det opstår. Derefter, de sendte simulerede datakrav fra den virkelige verden gennem netværket og anmodede deres modeller om at begynde at allokere båndbredde.
Forskernes model holdt pålidelige links, der arbejdede til næsten fuld kapacitet, mens du fjerner data fra mere risikable links. Over traditionelle tilgange, deres model kørte tre gange så meget data gennem netværket, mens du stadig sikrer, at alle data kom frem til deres destination. Koden er frit tilgængelig på GitHub.
Sidste artikelTrådløse sensorer klæber til huden og sporer sundhed
Næste artikelBærbare sensorer registrerer, hvad der er i din sved