Kredit:CC0 Public Domain
Google har annonceret, at det frigiver open source-versionen af et differentielt privatlivsbibliotek, der hjælper med at drive nogle af sine egne produkter.
Google investerede i differentieret privatlivsbeskyttelse, for eksempel, ved at måle, hvor populær en bestemt restaurant ret er på Google Maps, sagde Engadget . Nu kan værktøjet hjælpe andre udviklere med at nå et ønsket niveau af differentielt beskyttelse af privatlivets fred. "Ved at frigive sit hjemmelavede differentielle privatlivsværktøj, Google vil gøre det nemmere for enhver virksomhed at bona fides om privatlivets fred, " sagde Kablet .
Back up. Hvad er differentieret privatliv? Dette er datavidenskabsprog. Her er, hvordan Lily Hay Newman beskrev det i Kablet :Det tilføjer strategisk tilfældig støj til brugeroplysninger, der er gemt i databaser, så virksomheder stadig kan analysere det uden at kunne skille mennesker ud.
Tidligere har Andy Greenberg havde dækket det ind Kablet som "et matematisk værktøj, " administrerer at mine brugerdata, samtidig med at brugernes privatliv beskyttes. Hvordan? Indtast tilføjelsen af "tilfældig støj" til personens oplysninger, "før den uploades til skyen."
Nick Statt ind Randen tilbød endnu et øjebliksbillede af differentieret privatliv som "en kryptografisk tilgang til datavidenskab, især med hensyn til analyse, det gør det muligt for en person, der er afhængig af software-assisteret analyse, at trække indsigt fra massive datasæt og samtidig beskytte brugerens privatliv. "
I maj, Nicolas Sartor ind Luftkappe skrev om, hvordan det var relateret til anonymisering, et udtryk, som mange flere allerede kender. "Når man beskæftiger sig med dataanonymisering, man støder uundgåeligt på differentieret privatliv. Mange privatlivsforskere betragter det som "guldstandarden" for anonymisering. Kendte teknologivirksomheder som Apple eller Google bruger det til visse dataanalyser og markedsfører det for at øge offentlighedens bevidsthed og understreger deres fokus på databeskyttelse. "
Hvad angår Google -meddelelsen, Newman rapporterede om, hvad udviklere får:(1) et sæt open source-differentielle privatlivsbiblioteker, der tilbyder ligninger og modeller, der er nødvendige for at sætte grænser og begrænsninger for at identificere data og (2) en grænseflade, der gør det lettere for flere udviklere at implementere beskyttelsen.
Miguel Guevara, Produktchef, Kontoret for privatliv og databeskyttelse, postede noget på Google Developers-bloggen i torsdags, der gør det klart, at ikke kun udviklere – men virksomheder og til gengæld de mennesker, de betjener – kan drage fordel af stærk beskyttelse af privatlivets fred, mens open source-biblioteket er designet til at imødekomme udviklernes behov.
"Uanset om du er byplanlægger, en lille virksomhedsejer, eller en softwareudvikler, at få nyttig indsigt fra data kan hjælpe med at få tjenester til at fungere bedre og besvare vigtige spørgsmål. Men, uden stærk beskyttelse af privatlivets fred, du risikerer at miste dine borgeres tillid, kunder, og brugere."
Guevera sagde "Fra medicin, til regeringen, til forretning, og videre, det er vores håb, at disse open source-værktøjer vil hjælpe med at producere indsigt, der gavner alle. "Guevara tilbød et eksempel på, hvordan analysen kan implementeres af forskere inden for sundhedsvæsenet.
"Differentiel-privat dataanalyse... gør det muligt for organisationer at lære af størstedelen af deres data, samtidig med at de sikrer, at disse resultater ikke tillader, at nogen persons data kan skelnes eller genidentificeres...F.eks. hvis du er sundhedsforsker, Det kan være en god ide at sammenligne den gennemsnitlige tid, patienterne forbliver indlagte på tværs af forskellige hospitaler for at afgøre, om der er forskelle i behandlingen. Differentiel privatliv er en høj sikkerhed, analytiske midler til at sikre, at brugssager som denne behandles på en privatlivsbevarende måde."
GitHub-siden sagde, at projektet har "et C++-bibliotek af ε-differentiel private algoritmer, som kan bruges til at producere aggregeret statistik over numeriske datasæt, der indeholder private eller følsomme oplysninger. Ud over, vi leverer en stokastisk tester til at kontrollere rigtigheden af algoritmerne."
Rent faktisk, den stokastiske tester er hvad Hjælp med Net Security 's Zeljka Zorz fandt ud af at være de vigtigste ting ved udgivelsen. Hun sagde, at det var for at hjælpe med at få øje på fejl og problemer i implementeringen, "der kunne få den differentielle privatlivsegenskab til ikke længere at holde. Dette vil give udviklere mulighed for at sikre, at deres implementering fungerer, som den skal."
Hendes kommentar havde resonans i lyset af, hvad Newman indeholdt Kablet sagde om eksperter, der kraftigt fraråder udviklere at forsøge at "rulle din egen" differentielle privatlivsordning, eller design en fra bunden. "Google håber, at dets open source-værktøj vil være let nok til at bruge, så det kan være en one-stop-shop for udviklere, der ellers kan komme i problemer."
CNET citerede Bryant Gipson, en ingeniørchef hos Google, i et interview. "Målet med dette er at levere et bibliotek af primære algoritmer, som du kan bygge enhver form for differentiel privatlivsløsning ovenpå."
© 2019 Science X Network