Tekniske virksomheder kan bruge differentielt privatliv til at indsamle og dele aggregerede data om brugervaner, samtidig med at individets privatliv bevares. Kredit:Tim Snell/Flickr, CC BY-ND
Det er ingen hemmelighed, at store tech -virksomheder kan lide Facebook, Google, Apple og Amazon infiltrerer i stigende grad vores personlige og sociale interaktioner for hver dag at indsamle enorme mængder data om os. På samme tid, krænkelser af privatlivets fred i cyberspace laver regelmæssigt nyheder på forsiden.
Så hvordan skal privatlivets fred beskyttes i en verden, hvor data indsamles og deles med stigende hastighed og opfindsomhed?
Differentielt privatliv er en ny model for cybersikkerhed, som fortalerne hævder kan beskytte personoplysninger langt bedre end traditionelle metoder.
Den matematik, den er baseret på, blev udviklet for 10 år siden, og metoden er blevet vedtaget af Apple og Google i de seneste år.
Hvad er differentielt privatliv?
Differentielt privatliv gør det muligt for teknologivirksomheder at indsamle og dele aggregerede oplysninger om brugervaner, samtidig med at de enkelte brugeres privatliv bevares.
For eksempel, sige, at du ville vise de mest populære ruter, folk går på en gåtur gennem en park. Du sporer 100 menneskers ruter, der regelmæssigt går gennem parken, og om de går på stien eller gennem græsset.
Men i stedet for at dele de specifikke mennesker, der tager hver rute, du deler de samlede data, der er indsamlet over tid. Folk, der ser dine resultater, ved måske, at 60 ud af 100 mennesker foretrækker at tage en genvej gennem græsset, men ikke hvilke 60 personer.
Hvorfor har vi brug for det?
Mange af verdens regeringer har strenge politikker for, hvordan tech -virksomheder indsamler og deler brugerdata. Virksomheder, der ikke følger reglerne, kan få store bøder. En belgisk domstol beordrede for nylig Facebook til at stoppe indsamlingen af data om brugernes browservaner på eksterne websteder, eller få bøder på € 250, - 000 om dagen.
For mange virksomheder, især multinationale selskaber, der opererer i forskellige jurisdiktioner, dette efterlader dem i en delikat position, når det kommer til indsamling og brug af kundedata.
På den ene side, disse virksomheder har brug for brugernes data, så de kan levere tjenester af høj kvalitet, der gavner brugerne, såsom personlige anbefalinger. På den anden side, de kan blive sigtet, hvis de indsamler for mange brugerdata, eller hvis de forsøger at flytte data fra en jurisdiktion til en anden.
Traditionelle fortrolighedsbevarende værktøjer som kryptografi kan ikke løse dette dilemma, da det overhovedet forhindrer tech-virksomheder i at få adgang til dataene. Og anonymitet reducerer værdien af data - en algoritme kan ikke give dig personlige anbefalinger, hvis den ikke ved, hvad dine vaner er.
Kredit:Marco Verch/Flickr, CC BY
Hvordan virker det?
Lad os fortsætte eksemplet med vandreruter gennem en park. Hvis du kender identiteten af dem, der er inkluderet i undersøgelsen, men du ved ikke, hvem der har valgt hvilken rute, så kan du antage, at privatliv er beskyttet. Men det er måske ikke tilfældet.
Sig, at en person, der ser dine data, vil undersøge, om Bob foretrækker at gå gennem græsset eller på stien. De har indhentet baggrundsinformation om de andre 99 personer i undersøgelsen, som fortæller dem, at 40 mennesker foretrækker at gå på stien og 59 foretrækker at gå gennem græsset. Derfor, de kan udlede, at Bob, hvem er den 100. person i databasen, er den 60. person, der foretrækker at gå gennem græsset.
Denne type angreb kaldes et differentieret angreb, og det er ret svært at forsvare sig mod, da du ikke kan kontrollere, hvor meget baggrundsviden nogen kan opnå. Differentielt privatliv har til formål at forsvare sig mod denne type angreb.
Nogen, der udleder din vandrerute, lyder måske ikke for alvorlig, men hvis du erstatter vandreruter med hiv -testresultater, så kan du se, at der er potentiale for en alvorlig krænkelse af privatlivets fred.
Den differentielle privatlivsmodel garanterer, at selvom nogen har fuldstændige oplysninger om 99 af 100 mennesker i et datasæt, de kan stadig ikke udlede oplysningerne om den sidste person.
Den primære mekanisme til at opnå det er at tilføje tilfældig støj til de samlede data. I stieksemplet, du kan sige, at antallet af mennesker, der foretrækker at krydse græsset, er 59 eller 61, frem for det nøjagtige antal på 60. Det unøjagtige tal kan bevare Bobs privatliv, men det vil have meget lidt indflydelse på mønsteret:omkring 60% foretrækker at foretage en genvej.
Støjen er omhyggeligt designet. Da Apple anvendte differentielt privatliv i iOS 10, det tilføjede støj til individuelle brugerindgange. Det betyder, at den kan spore, for eksempel, de mest anvendte emojis, men emoji -brug for enhver individuel bruger er maskeret.
Cynthia Dwork, opfinderen af det differentielle privatliv, har foreslået vidunderlige matematiske beviser på, hvor meget støj der er nok til at opnå kravet om differentielt privatliv.
Hvad er dens praktiske anvendelser?
Differentielt privatliv kan anvendes på alt fra anbefalingssystemer til lokationsbaserede tjenester og sociale netværk. Apple bruger differentielt privatliv til at indsamle anonym brugsindsigt fra enheder som iPhones, iPads og Mac'er. Metoden er brugervenlig, og lovligt klart.
Differentielt privatliv vil også give en virksomhed som Amazon adgang til dine personlige indkøbspræferencer, mens den skjuler følsomme oplysninger om din historiske indkøbsliste. Facebook kunne bruge det til at indsamle adfærdsdata til målrettet annoncering, uden at krænke et lands privatlivspolitik.
Hvordan kunne det bruges i fremtiden?
Forskellige lande har forskellige politikker til beskyttelse af fortrolige oplysninger, og følsomme dokumenter skal i øjeblikket kontrolleres manuelt, før de flytter fra et land til et andet. Dette er tidskrævende og dyrt.
For nylig, et team fra Deakin University udviklede differential privatlivsteknologi til at automatisere fortrolighedsprocesser inden for cloud-delende fællesskaber på tværs af lande.
De foreslår at bruge matematiske formler til at modellere fortrolighedslovene i hvert land, der kan oversættes til "middleware" (software) for at sikre, at dataene er i overensstemmelse. Anvendelse af differentieret privatliv på denne måde kan beskytte brugernes privatliv og løse en hoveddeling af datadeling for tech -virksomheder.
Denne artikel blev oprindeligt offentliggjort på The Conversation. Læs den originale artikel.