Kredit:Pixabay/CC0 Public Domain
Fra bank til kommunikation er vores moderne hverdag drevet af data med vedvarende bekymringer om privatlivets fred. Nu er et nyt EPFL-papir offentliggjort i Nature Computational Science hævder, at mange løfter givet omkring privatlivsbevarende mekanismer aldrig vil blive opfyldt, og at vi er nødt til at acceptere disse iboende grænser og ikke jagte det umulige.
Datadrevet innovation i form af personlig medicin, bedre offentlige tjenester eller for eksempel grønnere og mere effektiv industriproduktion lover at bringe enorme fordele for mennesker og vores planet, og udbredt adgang til data anses for at være afgørende for at drive denne fremtid. Alligevel vækker aggressiv dataindsamling og analysepraksis alarm over samfundsværdier og grundlæggende rettigheder.
Som et resultat heraf er, hvordan man kan udvide adgangen til data, samtidig med at fortroligheden af følsomme, personlige oplysninger beskyttes, blevet en af de mest udbredte udfordringer i at frigøre potentialet i datadrevne teknologier og et nyt papir fra EPFL's Security and Privacy Engineering Lab (SPRING) i School of Comupter and Communication Sciences hævder, at løftet om, at enhver databrug kan løses under både god nytte og privatliv, er beslægtet med at jage regnbuer.
Leder af SPRING Lab og medforfatter til papiret, adjunkt Carmela Troncoso, siger, at der er to traditionelle tilgange til at bevare privatlivets fred:"Der er vejen til at bruge privatlivsbevarende kryptografi, behandle data i et dekrypteret domæne og få en resultat. Men begrænsningen er behovet for at designe meget målrettede algoritmer og ikke kun udføre generiske beregninger."
Problemet med denne type privatlivsbevarende teknologi, hævder avisen, er, at de ikke løser et af de vigtigste problemer, der er mest relevante for praktiserende læger:hvordan man deler data af høj kvalitet på individniveau på en måde, der bevarer privatlivets fred, men tillader analytikere til at udtrække et datasæts fulde værdi på en yderst fleksibel måde.
Den anden vej, der forsøger at løse denne udfordring, er anonymiseringen af data – det vil sige fjernelse af navne, lokationer og postnumre, men, hævder Troncoso, ofte er problemet selve dataene. "Der er et berømt Netflix-eksempel, hvor virksomheden besluttede at frigive datasæt og køre en offentlig konkurrence for at producere bedre 'anbefalings'-algoritmer. Det fjernede navnene på klienter, men når forskere sammenlignede filmvurderinger med andre platforme, hvor folk bedømmer film, var de i stand til at at de-anonymisere folk."
For nylig er syntetiske data dukket op som en ny anonymiseringsteknik, men papiret antyder, at i modsætning til løfterne fra dets tilhængere, er det underlagt de samme afvejninger om privatlivets fred/nytte som den traditionelle anonymisering af data. "Som vi siger i vores papir, bør forskere og praktikere acceptere den iboende afvejning mellem høj fleksibilitet i dataværktøjer og stærke garantier omkring privatlivets fred," sagde Theresa Stadler, doktorassistent i SPRING Lab og avisens medforfatter.
"Dette kan meget vel betyde, at omfanget af datadrevne applikationer skal reduceres, og dataindehavere bliver nødt til at træffe eksplicitte valg om den datadelingstilgang, der er bedst egnet til deres anvendelsessituation," fortsatte Stadler.
Et andet nøglebudskab i papiret er ideen om en langsommere, mere kontrolleret udgivelse af teknologi. I dag er ultrahurtig implementering normen med en "vi ordner det senere" mentalitet, hvis tingene går galt, en tilgang, som Troncoso mener er meget farlig, "Vi er nødt til at begynde at acceptere, at der er grænser. Vil vi virkelig fortsætte disse data drevet gratis for alle, hvor der ikke er noget privatliv og med stor indflydelse på demokratiet? Det er ligesom Groundhog Day, vi har talt om dette i 20 år, og det samme sker nu med maskinlæring. Vi lægger algoritmer derude , de er forudindtaget, og håbet er, at de senere vil blive rettet. Men hvad nu, hvis de ikke kan rettes?"
Alligevel er snæver funktionalitet og højt privatliv ikke teknologigiganternes forretningsmodel, og Troncoso opfordrer indtrængende til, at vi alle tænker mere omhyggeligt over, hvordan de løser dette kritiske problem.
"Mange af de ting, som Google og Apple gør, er i bund og grund at hvidvaske deres skadelige praksis og lukke markedet. For eksempel lader Apple ikke apps indsamle oplysninger, men indsamler selv dataene på en såkaldt "privatlivsbevarende" måde og sælger derefter det på. Det, vi siger, er, at der ikke er nogen måde at bevare privatlivets fred på. Spørgsmålet er "forhindrede teknologien skade fra systemet, eller gjorde den bare systemet lige så skadeligt"? Privatliv i sig selv er ikke et mål, privatliv er et midler til at beskytte os selv med," slutter Troncoso.