Videnskab
 science >> Videnskab >  >> Elektronik

Din app til menstruation kan fortælle Facebook, hvornår du er gravid. En algoritmisk vogter kunne stoppe det

Sådan er det nu, vi har næsten ingen måde at vide, hvordan vores data bliver delt og brugt. Kredit:Shutterstock

De fleste af os kender teknologiske platforme som Facebook og Google track, gemme og tjene penge på vores data. Men der er konstant nye afsløringer om, hvor meget af vores privatliv, der er blevet skåret væk.

Det seneste kommer fra Wall Street Journal, som kastede en bombe i fredags, da deres test afslørede, at mange populære smartphone-apps har sendt personlige data til Facebook. Det inkluderer angiveligt data fra pulsovervågnings- og periodesporingsapps:"Flo Health Inc.'s Flo Periode &Ovulation Tracker, som hævder 25 millioner aktive brugere, fortalte Facebook, da en bruger havde sin menstruation eller informerede appen om en intention om at blive gravid, testene viste."

Når vi bruger teknologier, der sporer vores data, vi går ind i et system styret af algoritmer. Og jo mere information vi afleverer, jo mere vi bliver sammenflettet med algoritmiske systemer, vi ikke kontrollerer.

Vi har et presserende behov for beskyttelse, der varetager vores personlige interesser i dette system. Vi foreslår begrebet "algoritmiske vogtere" som en effektiv løsning.

Hvordan fungerer datasporingsalgoritmer?

Daglige, uden vores viden, teknologivirksomheder bruger vores data til at forudsige vores vaner, præferencer og adfærd. Algoritmer, der fungerer bag alt fra musikanbefalingssystemer til hjemmesikkerhedssystemer til ansigtsgenkendelse, bruger disse data til at skabe en digital tvillingversion af os.

Vi får derefter serveret indhold og annoncering baseret på, hvad algoritmen har besluttet, at vi ønsker og har brug for, uden at forklare, hvordan det kom til den beslutning, eller give os ethvert input til beslutningsprocessen.

Og vores interesser kommer sandsynligvis næst efter dem, der udviklede algoritmen.

I modsætning til hvad konceptet antyder, vi kontrollerer ikke direkte "personalisering", og vi har næsten ingen måde at beskytte vores autonomi i disse datatransaktioner og beslutningstagning.

Hvad er en 'algoritmisk vogter'?

Vi har foreslået konceptet med algoritmiske vogtere, som kunne programmeres til at styre vores digitale interaktioner med sociale platforme og apps i henhold til vores personlige præferencer.

De er tænkt som bots, personlige assistenter eller hologramteknologi, der ledsager os overalt, hvor vi begiver os online, og advare os om, hvad der foregår bag kulisserne.

Disse vogtere er selv algoritmer, men de arbejder for os alene. Ligesom computervirussoftware, dem, der undlader at beskytte brugerne, vil gå konkurs, mens dem, der får et ry som betroede værger, vil få succes.

Rent praktisk, vores værger ville gøre os genkendelige eller anonyme, når vi vælger at være det. De ville også ændre vores digitale identitet i overensstemmelse med vores ønsker, så vi kunne bruge forskellige tjenester med forskellige sæt personlige præferencer. Vores værger holder vores personlige data i vores egne hænder ved at sikre, at vores sikkerhedskopier og adgangskoder er sikre. Vi ville bestemme, hvad der huskes, og hvad der glemmes.

En algoritmisk vogter ville:

  • underrette os, hvis vores placering, online aktivitet eller samtaler blev overvåget eller sporet, og giv os muligheden for at forsvinde
  • hjælpe os med at forstå de relevante punkter i lange og besværlige vilkår og betingelser, når vi tilmelder os en onlinetjeneste
  • giv os en simpel forklaring, når vi ikke forstår, hvad der sker med vores data mellem vores computer, telefonoptegnelser og snesevis af apps, der kører i baggrunden på vores telefoner
  • underrette os, hvis en app sender data fra vores telefoner til tredjeparter, og giv os mulighed for at blokere det i realtid
  • fortælle os, om vores data er blevet tjent ind af en tredjepart, og hvad de var til.

Vi forestiller os algoritmiske vogtere som den næste generation i nuværende personlige assistenter såsom Siri, Alexa eller Watson. Takket være bærbar teknologi og avancerede modeller for interaktion mellem mennesker og computere, de vil være konstant og let tilgængelige.

Vores digitale vogtere behøver ikke at være intelligente på samme måde som mennesker. De skal snarere være smarte i forhold til det miljø, de lever i – ved at genkende og forstå de andre algoritmer, de møder.

I hvert fald selvom algoritmiske vogtere (i modsætning til tredjepartsalgoritmer) er brugerejede og er fuldstændig under vores egen kontrol, at kunne forstå, hvordan de fungerer, vil være en prioritet for at gøre dem fuldt ud troværdige.

Hvornår kommer algoritmiske vogtere?

Teknologien til at muliggøre algoritmiske vogtere dukker op, mens vi taler. Det, der halter, er den udbredte erkendelse af, at vi har brug for det.

Du kan se primitive versioner af algoritmisk guardians-teknologi i digitale hvælvinger til lagring og styring af adgangskoder, og i softwareindstillinger, der giver os en vis kontrol over, hvordan vores data bruges.

Forklarlig maskinlæring er et varmt emne lige nu, men stadig meget i forskningsdomænet. Det løser problemet med "den sorte boks", hvor vi ikke har nogen indsigt i, hvordan en algoritme faktisk nåede frem til sin endelige beslutning. I praksis, vi ved måske, at vores låneansøgning bliver afvist, men vi ved ikke, om det var på grund af vores historie med ubetalte elregninger, eller på grund af vores efternavn.

Uden denne ansvarlighed, nøgleøjeblikke i vores liv er medieret af ukendte, uset, og vilkårlige algoritmer. Algoritmiske vogtere kunne påtage sig rollen som at kommunikere og forklare disse beslutninger.

Nu hvor algoritmer er blevet gennemgående i dagligdagen, forklarlighed er ikke længere et valg, men et område, der kræver yderligere opmærksomhed.

Vi er nødt til at udvikle specifikke algoritmiske guardian-modeller i de næste par år for at lægge grundlaget for åbne algoritmiske systemer i løbet af det kommende årti. Den vej, hvis en app vil fortælle Facebook, at du er gravid, du ved om det, før det sker.

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.




Varme artikler