Videnskab
 science >> Videnskab >  >> Elektronik

Facebooks annonceleveringssystem diskriminerer stadig efter race, køn, alder

Kredit:Hannah Moore/Northeastern University

Ved at afgøre fem forskellige retssager på én gang, Facebook lovede tidligere i år at ændre måden, det administrerer boligannoncer på, beskæftigelse, og kredit, der kører på dens platform. Annoncører ville ikke længere være i stand til at målrette mod en målgruppe efter køn, race, eller alder, for at forhindre diskrimination af lovligt beskyttede grupper.

Men, ny forskning udført af et team af dataloger, herunder den nordøstlige professor Alan Mislove, viser, at den algoritme, som Facebook bruger til at levere annoncer, stadig kan skæve mod specifikke demografiske grupper - på trods af de ændringer, virksomheden har foretaget.

"For at være klar, vi anklager ikke Facebook for at være i strid med forliget, " siger Mislove, der er professor i datalogi ved Northeastern. "Hellere, hvad vores forskning viser, er en kompleks algoritme, der virker."

Det er fordi algoritmer, Miskærlighed siger, handler meget anderledes i praksis, end de gør i teorien.

I teorien, fjernelse af annoncørers evne til specifikt at målrette mod folk efter race, køn, og alder bør resultere i reklamepublikum, der omfatter en mangfoldig blanding af mennesker. I praksis, Facebooks algoritme er afhængig af utallige andre karakteristika ved dets brugere, der i sidste ende tjener som proxy for race, køn, og alder, Mislove siger.

Den her sommer, Facebook introducerede sin Special Ad Audience-funktion – et marketingværktøj til folk, der promoverer annoncer, der tilbyder kredit, beskæftigelse, eller boligmuligheder. Mens et tøjfirma måske ønsker at annoncere direkte til mænd eller kvinder, kreditdomænerne, beskæftigelse, og boliger har særlig juridisk beskyttelse i USA for at forhindre diskrimination.

Mislove arbejdede sammen med et team af forskere, der også omfattede de nordøstlige ph.d.-kandidater Piotr Sapiezynski og Avijit Ghosh, bachelorstuderende Levi Kaplan, og en forsker fra nonprofit teknologiorganisationen Upturn for at teste den nye funktion mod sin forgænger, kaldet et Lookalike-publikum> .

Forskerne brugte offentligt tilgængelige vælgerdata til at skabe publikum, der bevidst var forudindtaget af race, køn, alder, og politiske holdninger, og førte dem til både de nye og eksisterende annonceringsværktøjer for at teste, om den tilsvarende algoritme ville reproducere hver bias.

Resultaterne var slående:Både Lookalike og Special Ad-målgrupper gentog de demografiske skævheder.

I en erklæring til ProPublica, Facebook-talsmand Joe Osborne sagde:"Vi er gået ud over andre for at hjælpe med at forhindre diskrimination i annoncer ved at begrænse målretning og tilføje gennemsigtighed. En annoncør, der er fast besluttet på at diskriminere mod folk, kan gøre det på ethvert online eller offline medie i dag, Derfor findes der love...Vi er den eneste digitale medieplatform, der foretager sådanne meningsfulde ændringer i annoncer, og vi er stolte af vores fremskridt."

Mislove siger, at resultaterne illustrerer den vanskelige opgave at sikre retfærdighed i algoritmer.

"I praksis, en algoritme får millioner af input, hver af dem er korreleret på andre måder til disse beskyttede funktioner, " siger Mislove.

Oplysninger som hvor du gik på college, hvor du bor, hvilke sider du har 'synes godt om' på Facebook, og mere kan utilsigtet tjene som indikatorer for din race, køn, og alder – og algoritmer, der er bygget til at optimere resultaterne, kan være afhængige af sådanne oplysninger for at afgøre, hvem der med størst sandsynlighed klikker på en annonce.

"Algorithmer er ligeglade, " siger Mislove. "De har et specifikt mål, og de kommer til at bruge kombinationen af ​​funktioner, der vil resultere i at fuldføre dette mål; det er lige meget for dem, hvis det betyder, at de kun leverer annoncer for tech-job til hvide mænd mellem 18 og 24 år."

Dette er et kompleks, men et presserende problem, Miskærlighed siger, som algoritmer understøtter flere og flere af vores daglige aktiviteter. Algoritmer bruges til at hjælpe med at træffe beslutninger om sundhedspleje, kreditværdighed, beskæftigelse, strafferetlig dom, rejsevejledning, hvilken musik du lytter til, og en svimlende række andre daglige interaktioner.

Alle spillere i disse domæner "ønsker effektiviteten af ​​algoritmer, men ikke alle overvejer, hvordan de kan gå galt, " siger Mislove.

Når tingene går galt, løsningen er ofte meget kompleks.

"Det er meget svært lige nu, i den forstand, at de beskyttede identiteter [som diskrimination kan forekomme] virkelig gennemsyrer vores samfund, " siger Mislove. "Det bliver meget sværere og meget mere subtilt end blot at fjerne visse funktioner i starten."


Varme artikler