Videnskab
 science >> Videnskab >  >> Elektronik

Cambridge Analytica-skandale - legitime forskere, der bruger Facebook-data, kan være sideløbende skade

Skandalen, der er udbrudt omkring Cambridge Analyticas påståede høst af 50 millioner Facebook-profiler samlet fra data leveret af en britisk-baseret akademiker og hans firma, er en bekymrende udvikling for legitime forskere.

Politisk dataanalysevirksomhed Cambridge Analytica – som er tilknyttet Strategic Communication Laboratories (SCL) – brugte angiveligt Facebook-data, efter det blev overdraget af Aleksandr Kogan, en underviser ved University of Cambridges afdeling for psykologi.

Kogan, gennem sit firma Global Science Research (GSR) - adskilt fra sit universitetsarbejde - hentede dataene fra en personlighedstest -app ved navn "thisisyourdigitallife". Omtrent 270,- 000 USA-baserede Facebook-brugere svarede frivilligt på testen i 2014. Men appen indsamlede også data om deltagernes Facebook-venner uden deres samtykke.

Dette var muligt på grund af Facebook-regler på det tidspunkt, der tillod tredjepartsapps at indsamle data om en Facebook-brugers venner. Det Mark Zuckerberg-drevne firma har siden ændret sin politik for at forhindre en sådan adgang til udviklere.

Whistleblower Christopher Wylie, som tidligere har arbejdet som entreprenør hos Cambridge Analytica, fortalte Guardian, at virksomheden brugte dataene til at målrette amerikanske vælgere forud for præsident Donald Trumps sejr i 2016. Han hævdede, at Cambridge Analytica var en "full-service propagandamaskine".

Cambridge Analytica har nægtet enhver forseelse og sagde, at den forretningstaktik, den anvendte, er udbredt blandt andre virksomheder. For hans vedkommende, Kogan insisterer på, at det, han gjorde, til enhver tid var i overensstemmelse med loven - og siger også, ifølge CNN, at han gerne ville vidne for den amerikanske kongres og tale med FBI om det arbejde, han udførte for virksomheden.

Facebook sagde den 18. marts, at de havde suspenderet SCL, påstand om, at Kogan havde "løjet for os og overtrådt vores platformspolitikker ved at videregive data fra en app, der brugte Facebook-login til SCL/Cambridge Analytica." Facebook angiver under del tre af sin platformspolitik, at udviklere ikke har tilladelse til at "overføre data, som du modtager fra os (herunder anonym, samlet, eller afledte data) til ethvert annoncenetværk, datamægler eller anden reklame- eller indtægtsrelateret tjeneste."

I en erklæring til Cambridge News, University of Cambridge sagde:"Vi er klar over, at Dr. Kogan etablerede sit eget firma, Global Science Research (GSR), hvoraf SCL/Cambridge Analytica var kunde. Det er ikke ualmindeligt, at Cambridge-akademikere har forretningsinteresser, men de skal overbevise universitetet om, at disse afholdes i en personlig egenskab, og at der ikke er nogen interessekonflikter."

Det er vores forståelse, at thisisyourdigitallife-appen blev skabt af GSR. Baseret på forsikringer fra Dr. Kogan såvel som de beviser, der er tilgængelige for os, vi har ingen grund til at tro, at han brugte universitetsdata eller faciliteter til sit arbejde med GSR, og derfor, at der ikke er nogen grund til at tro, at universitetets data og faciliteter blev brugt som grundlag for GSR's efterfølgende arbejde med en anden part.

En dag efter Cambridge Analytica-skandalen ramte, Facebooks aktier styrtdykkede på Wall Street midt i modreaktionen om privatlivets fred. Men kunne hændelsen påvirke legitim akademisk forskning?

Implikationer

Sociale mediedata er en rig kilde til information for mange forskningsområder inden for psykologi, teknologi, erhvervsliv og humaniora. Nogle nyere eksempler inkluderer brug af Facebook til at forudsige optøjer, sammenligne brugen af ​​Facebook med bekymring for kropsbilledet hos unge piger og undersøge, om Facebook kan sænke niveauet af stressreaktioner, med forskning, der tyder på, at det kan forbedre og underminere psykosociale konstruktioner relateret til velvære.

Det er rigtigt at tro, at forskere og deres arbejdsgivere værdsætter forskningsintegritet. Men tilfælde, hvor tillid er blevet svigtet af en akademiker – selvom det er tilfældet, at data brugt til universitetsforskningsformål ikke blev fanget i krydsilden – vil have en negativ indflydelse på, om deltagerne fortsat vil stole på forskere. Det har også konsekvenser for forskningsstyring og for virksomheder at dele data med forskere i første omgang.

Universiteter, forskningsorganisationer og -finansierere styrer forskningens integritet med klare og strenge etiske procedurer designet til at beskytte deltagere i undersøgelser, såsom hvor sociale medier data bruges. Indsamling af data uden tilladelse fra brugere betragtes som en uetisk aktivitet under almindeligt forståede forskningsstandarder.

Nedfaldet fra Cambridge Analytica-kontroversen er potentielt enormt for forskere, der er afhængige af sociale netværk til deres studier, hvor data rutinemæssigt deles med dem til forskningsformål. Tekniske virksomheder kunne blive mere tilbageholdende med at dele data med forskere. Facebook er allerede ekstremt beskyttende over for sine data - bekymringen er, at det kan blive dobbelt svært for forskere at få lovlig adgang til disse oplysninger i lyset af, hvad der er sket med Cambridge Analytica.

Dataanalyse

Klart, det er ikke kun forskere, der bruger profildata til bedre at forstå folks adfærdsmønstre. Marketingorganisationer har profileret forbrugere i årtier – hvis de kender deres kunder, de vil forstå de udløsere, der fremkalder et køb af deres produkt, sætter dem i stand til at justere marketingbudskaber for at forbedre salget. Det er blevet nemmere med digital markedsføring – folk bliver konstant sporet online, deres aktiviteter analyseres ved hjælp af dataanalyseværktøjer, og der fremsættes personlige anbefalinger. Sådanne metoder er kernen i forretningsstrategierne for techgiganter som Amazon og Netflix.

Information fra onlineadfærd kan bruges til at forudsige folks humør, følelser og personlighed. Min egen forskning i intelligente vejledningssystemer bruger elevinteraktioner med software til at profilere personlighedstype, så den automatisk kan tilpasse vejledning til en persons foretrukne stil. Maskinlæringsteknikker kan kombinere teorier fra psykologi med nye fundne mønstre – såsom Facebook "synes godt om" – til profilbrugere.

Eli Pariser, hvem er administrerende direktør for viralt indholdswebsted Upworthy, har argumenteret imod personaliseringsværktøjer siden 2011. Han har advaret mod farerne ved informationsfiltrering, og mener, at brugen af ​​algoritmer - til at profilere folk for at vise dem information, der er skræddersyet til personlig smag - er dårligt for demokratiet.

Selvom denne frygt synes at blive bekræftet af nogle påstande mod Cambridge Analytica, det er værd at bemærke, at der ikke har været bevis for, at amerikanske stemmer blev svinget til fordel for Trump på grund af Cambridge Analyticas psykometriske værktøj.

Imidlertid, i betragtning af hans akademiske status, Kogans tilsyneladende beslutning om at overføre Facebook-data til kommercielle formål i strid med det sociale netværks politikker kan stadig få eksplosive konsekvenser, ikke mindst fordi forskere kan have sværere ved at få Facebook – og dets brugere – til at gå med til at udlevere dataene til forskning alene.

Denne artikel blev oprindeligt publiceret på The Conversation. Læs den originale artikel.




Varme artikler