På egen hånd, menneskelig dømmekraft kan være subjektiv og skæv i forhold til personlige skævheder.
De oplysninger, vi støder på online hver dag, kan være vildledende, ufuldstændig eller fremstillet.
At blive udsat for "falske nyheder" på sociale medieplatforme som Facebook og Twitter kan påvirke vores tanker og beslutninger. Vi har allerede set misinformation forstyrre valg i USA.
Facebook -grundlægger Mark Zuckerberg har gentagne gange foreslået kunstig intelligens (AI) som løsningen på det falske nyhedsdilemma.
Imidlertid, spørgsmålet kræver sandsynligvis et højt niveau af menneskelig involvering, da mange eksperter er enige om, at AI -teknologier har brug for yderligere fremskridt.
Jeg og to kolleger har modtaget midler fra Facebook til uafhængigt at udføre forskning om en "human-in-the-loop" AI-tilgang, der kan hjælpe med at bygge bro over kløften.
Human-in-the-loop henviser til inddragelse af mennesker (brugere eller moderatorer) for at støtte AI i at udføre sit job. For eksempel, ved at oprette træningsdata eller manuelt validere de beslutninger, der træffes af AI.
Vores tilgang kombinerer AIs evne til at behandle store mængder data med menneskers evne til at forstå digitalt indhold. Dette er en målrettet løsning til falske nyheder på Facebook, i betragtning af dens massive skala og subjektive fortolkning.
Datasættet, vi udarbejder, kan bruges til at træne AI. Men vi vil også have, at alle brugere af sociale medier er mere bevidste om deres egne skævheder, når det kommer til, hvad de kalder falske nyheder.
Mennesker har fordomme, men også unik viden
For at udrydde falske nyheder, at bede Facebook -medarbejdere om at tage kontroversielle redaktionelle beslutninger er problematisk, som vores forskning fandt. Det skyldes, at den måde, folk opfatter indhold på, afhænger af deres kulturelle baggrund, politiske ideer, fordomme, og stereotyper.
Facebook har ansat tusinder af mennesker til indholdsmoderering. Disse moderatorer bruger otte til ti timer om dagen på at se på eksplicit og voldeligt materiale såsom pornografi, terrorisme, og halshugninger, at beslutte, hvilket indhold der er acceptabelt for brugerne at se.
Betragt dem som cybervogtere, der renser vores sociale medier ved at fjerne upassende indhold. De spiller en integreret rolle i at forme, hvad vi interagerer med.
En lignende tilgang kunne tilpasses falske nyheder, ved at spørge Facebooks moderatorer, hvilke artikler der skal fjernes, og hvilke der bør være tilladt.
AI -systemer kunne gøre dette automatisk i stor skala ved at lære, hvad falske nyheder er fra manuelt kommenterede eksempler. Men selv når AI kan registrere "forbudt" indhold, menneskelige moderatorer er nødvendige for at markere indhold, der er kontroversielt eller subjektivt.
Et berømt eksempel er Napalm Girl -billedet.
Pulitzer-prisvindende fotografi viser børn og soldater flygte fra en napalm-bombeeksplosion under Vietnamkrigen. Billedet blev lagt på Facebook i 2016 og fjernet, fordi det viste en nøgen ni-årig pige, i strid med Facebooks officielle fællesskabsstandarder.
Der fulgte betydelig samfundsprotest, da det ikoniske billede havde tydelig historisk værdi, og Facebook tillod billedet tilbage på sin platform.
Brug det bedste af hjerner og bots
I forbindelse med verificering af oplysninger, menneskelig vurdering kan være subjektiv og skæv baseret på en persons baggrund og implicit bias.
I vores forskning har vi til formål at indsamle flere "sandhedsetiketter" for det samme nyhedsniveau fra et par tusinde moderatorer. Disse etiketter angiver "fakeness" -niveauet i en nyhedsartikel.
I stedet for blot at samle de mest populære etiketter, Vi vil også registrere moderatorers baggrunde og deres specifikke domme for at spore og forklare tvetydighed og kontrovers i svarene.
Vi samler resultater for at generere et datasæt af høj kvalitet, hvilket kan hjælpe os med at forklare sager med stor uenighed blandt moderatorer.
I øjeblikket, Facebook -indhold behandles som binært - det overholder enten standarderne eller ikke.
Datasættet, vi kompilerer, kan bruges til at træne AI til bedre at identificere falske nyheder ved at lære det, hvilke nyheder der er kontroversielle, og hvilke nyheder der er almindelige falske. Dataene kan også hjælpe med at evaluere, hvor effektiv nuværende AI er i detektering af falske nyheder.
Magt til folket
Mens benchmarks til evaluering af AI -systemer, der kan registrere falske nyheder, er betydelige, vi vil gå et skridt videre.
I stedet for kun at bede AI eller eksperter om at tage beslutninger om, hvilke nyheder der er falske, vi bør lære brugere af sociale medier at identificere sådanne emner for sig selv. Vi mener, at en fremgangsmåde, der har til formål at fremme informations -troværdighedskompetence, er mulig.
I vores igangværende forskning, vi samler en lang række brugersvar for at identificere troværdigt nyhedsindhold.
Selvom dette kan hjælpe os med at opbygge AI -træningsprogrammer, det lader os også studere udviklingen af menneskelige moderatorfærdigheder til at genkende troværdigt indhold, da de udfører opgaver til identifikation af falske nyheder.
Dermed, vores forskning kan hjælpe med at designe onlineopgaver eller spil, der sigter mod at træne brugere af sociale medier til at genkende pålidelige oplysninger.
Andre veje
Spørgsmålet om falske nyheder behandles på forskellige måder på tværs af online platforme.
Det fjernes ganske ofte gennem en bottom-up tilgang, hvor brugere rapporterer upassende indhold, som derefter gennemgås og fjernes af platformens medarbejdere ..
Den tilgang Facebook tager, er at nedgradere upålideligt indhold frem for at fjerne det.
I hvert tilfælde, behovet for, at folk træffer beslutninger om indholdets egnethed, forbliver. Både brugeres og moderators arbejde er afgørende, da mennesker er nødvendige for at fortolke retningslinjer og tage stilling til værdien af digitalt indhold, især hvis det er kontroversielt.
Derved, de skal forsøge at se ud over kulturelle forskelle, fordomme og grænser.
Denne artikel er genudgivet fra The Conversation under en Creative Commons -licens. Læs den originale artikel.
Sidste artikelIndonesien bebrejder 737 MAX -design for Lion Air -styrt:rapport
Næste artikelAmazon smart display øjne hjælper synshæmmede