Videnskab
 science >> Videnskab >  >> Elektronik

YouTubes algoritmer kan radikalisere folk - men vi aner ikke, hvordan de fungerer

Kredit:Mr Tempter/Shutterstock

Skaber YouTube ekstremister? En nylig undersøgelse skabte argumenter blandt videnskabsmænd ved at hævde, at de algoritmer, der driver webstedet, ikke hjælper med at radikalisere folk ved at anbefale stadig mere ekstreme videoer, som det er blevet foreslået i de senere år.

Papiret, indsendt til åbent tidsskrift første mandag, men endnu ikke formelt peer-reviewet, analyserede videoanbefalinger modtaget af forskellige typer kanaler. Den hævdede, at YouTubes algoritme favoriserer mainstream mediekanaler frem for uafhængigt indhold, konkludere, at radikalisering har mere at gøre med de mennesker, der skaber skadeligt indhold, end sidens algoritme.

Specialister på området var hurtige til at reagere på undersøgelsen, hvor nogle kritiserede papirets metoder og andre argumenterede for, at algoritmen var en af ​​flere vigtige faktorer, og at datavidenskab alene ikke vil give os svaret.

Problemet med denne diskussion er, at vi ikke rigtig kan svare på spørgsmålet om, hvilken rolle YouTubes algoritme spiller i at radikalisere folk, fordi vi ikke forstår, hvordan det fungerer. Og dette er blot et symptom på et meget bredere problem. Disse algoritmer spiller en stigende rolle i vores daglige liv, men mangler enhver form for gennemsigtighed.

Det er svært at argumentere for, at YouTube ikke spiller en rolle i radikalisering. Dette blev først påpeget af teknologisociolog Zeynep Tufekci, som illustrerede, hvordan anbefalede videoer gradvist driver brugerne mod mere ekstremt indhold. Med Tufekcis ord, videoer om jogging fører til videoer om at løbe ultramaraton, videoer om vacciner fører til konspirationsteorier, og videoer om politik fører til "Holocaust-benægtelser og andet foruroligende indhold."

Dette er også blevet skrevet detaljeret om af den tidligere YouTube-medarbejder Guillaume Chaslot, som arbejdede på sidens anbefalingsalgoritme. Siden han forlod virksomheden, Chaslot har fortsat forsøgt at gøre disse anbefalinger mere gennemsigtige. Han siger, at YouTubes anbefalinger er forudindtaget i forhold til konspirationsteorier og faktuelt unøjagtige videoer, som alligevel får folk til at bruge mere tid på siden.

Faktisk, maksimering af visningstid er hele pointen med YouTubes algoritmer, og dette tilskynder videoskabere til at kæmpe for opmærksomhed på enhver mulig måde. Virksomhedens rene mangel på gennemsigtighed om præcis, hvordan dette fungerer, gør det næsten umuligt at bekæmpe radikalisering på siden. Trods alt, uden gennemsigtighed, det er svært at vide, hvad der kan ændres for at forbedre situationen.

Men YouTube er ikke usædvanligt i denne henseende. En mangel på gennemsigtighed om, hvordan algoritmer fungerer, er normalt tilfældet, når de bruges i store systemer, hvad enten det er private virksomheder eller offentlige organer. Ud over at beslutte, hvilken video der skal vises næste gang, maskinlæringsalgoritmer bruges nu til at placere børn i skoler, træffe afgørelse om fængselsstraffe, bestemme kreditscore og forsikringssatser, såvel som indvandreres skæbne, jobkandidater og universitetsansøgere. Og normalt forstår vi ikke, hvordan disse systemer træffer deres beslutninger.

Forskere har fundet kreative måder at vise virkningen af ​​disse algoritmer på samfundet, enten ved at undersøge fremkomsten af ​​det reaktionære højre eller spredningen af ​​konspirationsteorier på YouTube, eller ved at vise, hvordan søgemaskiner afspejler de racistiske skævheder hos de mennesker, der skaber dem.

Maskinlæringssystemer er normalt store, kompleks, og uigennemsigtig. passende, de beskrives ofte som sorte kasser, hvor information kommer ind, og information eller handlinger kommer ud, men ingen kan se, hvad der sker ind imellem. Det betyder at, da vi ikke ved præcis, hvordan algoritmer som YouTubes anbefalingssystem fungerer, at prøve at finde ud af, hvordan siden fungerer, ville være som at prøve at forstå en bil uden at åbne motorhjelmen.

På tur, det betyder, at forsøg på at skrive love til at regulere, hvad algoritmer skal eller ikke bør gøre, bliver en blind proces eller forsøg og fejl. Dette er, hvad der sker med YouTube og med så mange andre maskinlæringsalgoritmer. Vi forsøger at have indflydelse på deres resultater, uden en reel forståelse af, hvordan de virkelig fungerer. Vi er nødt til at åbne op for disse patenterede teknologier, eller i det mindste gøre dem gennemsigtige nok til, at vi kan regulere dem.

Forklaringer og test

En måde at gøre dette på ville være, at algoritmer giver kontrafaktiske forklaringer sammen med deres beslutninger. Det betyder, at man skal udarbejde de minimumsbetingelser, der er nødvendige for, at algoritmen kan træffe en anden beslutning, uden at beskrive dens fulde logik. For eksempel, en algoritme, der træffer beslutninger om banklån, kan producere et output, der siger, at "hvis du var over 18 år og ikke havde nogen tidligere gæld, du ville have dit banklån accepteret." Men dette kan være svært at gøre med YouTube og andre websteder, der bruger anbefalingsalgoritmer, som i teorien kan enhver video på platformen anbefales til enhver tid.

Et andet kraftfuldt værktøj er algoritmetestning og revision, hvilket har været særligt nyttigt til diagnosticering af skæve algoritmer. I et nyligt tilfælde, et professionelt CV-screeningsfirma opdagede, at dets algoritme prioriterede to faktorer som de bedste forudsigere for jobpræstationer:om kandidatens navn var Jared, og hvis de spillede lacrosse i gymnasiet. Dette er, hvad der sker, når maskinen går uden opsyn.

I dette tilfælde, algoritmen til cv-screening havde bemærket, at hvide mænd havde en større chance for at blive ansat, og havde fundet korrelerende proxy-karakteristika (såsom at blive navngivet Jared eller at spille lacrosse) til stede i de kandidater, der blev ansat. Med YouTube, Algoritmeauditering kan hjælpe med at forstå, hvilke slags videoer der prioriteres til anbefaling – og måske hjælpe med at afgøre debatten om, hvorvidt YouTube-anbefalinger bidrager til radikalisering eller ej.

Det er vanskeligt at introducere kontrafaktiske forklaringer eller bruge algoritmerevision. kostbar proces. Men det er vigtigt, fordi alternativet er værre. Hvis algoritmer forbliver ukontrollerede og uregulerede, vi kunne se et gradvist kryb af konspirationsteoretikere og ekstremister ind i vores medier, og vores opmærksomhed kontrolleres af den, der kan producere det mest rentable indhold.

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.




Varme artikler