Videnskab
 science >> Videnskab >  >> Elektronik

Hvor falske nyheder spreder sig som en rigtig virus

Kan den hurtige spredning af falsk information dæmpes? Kredit:Sarah Rieke

Når det kommer til rigtige falske nyheder, den slags desinformation, som Rusland indsatte under valget i 2016, "at gå viral" er ikke bare en metafor.

Brug af værktøjerne til modellering af spredningen af ​​infektionssygdomme, cyberrisikoforskere ved Stanford Engineering analyserer spredningen af ​​falske nyheder meget som om det var en stamme af Ebola. "Vi vil finde den mest effektive måde at skære transmissionskæderne på, rette oplysningerne om muligt og uddanne de mest sårbare mål, "siger Elisabeth Paté-Cornell, professor i ledelsesvidenskab og teknik. Hun har længe specialiseret sig i risikoanalyse og cybersikkerhed og overvåger forskningen i samarbejde med Travis I. Trammell, en doktorand ved Stanford. Her er nogle af de vigtigste læringer:

Hvordan replikerer falske nyheder på tværs af sociale medier?

Forskerne har tilpasset en model til forståelse af sygdomme, der kan inficere en person mere end én gang. Det ser på, hvor mange mennesker der er "modtagelige" for sygdommen - eller i dette tilfælde, sandsynligvis tro på et stykke falske nyheder. Det ser også på, hvor mange der har været udsat for det, og hvor mange der egentlig er "smittet" og tror på historien; og hvor mange mennesker, der sandsynligvis vil sprede et stykke falske nyheder.

Ligesom en virus, forskerne siger, at over tid at blive udsat for flere stammer af falske nyheder kan nedbringe en persons modstand og gøre dem mere og mere modtagelige. Jo flere gange en person udsættes for et stykke falske nyheder, især hvis det kommer fra en indflydelsesrig kilde, jo mere sandsynligt er det, at de bliver overbevist eller inficeret.

Hvad får den til at sprede sig hurtigere?

Den såkaldte "magtlov" "på sociale medier, et veldokumenteret mønster i sociale netværk, mener, at meddelelser replikeres hurtigst, hvis de er målrettet mod et relativt lille antal indflydelsesrige mennesker med store følger.

Forskere ser også på den relative effektivitet af trolde versus bots. Trammell siger bots, som er automatiserede programmer, der maskerer som mennesker, har en tendens til at være særlig god til at sprede et massivt antal meget følelsesladede beskeder med lidt informationsindhold. Tænk her på en besked med billedet af Hillary Clinton bag tremmer og ordene "Lock Her Up!" Den slags besked vil hurtigt sprede sig inden for ekkokamrene, der er befolket af dem, der allerede er enige i grundfølelsen. Bots har betydelig magt til at opblænde mennesker, der allerede er ligesindede, selvom de kan være lettere at opdage og blokere end trolde.

Derimod, trolde er typisk rigtige mennesker, der spreder provokerende historier og memes. Trolde kan være bedre til at overtale folk, der er mindre overbeviste og ønsker mere information.

Hvilken slags mennesker er mest modtagelige?

Paté-Cornell og Trammell siger, at der er betydelige tegn på, at ældre, de unge og de mindre uddannede er særligt modtagelige for falske nyheder. Men i bredeste forstand er det partisaner i de politiske ekstremer, uanset om det er liberalt eller konservativt, der mest kan lide at tro en falsk historie til dels på grund af bekræftelsesforstyrrelser - tendensen i os alle til at tro på historier, der forstærker vores overbevisning - og jo stærkere disse overbevisninger, jo mere kraftfuldt personen føler træk af bekræftelsesforstyrrelse.

Er podning mulig?

Paté-Cornell og Trammell siger, at meget gerne almindelig kriminalitet, desinformation vil aldrig forsvinde. Men ved at lære, hvordan det spredes via sociale medier, forskerne siger, at det er muligt at kæmpe tilbage. Sociale medieplatforme kunne blive meget hurtigere til at opdage mistænkt indhold. De kunne derefter vedhæfte advarsler - en form for podning - eller de kunne karantæne mere af det.

Udfordringen, de siger, er, at beskyttelse har omkostninger - økonomiske omkostninger samt reduceret bekvemmelighed og begrænsninger i ytringsfriheden. Paté-Cornell siger, at farerne ved falske nyheder bør analyseres som en strategisk ledelsesrisiko svarende til, hvordan vi traditionelt har analyseret de risici, der er forbundet med cyberangreb med det formål at deaktivere kritisk infrastruktur. "Det er et spørgsmål om, hvordan vi bedst kan forvalte vores ressourcer for at minimere risikoen, "siger hun." Hvor meget er du villig til at bruge, og hvilket risikoniveau er vi villige til at acceptere? "

Hvad rummer fremtiden?

Falske nyheder er allerede et nationalt sikkerhedsproblem. Men Paté-Cornell og Trammell forudsiger, at kunstig intelligens vil turbolade falske nyheder i de kommende år. AI vil gøre det meget lettere at målrette mod mennesker med falske nyheder eller dyb-falske videoer-videoer, der virker virkelige, men helt eller delvist er fremstillet-der er fint tilpasset, hvad en modtagelig seer sandsynligvis vil acceptere og måske sprede. AI kan også gøre det let at oprette hære af mere indflydelsesrige bots, der ser ud til at dele et måls sociale baggrund, hjemby, personlige interesser eller religiøse overbevisninger. Sådanne former for hypermålretning ville gøre meddelelserne meget mere overbevisende. AI viser også et stort potentiale til at modvirke denne plage ved at identificere falsk indhold i alle former, men kun tiden vil vise, hvem der sejrer i dette new age våbenkapløb.