Er det clickbait sandt? Kredit:Crystal Eye Studio/Shutterstock.com
Da Mark Zuckerberg fortalte kongressen, at Facebook ville bruge kunstig intelligens til at opdage falske nyheder på det sociale medie, han var ikke særlig specifik om, hvad det betød. I betragtning af mit eget arbejde med billed- og videoanalyse, Jeg foreslår, at virksomheden skal være forsigtig. På trods af nogle grundlæggende potentielle mangler, AI kan være et nyttigt værktøj til at spotte online propaganda – men det kan også være overraskende godt til at skabe vildledende materiale.
Forskere ved allerede, at falske nyheder på nettet spredes meget hurtigere og bredere end rigtige nyheder. Min forskning har ligeledes fundet ud af, at online indlæg med falske medicinske oplysninger får flere visninger, kommentarer og likes end dem med nøjagtigt medicinsk indhold. I en onlineverden, hvor seerne har begrænset opmærksomhed og er mættet med indholdsvalg, det ser ofte ud som om falsk information er mere tiltrækkende eller engagerende for seerne.
Problemet bliver værre:Inden 2022, mennesker i udviklede økonomier kan støde på flere falske nyheder end reel information. Dette kunne medføre et fænomen, som forskere har kaldt "reality vertigo" - hvor computere kan generere så overbevisende indhold, at almindelige mennesker kan have svært ved at finde ud af, hvad der er sandt længere.
Opdagelse af falskhed
Maskinlæringsalgoritmer, en type AI, har haft succes i årtier med at bekæmpe spam-e-mail, ved at analysere beskeders tekst og bestemme, hvor sandsynligt det er, at en bestemt besked er en reel kommunikation fra en faktisk person – eller en massedistribueret opfordring til lægemidler eller krav om en for længst tabt formue.
Bygger på denne type tekstanalyse i spam-bekæmpelse, AI-systemer kan evaluere, hvor godt et indlægs tekst, eller en overskrift, sammenligner med det faktiske indhold af en artikel, som nogen deler online. En anden metode kunne undersøge lignende artikler for at se, om andre nyhedsmedier har forskellige fakta. Lignende systemer kan identificere specifikke konti og kildewebsteder, der spreder falske nyheder.
En endeløs cyklus
Imidlertid, disse metoder antager, at de mennesker, der spreder falske nyheder, ikke ændrer deres tilgang. De skifter ofte taktik, manipulere indholdet af falske opslag i bestræbelserne på at få dem til at se mere autentiske ud.
Brug af kunstig intelligens til at evaluere information kan også afsløre – og forstærke – visse skævheder i samfundet. Dette kan relatere til køn, racemæssig baggrund eller nabolags stereotyper. Det kan endda få politiske konsekvenser, potentielt begrænse udtryk for bestemte synspunkter. For eksempel, YouTube har afskåret annoncering fra visse typer videokanaler, koster deres skabere penge.
Kontekst er også nøglen. Ords betydning kan ændre sig over tid. Og det samme ord kan betyde forskellige ting på liberale sider og konservative. For eksempel, et indlæg med termerne "WikiLeaks" og "DNC" på et mere liberalt websted kunne være mere tilbøjelige til at være nyheder, mens det på et konservativt websted kunne henvise til et bestemt sæt konspirationsteorier.
Bruger AI til at lave falske nyheder
Den største udfordring, imidlertid, at bruge AI til at opdage falske nyheder er, at det sætter teknologien i et våbenkapløb med sig selv. Maskinlæringssystemer har allerede vist sig uhyggeligt i stand til at skabe, hvad der bliver kaldt "deepfakes" - fotos og videoer, der realistisk erstatter en persons ansigt med en anden, for at få det til at se ud, for eksempel, en berømthed blev fotograferet i en afslørende positur, eller en offentlig person siger ting, han faktisk aldrig ville sige. Selv smartphone-apps er i stand til denne form for erstatning – hvilket gør denne teknologi tilgængelig for stort set alle, selv uden videoredigeringsevner på Hollywood-niveau.
Forskere forbereder sig allerede på at bruge AI til at identificere disse AI-skabte forfalskninger. For eksempel, teknikker til videoforstørrelse kan registrere ændringer i menneskelig puls, der kan fastslå, om en person i en video er ægte eller computergenereret. Men både fakere og falske-detektorer vil blive bedre. Nogle forfalskninger kan blive så sofistikerede, at de bliver meget svære at afvise eller afvise – i modsætning til tidligere generationer af forfalskninger, som brugte et simpelt sprog og fremsatte let afkræftede påstande.
Menneskelig intelligens er den virkelige nøgle
Den bedste måde at bekæmpe spredningen af falske nyheder på kan være at være afhængig af folk. De samfundsmæssige konsekvenser af falske nyheder – større politisk polarisering, øget partiskhed, og udhulet tillid til almindelige medier og regering – er væsentlige. Hvis flere mennesker vidste, at indsatsen var så høj, de kan være mere på vagt over for information, især hvis det er mere følelsesmæssigt baseret, fordi det er en effektiv måde at få folks opmærksomhed på.
Når nogen ser et rasende indlæg, denne person ville gøre det bedre for at undersøge oplysningerne, i stedet for at dele det med det samme. Handlingen med at dele giver også troværdighed til et opslag:Når andre mennesker ser det, de registrerer, at det blev delt af en, de kender og formentlig stoler en smule på, og er mindre tilbøjelige til at bemærke, om den originale kilde er tvivlsom.
Sociale medier som YouTube og Facebook kunne frivilligt beslutte at mærke deres indhold, viser tydeligt, om et emne, der foregiver at være nyheder, er verificeret af en velrenommeret kilde. Zuckerberg fortalte Kongressen, at han ønsker at mobilisere "fællesskabet" af Facebook-brugere til at styre hans virksomheds algoritmer. Facebook kunne crowdsource verifikationsbestræbelser. Wikipedia tilbyder også en model, af dedikerede frivillige, der sporer og verificerer oplysninger.
Facebook kunne bruge sine partnerskaber med nyhedsorganisationer og frivillige til at træne kunstig intelligens, konstant at tilpasse systemet til at reagere på propagandisters ændringer i emner og taktik. Dette vil ikke fange alle nyheder, der er lagt ud på nettet, men det ville gøre det lettere for et stort antal mennesker at skelne fakta fra falske. Det kunne reducere chancerne for, at fiktive og vildledende historier ville blive populære online.
betryggende, mennesker, der har en vis eksponering for præcise nyheder, er bedre til at skelne mellem ægte og falsk information. Nøglen er at sikre, at i det mindste noget af det, folk ser online, er faktisk, sand.
Denne artikel blev oprindeligt publiceret på The Conversation. Læs den originale artikel.