Videnskab
 science >> Videnskab >  >> Elektronik

AI for #MeToo:Træning af algoritmer til at spotte online trolde

Kredit:CC0 Public Domain

Forskere ved Caltech har vist, at maskinlæringsalgoritmer kan overvåge online-samtaler på sociale medier, efterhånden som de udvikler sig, som en dag kan føre til en effektiv og automatiseret måde at spotte online trolling på.

Projektet forener laboratorierne for kunstig intelligens (AI)-forsker Anima Anandkumar, Bren professor i edb og matematiske videnskaber, og Michael Alvarez, professor i statskundskab. Deres arbejde blev præsenteret den 14. december på AI for Social Good workshop på 2019 Conference on Neurale Information Processing Systems i Vancouver, Canada. Deres forskerhold omfatter Anqi Liu, postdoc; Maya Srikanth, en junior hos Caltech; og Nicholas Adams-Cohen (MS '16, Ph.D. '19) fra Stanford University.

"Dette er en af ​​de ting, jeg elsker ved Caltech:evnen til at bygge bro over grænser, at udvikle synergier mellem samfundsvidenskab og, I dette tilfælde, computer videnskab, " siger Alvarez.

Forebyggelse af onlinechikane kræver hurtig opdagelse af stødende, chikanerende, og negative opslag på sociale medier, hvilket igen kræver overvågning af online interaktioner. Nuværende metoder til at opnå sådanne sociale mediedata er enten fuldautomatiske og kan ikke fortolkes eller er afhængige af et statisk sæt søgeord, som hurtigt kan blive forældet. Ingen af ​​metoderne er særlig effektive, ifølge Srikanth.

"Det er ikke skalerbart at få mennesker til at prøve at udføre dette arbejde i hånden, og disse mennesker er potentielt partiske, " siger hun. "På den anden side, søgeordssøgning lider under den hastighed, hvormed onlinesamtaler udvikler sig. Nye termer dukker op og gamle termer ændrer betydning, så et nøgleord, der blev brugt oprigtigt den ene dag, kan være sarkastisk ment den næste."

I stedet, holdet brugte en GloVe-model (Global Vectors for Word Representation) til at opdage nye og relevante nøgleord. GloVe er en ord-indlejrende model, hvilket betyder, at det repræsenterer ord i et vektorrum, hvor "afstanden" mellem to ord er et mål for deres sproglige eller semantiske lighed. Starter med ét søgeord, denne model kan bruges til at finde andre, der er tæt beslægtede med det ord for at afsløre klynger af relevante termer, der faktisk er i brug. For eksempel, søgning på Twitter efter brug af "MeToo" i samtaler gav klynger af relaterede hashtags som "SupportSurvivors, " "ImWithHer, " og "NotSilent." Denne tilgang giver forskere et dynamisk og konstant udviklende søgeordssæt til søgning.

Men det er ikke nok bare at vide, om en bestemt samtale er relateret til emnet af interesse; konteksten har betydning. For det, GloVe viser i hvilket omfang visse søgeord er relaterede, give input til, hvordan de bliver brugt. For eksempel, i et online Reddit-forum dedikeret til kvindehad, ordet "kvinde" blev brugt i tæt forbindelse med ordene "seksuel, " "negativ, " og "samleje." I Twitter-indlæg om #MeToo-bevægelsen, ordet "kvinde" var mere tilbøjelige til at blive forbundet med udtrykkene "virksomheder, " "ønske, " og "ofre."

Projektet var et proof-of-concept, der sigtede på en dag at give sociale medieplatforme et mere kraftfuldt værktøj til at spotte online chikane. Anandkumars interesse for emnet blev intensiveret af hendes involvering i kampagnen for at ændre forkortningen af ​​Neural Information Processing Systems-konferencen fra dets oprindelige akronym, "NIPS, " til "NeurIPS."

"Feltet for AI-forskning bliver mere rummeligt, men der er altid mennesker, der modsætter sig forandring, " siger Anandkumar, som i 2018 var målet for chikane og trusler online på grund af hendes succesfulde indsats for at skifte til et akronym uden potentielt stødende konnotationer. "Det var en øjenåbnende oplevelse om, hvor grim trolling kan blive. Forhåbentlig, de værktøjer, vi udvikler nu, vil hjælpe med at bekæmpe alle former for chikane i fremtiden."

Deres undersøgelse har titlen "Finding Social Media Trolls:Dynamic Keyword Selection Methods for Rapidly-Evolving Online Debates."


Varme artikler