Kredit:CC0 Public Domain
Internettet giver mulighed for konstruktiv dialog og samarbejde, men online-samtaler udarter sig for ofte til personlige angreb. I håb om at disse angreb kan afværges, Cornell-forskere har skabt en model til at forudsige, hvilke borgerlige samtaler der kan tage en giftig drejning.
Efter at have analyseret hundredvis af udvekslinger på Wikipedia, forskerne udviklede et computerprogram, der scanner for røde flag – såsom gentagne, direkte afhøring og brug af ordet "dig" i de to første indlæg – for at forudsige, hvilke oprindelige borgerlige samtaler der ville gå skævt.
Tidlige udvekslinger, der inkluderede hilsner, udtryk for taknemmelighed, hække som "det ser ud til, " og ordene "jeg" og "vi" var mere tilbøjelige til at forblive civile, undersøgelsen fandt.
"Der er millioner af disse diskussioner, og du kan umuligt overvåge dem alle live. Dette system kan hjælpe menneskelige moderatorer med bedre at rette deres opmærksomhed, " sagde Cristian Danescu-Niculescu-Mizil, assisterende professor i informationsvidenskab og medforfatter til papiret "Conversations Gone Awry:Detecting Early Signs of Conversational Failure."
"Vi som mennesker har en intuition for, hvordan vi kan opdage, om noget går galt, men det er bare en mistanke. Vi kan ikke gøre det 100 procent af tiden. Derfor, vi spekulerer på, om vi kan bygge systemer til at replikere denne intuition, fordi mennesker er dyre og travle, og vi tror, det er den type problem, hvor computere har potentialet til at overgå mennesker, " sagde Danescu-Niculescu-Mizil.
Computermodellen, som også overvejede Googles perspektiv, et maskinlæringsværktøj til evaluering af "toksicitet, " var korrekt omkring 65 procent af tiden. Mennesker gættede rigtigt 72 procent af gangene.
Folk kan teste deres egen evne til at gætte, hvilke samtaler der vil afspore ved en online quiz.
Undersøgelsen analyserede 1, 270 samtaler, der begyndte civilt, men degenererede til personlige angreb, hentet fra 50 millioner samtaler på tværs af 16 millioner Wikipedia-"tale"-sider, hvor redaktører diskuterer artikler eller andre emner. De undersøgte udvekslinger i par, sammenligne hver samtale, der endte dårligt, med en, der lykkedes om det samme emne, så resultaterne blev ikke fordrejet af følsomme emner som politik.
Papiret, skrevet sammen med Cornell Ph.D. informationsvidenskab studerende Justine Zhang; Ph.D. datalogistuderende Jonathan P. Chang, og Yiqing Hua; Lucas Dixon og Nithum Thain fra Jigsaw; og Dario Taraborelli fra Wikimedia Foundation, fremlægges på Foreningen for Datalingvistiks årsmøde, fra 15. til 20. juli i Melbourne, Australien.
Forskerne håber, at denne model kan bruges til at redde udsatte samtaler og forbedre online dialog, i stedet for at forbyde bestemte brugere eller censurere bestemte emner. Nogle online plakater, såsom ikke-engelsktalende, er måske ikke klar over, at de kan blive opfattet som aggressive, og advarsler fra et sådant system kunne hjælpe dem med at tilpasse sig selv.
"Hvis jeg har værktøjer, der finder personlige angreb, det er allerede for sent, fordi angrebet allerede er sket, og folk har allerede set det, " sagde Chang. "Men hvis du forstår, at denne samtale går i en dårlig retning, og tag handling så, Det kan måske gøre stedet lidt mere indbydende."