Kredit:CC0 Public Domain
Et team af forskere ved Cornel University, der arbejder med Wikimedia Foundation, er kommet med en digital ramme til at opdage, hvornår en online diskussion sandsynligvis vil blive grim. I et papir uploadet til arXiv preprint server, teamet beskriver deres tilgang og hvor godt deres algoritme fungerede under test.
Som forskerne bemærker, online samtaler kan ofte udarte til uenigheder og ofte personlige angreb. De bemærker endvidere, at dette ofte er tilfældet, når mennesker kommer ind i et miljø, der involverer kritik, som Wikipedia. Der, amatørredaktører opfordres til at give kritik af andres arbejde som et middel til at forbedre indholdet på webstedet. Desværre, mange mennesker reagerer ikke godt på sådan kritik, og som et resultat, ty til at skrive grimme kommentarer. Holdet hos Wikimedia Foundation vil gerne bremse sådanne samtaler, fordi ud over at fremme dårlige følelser, det giver også stedet et dårligt ry. For at løse problemet, teamet arbejdede med gruppen hos Cornell, som har undersøgt det samme problem; nemlig opbygning af et edb -system, der er i stand til at genkende, hvornår en menneskelig samtale sandsynligvis vil degenerere til grimhed, og for enten at bremse det, eller afslutte samtalen for de involverede personer.
For at løse dette problem, forskerne kiggede på over 1, 200 onlinesamtaler på Wikipedia Talk -sider på udkig efter sproglige tegn. I denne sammenhæng, signaler var ord, der antydede opførsel og høflighedsniveau. Ved at gøre sådan, de fandt ud af, at når folk brugte tegn som "tak" og "tak", "der var mindre chance for at tingene blev grimme. Der var også positive sætninger, såsom "jeg tror" eller "jeg tror", der antydede et forsøg på at holde tingene civile, som havde en tendens til at holde tingene på en jævn køl. På den anden side, de fandt også mindre nyttige signaler, f.eks. da samtaler startede med direkte spørgsmål eller ordet "dig". Sådanne signaler havde en tendens til at føre til forringelse af høflighed på et tidspunkt og, forskerne foreslår, ses ofte af en læser som fjendtlige og omstridte.
Holdet udviklede derefter en algoritme, der accepterede signaler som indlærte data og derefter analyserede sætninger, der søgte efter sådanne signaler og anvendte menneskelignende intuition på dem. Resultatet, teamet rapporterer, var en edb -ramme, der tidligt kunne genkende, når en samtale sandsynligvis ville degenerere til et grimt spil frem og tilbage. De fandt, at systemet var 61,6 procent nøjagtigt. Mennesker laver den samme test, imidlertid, scorede 72 procent.
© 2018 Phys.org