Videnskab
 science >> Videnskab >  >> Elektronik

Big Tech oversælger AI som løsningen på onlineekstremisme

Kredit:CC0 Public Domain

I midten af ​​september truede EU med at bøde Big Tech-virksomhederne, hvis de ikke fjernede terrorindhold inden for en time efter, at de blev vist online. Ændringen kom, fordi stigende spændinger nu udvikles og afspilles på sociale medieplatforme.

Sociale konflikter, der engang byggede sig op i baglokalemøder og kom til hovedet på byens gader, bygger nu momentum på sociale medieplatforme, før de smitter af på det virkelige liv. I fortiden, regeringer havde en tendens til at kontrollere traditionelle medier, med ringe eller ingen mulighed for enkeltpersoner til at udsende had.

Den digitale revolution har ændret alt.

Terrororganisationer, især Islamisk Stat (ISIS) militante, har brugt sociale medieplatforme som Facebook, Instagram og Twitter for deres propagandakampagner, og at planlægge terrorangreb mod civile.

Højre grupper, herunder anti-flygtningekstremister i Tyskland, udnytter også i stigende grad teknologiske platforme til at gå ind for anti-immigrant synspunkter og dæmonisere minoriteter.

Fra Sri Lanka til Myanmar, kommunale spændinger - stokket online - har ført til vold.

På grund af den voksende politiske vilje inden for vestlige lande til at regulere virksomheder på sociale medier, mange tech-titaner argumenterer for, at de kan selvregulere-og at kunstig intelligens (AI) er et af de vigtigste værktøjer til at begrænse online had. For flere år siden, vi oprettede Digital Mass Atrocity Prevention Lab for at arbejde på at forbedre den offentlige politik for at bremse udnyttelse af tech -platforme af voldelige ekstremister.

Oversolgte evner?

Teknikvirksomheder er smerteligt opmærksomme på den ondsindede brug af deres platforme.

I juni 2017, Facebook, Microsoft, Twitter og YouTube annoncerede dannelsen af ​​det globale internetforum til bekæmpelse af terrorisme, som har til formål at forstyrre ekstremistiske aktiviteter online. Men efterhånden som det politiske pres for at fjerne skadeligt onlineindhold vokser, disse virksomheder begynder at indse grænserne for deres moderatoriske indholdsmoderatorer.

I stedet, de udvikler og implementerer i stigende grad AI-teknologier for at automatisere processen med registrering og fjernelse af uønsket indhold. Men de gør det uden tilsyn og lidt offentlig information om, hvordan disse AI-systemer fungerer, et problem identificeret i en nylig rapport fra Public Policy Forum.

Twitter, ifølge sin seneste gennemsigtighedsrapport, hævder, at den brugte kunstig intelligens til at fjerne mere end 300, 000 terrorrelaterede konti i første halvår af 2017.

Facebook erkender selv, at det kæmper for at bruge AI på en effektiv måde i spørgsmål omkring hadefulde ytringer. CEO Mark Zuckerberg fortalte tidligere på året medlemmer af den amerikanske kongres, at AI stadig kæmper for at tackle nuancerne af sprogdialekter, kontekst og om en erklæring er kvalificeret til hadfuld tale eller ej, og at det kan tage år at løse.

Imidlertid, virksomheden hævder også at kunne fjerne 99 procent af ISIS og al-Qaida-tilknyttet indhold ved hjælp af AI-drevne algoritmer og moderatorisk indholdsmoderatorer. Om AI eller mennesker er nøglen til virksomhedens påstande om succes, er endnu ikke blevet undersøgt uafhængigt.

AI's fiasko

I 2017 250 virksomheder suspenderede reklamekontrakter med Google på grund af deres påståede manglende moderering af YouTubes ekstremistiske indhold. Et år senere, Googles senior vicepræsident for annoncering og handel, Sridhar Ramaswamy, siger, at virksomheden gør stærke fremskridt inden for platformssikkerhed for at genvinde den mistede tillid hos sine kunder.

Imidlertid, en nylig undersøgelse fra NGO'en Counter Extremism Project tilbageviser effektiviteten af ​​virksomhedens indsats for at begrænse og slette ekstremistiske videoer. Der er brug for mere gennemsigtighed og ansvarlighed fra YouTube, da undersøgelsen viste, at over 90 procent af ISIS -videoer blev uploadet mere end én gang, uden handling mod de konti, der overtrådte virksomhedens servicevilkår.

Der er tydeligvis ingen enkel vej frem. Fjernelse af indhold, der ikke er skadeligt, offensiv, ekstremistisk eller ulovlig, selvom det er usmageligt, er en hindring for ytringsfriheden. I nogle tilfælde, brug af AI til at fjerne indhold har blokeret legitimt materiale, der er indsendt af menneskerettighedsmestre.

For eksempel, i 2017, Shah Hossain, en menneskerettighedsaktivist fandt et betydeligt antal af hans Facebook -indlæg vedrørende forfølgelsen af ​​rohingya -mindretallet i Myanmar blevet slettet. YouTube slettede også sin nyhedskanal, som havde næsten 80, 000 abonnenter. Hossain dokumenterede krænkelser af menneskerettigheder, ikke fortaler had.

I Syrien, hvor uafhængig journalistik er stærkt begrænset af krig, videoer og billeder, der er lagt ud på nettet af aktivister, er afgørende for at forstå situationen i landet. I et forsøg på at slå ned på ekstremistisk indhold, imidlertid, YouTubes AI-drevne algoritmer fjernede tusindvis af videoer med grusomheder mod civile. Videoerne blev postet som bevis for den eventuelle retsforfølgelse af syriske embedsmænd for forbrydelser mod menneskeheden. Det er ret bekymrende.

Bevæger sig fremad

Kendte sociale medie-giganter har offentligt sagt, at de vil bruge flere ressourcer på at overvåge deres platforme. Imidlertid, givet de aktuelle resultater, det er tid til at overveje, om denne tilgang er etisk og effektiv.

Det Forenede Kongerige, Frankrig, Tyskland, EU og USA, blandt andre, er begyndt at åbent diskutere og gennemføre lovgivningsmæssige foranstaltninger på tech -industrien, ikke kun vedrørende terrorisme og hadefulde ytringer, men også digital valgindblanding, spredningen af ​​"falske nyheder" og misinformationskampagner.

Canada er også begyndt at tage problemet alvorligt, dannelse af Digital Inclusion Lab hos Global Affairs Canada, som arbejder på at styrke G7's samlede indsats.

Det er tiltrængte initiativer. De store teknologigiganter har oversælget effektiviteten af ​​AI til at modvirke had på deres platforme. Vores demokratiske og åbne samfund må afsætte forestillingen om, at AI er universalmidlet for det aktuelle problem. Social polarisering og voksende mistillid på tværs af kloden vil fortsætte, medmindre valgte embedsmænd regulerer Big Tech.

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.




Varme artikler