Sociale medievirksomheder har omfavnet kunstig intelligens-værktøjer til at skrubbe deres platforme for hadefulde ytringer, terrorpropaganda og andet indhold, der anses for at være skadeligt. Men vil disse værktøjer censurere andet indhold? Kan et program bedømme værdien af tale?
Facebook-grundlægger Mark Zuckerberg fortalte Kongressen i sidste uge, at hans virksomhed hurtigt udvikler AI-værktøjer til at "identificere visse klasser af dårlig aktivitet proaktivt og markere det for vores team."
Det er et af flere skridt fra Facebook, da det kæmper med en erosion af forbrugernes tillid over dets indsamling af brugerdata, dets tidligere sårbarhed over for målrettet politisk misinformation og uigennemsigtigheden af de formler, som dens nyhedsfeeds er bygget på.
Nogle teknologer mener, at AI-værktøjer ikke vil løse disse problemer, som Facebook og andre sociale medievirksomheder står over for.
"Problemet er, at overvågning er Facebooks forretningsmodel:overvågning for at lette psykologisk manipulation, " sagde Bruce Schneier, en velkendt sikkerhedsekspert og privatlivsspecialist. "Om det er udført af mennesker eller (kunstig intelligens) er i støjen."
Zuckerberg sagde, at hans Menlo Park, Californien, virksomheden er afhængig af både AI-værktøjer og tusindvis af medarbejdere til at gennemgå indhold. Ved udgangen af året, han sagde, omkring 20, 000 Facebook-medarbejdere vil "arbejde på sikkerhed og indholdsgennemgang."
Virksomheden udvikler sine AI -værktøjer til at opspore hadfuld tale og falske nyheder på sin platform og ser værktøjerne som en "skalerbar måde at identificere og fjerne det meste af dette skadelige indhold, " han sagde, hvilket indikerer flere gange over 10 timers vidnesbyrd på to dage om, at Facebook-algoritmer kan finde anstødeligt indhold hurtigere end mennesker.
"I dag, mens vi sidder her, 99 procent af ISIS og al-Qaida indhold, som vi tager ned på Facebook, vores AI-systemer flager, før noget menneske ser det, " sagde Zuckerberg ved en høring i Senatet, med henvisning til ekstremistiske islamiske grupper.
De kunstige intelligenssystemer arbejder sammen med et terrorbekæmpelseshold af mennesker, som Zuckerberg siger tæller 200 ansatte. "Jeg tror, vi har kapacitet på 30 sprog, som vi arbejder på, " han sagde.
Andre eksisterende AI -værktøjer "gør et bedre stykke arbejde med at identificere falske konti, der måske forsøger at blande sig i valg eller sprede misinformation, " sagde han. Efter falske konti placerede politiske oplysninger på Facebook, der forstyrrede valget i 2016, Facebook fjernede proaktivt "titusindvis af falske konti" før franske og tyske valg i 2017, og Alabamas særlige valg til et ledigt senatsæde i december sidste år, han tilføjede.
Facebook er langt fra alene blandt sociale medievirksomheder, der udnytter kunstig intelligens til at hjælpe mennesker med at overvåge indhold.
"AI-værktøjer i samspil med mennesker kan gøre det bedre, end begge kan gøre alene, "sagde Wendell Wallach, en efterforsker ved The Hastings Center, et bioetisk forskningsinstitut i Garrison, New York.
Men Wallach bemærkede, at mange brugere ikke forstår kunstig intelligens, og Big Tech kan komme til at stå over for en modreaktion, ligesom fødevareproblemer står over for genetisk modificerede (GMO) ingredienser.
"De førende AI -virksomheder, som tilfældigvis er det samme som de førende digitale virksomheder i øjeblikket, forstå, at der er en GMO-lignende elefant, der kunne springe ud af AI-skabet, "Sagde Wallach.
Allerede, bekymringen stiger blandt konservative på Capitol Hill over, at platforme som Facebook hælder til den politiske venstrefløj, om AI-værktøjer eller mennesker er involveret i at træffe indholdsbeslutninger.
"Kan du genkende disse mennesker?" Rep. Billy Long, R-Mo., spurgte Zuckerberg, mens han holdt et foto af to søstre.
"Er det diamant og silke?" Zuckerberg spurgte, med henvisning til to sorte sociale mediepersonligheder, der er glødende tilhængere af præsident Donald Trump.
Ja, det var, Lang sagde, og Facebook havde anset dem som "usikre".
"Hvad er utrygt ved to sorte kvinder, der støtter præsident Donald J. Trump?"
Zuckerberg bemærkede senere, at hans Facebook-team "begik en håndhævelsesfejl, og vi har allerede taget kontakt til dem for at vende det."
Værktøjer til kunstig intelligens udmærker sig ved at identificere vigtige oplysninger ud fra masser af data, men kæmper for at forstå kontekst, især i talesproget, sagde eksperter.
"Præcis den samme sætning, afhængig af forholdet mellem to personer, kunne være et udtryk for had eller et udtryk for hengivenhed, "sagde David Danks, en ekspert i etik omkring autonome systemer ved Carnegie Mellon University. Han citerede brugen af "N-ordet, "som mellem nogle mennesker kan være et venligt udtryk, men betragtes også bredt som hadefulde ytringer i andre sammenhænge.
Eventuelle fejl, som AI-værktøjer laver i sådanne sproglige minefelter, kan tolkes som censur eller politisk skævhed, der yderligere kan mindske tilliden til sociale medievirksomheder.
"Den brede offentlighed, Jeg tror, har meget mindre tillid til disse virksomheder, " sagde Danks.
Til sidst, han sagde, algoritmerne og AI -værktøjerne i en håndfuld virksomheder vil tjene større offentlig tillid, selvom forbrugerne ikke forstår, hvordan de fungerer.
"Jeg forstår ikke på mange måder, hvordan min bil fungerer, men jeg stoler stadig på, at den fungerer på alle de måder, jeg har brug for, "Sagde Danks.
Ligesom bibliotekarer engang brugte subjektiv dømmekraft til at tage bøger ned fra hylderne, sociale medievirksomheder kan også blive udsat for kritik af, at AI-værktøjer kan overskride.
"Twitter står over for dette, " sagde James J. Hughes, administrerende direktør for Institute for Ethics and Emerging Technologies, i Boston. "Pinterest og Instagram fjerner altid kunstneres hjemmesider, der tilfældigvis har nøgne kroppe i dem, når de tror, de er porno, når de ikke er det.
"Og de gør det baseret på algoritmer til kunstig intelligens, der markerer, hvor meget nøgent kød der er i billedet."
I sit vidnesbyrd, Zuckerberg sagde, at AI-værktøjer var mere og mere dygtige til at "identificere falske konti, der muligvis forsøger at blande sig i valg eller sprede misinformation."
Facebook har indrømmet, at et russisk bureau brugte Facebook til at sprede misinformation, der nåede op til 126 millioner mennesker omkring tidspunktet for præsidentafstemningen i 2016, og at 87 millioner menneskers personlige data kan være blevet misbrugt af firmaet Cambridge Analytica til at målrette vælgere til fordel for Trump.
Zuckerberg fortalte senatorer, at Facebooks forsinkelse med at identificere russiske bestræbelser på at blande sig i valget er "en af mine største beklagelser i at lede virksomheden" og lovede at gøre det bedre for at bekæmpe manipulation til dette års valg.
Da lovgivere kæmpede om, hvorvidt Facebook og andre sociale medievirksomheder har brug for regulering, Zuckerberg mødte gentagne gange spørgsmål om arten af hans firma. Er det også en medievirksomhed, fordi den producerer indhold? Et softwarefirma? Et finansielt servicefirma, der understøtter pengeoverførsler?
"Jeg anser os for at være en teknologivirksomhed, fordi det primære, vi gør, er at have ingeniører, der skriver kode og bygger produkter og tjenester til andre mennesker, " fortalte Zuckerberg en hushøring.
Eksperter siger, at svaret ikke behandler komplekse problemer omkring platforme, der i stigende grad ligner offentlige forsyningsselskaber.
"Elselskabet må ikke sige, vi kan ikke lide dine politiske synspunkter, derfor vil vi ikke give dig strøm, " sagde Danks. "Hvis nogen bliver slået ud af Facebook, er det ensbetydende med, at elselskabet afbryder deres strøm? Eller er det mere som den person, der er virkelig højrøstet og ubehagelig på en bar, og ejeren siger, 'Skal du gå nu'? "
©2018 McClatchy Washington Bureau
Distribueret af Tribune Content Agency, LLC.