Denne kombination af billeder viser logoer for virksomheder fra venstre, Twitter, YouTube og Facebook. Disse internetvirksomheder og andre siger, at de arbejder på at fjerne videofilm, der er filmet af en gerningsmand i moskéskydningen i New Zealand, der var bredt tilgængelig på sociale medier timer efter det frygtelige angreb. (AP Fotos/Fil)
Hvorfor sendte Facebook live -video af den newzealandske moské, der skyder i 17 minutter? Var der ikke nogen, der advarede virksomheden, mens det skete?
Facebook siger nej. Ifølge den stedfortrædende generaladvokat, Chris Sonderby, ingen af de omkring 200 mennesker, der så den live video, markerede den til moderatorer. I et tirsdag blogindlæg, Sonderby sagde, at den første brugerrapport først kom 12 minutter efter udsendelsen sluttede.
Alt dette rejser yderligere spørgsmål - blandt dem hvorfor så mange mennesker så på uden at sige noget, om Facebook er for meget afhængig af outsidere og maskiner til at rapportere problemer, og om brugere og retshåndhævende embedsmænd overhovedet ved, hvordan de kan nå Facebook med bekymringer om, hvad de ser på tjenesten.
"Når vi ser tingene gennem vores telefoner, vi forestiller os, at de er som et tv -program, "sagde Siva Vaidhyanathan, professor i medievidenskab ved University of Virginia. "De er på afstand, og vi har ingen magt. "
Facebook sagde, at den fjernede videoen "inden for få minutter" efter at have fået besked af politiet i New Zealand. Men siden da, Facebook og andre sociale medievirksomheder har måttet kæmpe med kopier, der blev lagt ud af andre.
Den skyde mistænkte omhyggeligt modellerede sit angreb i en internetalder, da han live-streamede drabet på 50 mennesker ved to moskeer i Christchurch, New Zealand.
Tim Cigelske, der underviser i sociale medier ved Marquette University i Milwaukee, sagde, at selvom seerne har de samme moralske forpligtelser til at hjælpe, som en tilskuer gør i den fysiske verden, folk ved ikke nødvendigvis, hvad de skal gøre.
"Det er som at ringe til 911 i en nødsituation, "sagde han." Vi skulle træne folk og gøre det let for dem. Du skal træne folk på en ny måde, hvis du ser en nødsituation ikke ske personligt, men online. "
For at rapportere live video, en bruger skal vide for at klikke på et lille sæt med tre grå prikker i højre side af indlægget. En bruger, der klikker på "rapporter live video", får et valg af stødende indholdstyper at vælge imellem, herunder vold, mobning og chikane. Brugere bliver også bedt om at kontakte politiet, hvis nogen er i umiddelbar fare.
Facebook ser heller ikke ud til at offentliggøre offentlige oplysninger, der instruerer lovhåndhævelse om, hvordan man rapporterer farlig eller kriminel video. Virksomheden har en side med titlen "information til retshåndhævende myndigheder, "men det beskriver blot procedurer for at fremsætte juridiske anmodninger om registreringer af brugerkonti. Facebook reagerede ikke umiddelbart på en anmodning om kommentar og spørgsmål om sin kommunikation med politiet.
Facebook bruger kunstig intelligens til at opdage stødende materiale, samtidig med, at offentligheden markerer indhold, der overtræder dets standarder. Disse rapporter sendes derefter til menneskelige korrekturlæsere, sagde virksomheden i en video fra november.
Videoen beskriver også, hvordan den bruger "computersyn" til at opdage 97 procent af grafisk vold, før nogen rapporterer det. Imidlertid, det er mindre klart, hvordan disse systemer gælder for Facebooks livestreaming.
Eksperter siger, at live video udgør unikke udfordringer, og klager over livestreamede selvmord, mord og tæsk kommer regelmæssigt. Ikke desto mindre, de siger, at Facebook ikke kan afvise ansvar.
"Hvis de ikke kan håndtere ansvaret, så er det deres skyld at fortsætte med at levere den service, "sagde Mary Anne Franks, en juraprofessor ved University of Miami.
En politibetjent står vagt foran Masjid Al Noor -moskeen i Christchurch, New Zealand, Søndag, 17. marts 2019, hvor et af to masseskyderier fandt sted. New Zealands ramte indbyggere nåede lørdag ud til muslimer i deres kvarterer og rundt om i landet, at vise venlighed over for et samfund med smerter, da en 28-årig hvid supremacist stod stille for en dommer, anklaget i masseskyderier mod to moskeer, der efterlod snesevis af mennesker døde. (AP Photo/Vincent Yu)
Hun kalder det "utroligt stødende og upassende" at knytte ansvaret til brugere, der udsættes for traumatisk video.
I nogle tilfælde, det er ikke klart i starten, om en video eller et andet indlæg overtræder Facebooks standarder, især på en service med en række sprog og kulturelle normer. Ubeslutsomhed syntes ikke at være tilfældet her, selvom. Facebook vidste simpelthen ikke om det i tide.
Facebooks Sonderby sagde i tirsdagens blogindlæg, at virksomheden "betegnede begge skyderier som terrorangreb, hvilket betyder, at enhver ros, støtte og repræsentation af begivenhederne "er overtrædelser.
Vaidhyanathan sagde, at Facebooks livevideofunktion er blevet til et udyr, som Facebook ikke kan gøre meget ved "ikke at vende kontakten." Selvom Facebook har hyret flere moderatorer til at supplere sin maskindetektering og brugerrapporter, "du kan ikke ansætte nok mennesker" til at politi en tjeneste med 2,3 milliarder brugere.
"Folk vil altid finde nye måder at udtrykke had på og tilskynde til vold, " han sagde.
New Zealands premierminister Jacinda Ardern udtrykte frustration over, at optagelserne forblev online fire dage efter massakren.
Maskiner kan registrere, når brugere forsøger at genudsætte forbudte videoer ved at matche mønstre, eller digitale fingeraftryk i filerne. Men brugere, der er fast besluttet på at omgå disse kontroller, kan foretage små ændringer, såsom justering af farven eller videohastigheden.
Det globale internetforum til bekæmpelse af terrorisme, en gruppe af globale internetvirksomheder ledet af Facebook, Youtube, Microsoft og Twitter, sagde, at den har identificeret 800 forskellige versioner og føjet dem til en delt database, der bruges til at blokere voldelige terrorbilleder og videoer.
Sonderby sagde, at nogle varianter er svære at opdage, og at Facebook har "udvidet til yderligere registreringssystemer, herunder brug af lydteknologi."
I en række tweets en dag efter skyderierne, Facebooks tidligere sikkerhedschef, Alex Stamos, lagt udfordringen for tech -virksomheder, da de løb til at følge med i nye versioner af videoen.
"Det, du ser på de store platforme, er vandet, der lækker omkring tusinder af fingre stukket i en dæmning, " han sagde.
Stamos vurderede, at de store tech -virksomheder blokerer for mere end 99 procent af videoerne fra at blive uploadet, "hvilket ikke er nok til at gøre det umuligt at finde."
© 2019 Associated Press. Alle rettigheder forbeholdes.