Videnskab
 science >> Videnskab >  >> Elektronik

Hvorfor politiet skal bruge maskinlæring - meget omhyggeligt

Kredit:Kirill_makarov/Shutterstock.com

Debatten om, at politiet bruger maskinlæring, intensiveres - den betragtes i nogle kredse som lige så kontroversiel som stop og søg.

Stop og søg er et af de mest omstridte områder af, hvordan politiet interagerer med offentligheden. Det er blevet stærkt kritiseret for at være diskriminerende over for sorte og etniske minoritetsgrupper, og for at have marginale effekter på at reducere kriminalitet. På samme måde, politiets brug af maskinlæringsalgoritmer er blevet fordømt af menneskerettighedsgrupper, som hævder, at sådanne programmer tilskynder til raceprofilering og diskrimination sammen med truende privatliv og ytringsfrihed.

Stort set maskinlæring bruger data til at lære computere at træffe beslutninger uden eksplicit at instruere dem i, hvordan de skal gøre det. Maskinlæring bruges med succes i mange industrier til at skabe effektivitet, prioritere risiko og forbedre beslutningstagningen.

Selvom de er på et meget tidligt stadie, politiet i Storbritannien undersøger fordelene ved at bruge maskinlæringsmetoder til at forhindre og opdage kriminalitet, og at udvikle ny indsigt til at tackle problemer af væsentlig offentlig interesse.

Det er rigtigt, at der er potentielle problemer med enhver brug af probabilistiske maskinlæringsalgoritmer i politiarbejde. For eksempel, ved brug af historiske data, der er risici for, at algoritmer, når man laver forudsigelser, vil diskriminere uretfærdigt over for visse grupper af mennesker. Men hvis politiet griber brugen af ​​denne teknologi på den rigtige måde, det burde ikke være så kontroversielt som stop og eftersøgning og kunne gå langt i retning af, at politiet bliver mere effektivt til at forebygge og opklare forbrydelser.

En moderne politiudfordring

Overvej sagen om den nylige offentlige bekymring over drill-musikvideoer og deres unikke lyriske indhold, der angiveligt bliver brugt til at inspirere, tilskynde og forherlige alvorlig vold.

Drillmusik har, gennem de seneste år, spredes til storbyer i Storbritannien. Sociale medieplatforme som YouTube og Instagram har, på samme tid, oplevet en betydelig stigning i drill-musikvideoer uploadet online. Mange af videoerne, som viser mandlige rappere iført ansigtsmasker, bruge voldelige, provokerende og nihilistisk sprog, modtage millioner af visninger.

Den mest højtstående politibetjent i Storbritannien, Kommissær Cressida Dick, har offentligt kritiseret drill musikvideoer, om, at de er vant til at glamorisere mord og alvorlig vold og eskalere spændinger mellem rivaliserende gadebander.

Mange mennesker er uenige i, at politiet bebrejder drillmusikken. Tilhængere af denne musikgenre hævder, at mord og vold ikke er et nyt fænomen, og bør ikke betragtes som kausal for drillkunstnere, der rapper om de barske realiteter i deres levede oplevelser. Nogle akademikere er også bekymrede over, at den nuværende polititilgang "fører til kriminalisering af hverdagens sysler", og at "unge mennesker fra fattige baggrunde nu bliver kategoriseret som ballademagere blot ved at lave en musikvideo."

Alligevel, til politiet, dette er et vigtigt spørgsmål:de har et lovbestemt ansvar for at beskytte liv og håndtere risici for offentligheden. Som sådan, opdager skadeligt onlineindhold, som for eksempel, kan indeholde en trussel mod en persons liv, er både et nutidigt operativt politi problem, og et uløseligt teknologisk problem, som politiet skal kunne løse.

Udvikling af maskinlæringsværktøjer

Politibetjente, der manuelt ser store mængder videoer for at identificere og skelne skadeligt og kriminelt indhold fra legitime kreative udtryk, er enormt ineffektivt. Som sådan, det skal være automatiseret. Ja, der er i øjeblikket betydelige tekniske udfordringer for maskinlæringsalgoritmer for at forstå et sådant unikt lyrisk indhold. Men denne type problemer, for forskere, passer fint ind i det voksende maskinindlæringsområde for naturlig sprogbehandling. Dette er et felt, der bruger beregningsteknikker til at forstå menneskeligt sprog og tale.

Mere generelt, der mangler forskning om den sociale påvirkning af, at politiet bruger maskinlæring til at forebygge og afsløre kriminalitet. Så i mellemtiden, For at undgå kontroverser bør politiet ikke stole på uigennemsigtige "black box" maskinlæringsmodeller på hylden, der ikke er blevet testet i en operationel politisammenhæng for at automatisere analyse af store datamængder. Black box-modeller er med rette kontroversielle, fordi de ikke viser deres interne logik eller de processer, der bruges til at træffe beslutninger.

En bedre vej frem er, at politiet arbejder med eksperter og bygger maskinindlæringsmodeller, der er specielt designet til politiformål, der bedre udnytter data til at tackle problemer, såsom dem, der er iboende med drill-musikvideoer. Durham Constabulary, for eksempel, har for nylig arbejdet sammen med forskere fra University of Cambridge om at udvikle et algoritmisk risikovurderingsværktøj til at hjælpe med beslutninger om fremtidig lovovertrædelse, når en person bliver anholdt af politiet.

På denne måde maskinlæringsværktøjer kan etableres ud fra bredt accepterede videnskabelige principper – med et niveau af gennemsigtighed, der kan bruges til at opmuntre offentlig støtte på måder, som stop og søgning ikke har været i stand til.

Bekymringer om gennemsigtighed

I en nylig rapport, den britiske forsvars- og sikkerhedstænketank RUSI rejste mere specifikke bekymringer over konceptet med politiet, der bruger maskinlæringsalgoritmer til at lave forudsigelser og understøtte beslutningstagning. Især den taler om begrebet "algoritmisk gennemsigtighed" og vanskeligheden for ikke-eksperter at forstå, hvordan komplekse statistiske modeller bruges til at træffe beslutninger.

Rapporten gør en vigtig pointe:hvis maskinlæring bruges i nogen form for strafferetslige omgivelser, ikke-eksperter bør være i stand til at forstå, hvordan beslutninger er truffet, og afgøre, om resultaterne er korrekte og rimelige.

Alt taget i betragtning, politiets rektor bruger maskinlæring til at identificere risiko og understøtte beslutningstagning, er ikke – og bør ikke – betragtes som en ny form for totalitarisme, der søger at udhule demokratiske rettigheder, forhindre ytringsfrihed, marginalisere sorte og etniske minoritetsgrupper.

Da stigende kriminalitet i Storbritannien nu er det vigtigste problem for den britiske offentlighed efter Brexit, maskinlæring - inden for en passende etisk, lovgivningsmæssige og offentlige tillidsrammer - bør have en plads i den moderne politiværktøjskasse for at forhindre kriminalitet og beskytte offentligheden.

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.




Varme artikler