Videnskab
 science >> Videnskab >  >> Andet

Hjælper politiet med at træffe beslutninger om forældremyndighed ved hjælp af kunstig intelligens

Kredit:Rene Böhmer på Unsplash

Politiet i "frontlinjen" af vanskelige risikobaserede domme prøver et AI-system, der er uddannet af University of Cambridge, kriminologer til at give vejledning ved hjælp af resultaterne af fem års kriminelle historier.

"Klokken er 03.00 lørdag morgen. Manden foran dig er blevet fanget i besiddelse af stoffer. Han har ingen våben, og ingen registrering af voldelige eller alvorlige forbrydelser. Lad du manden ud på politiets kaution næste morgen, eller holde ham låst inde i to dage for at sikre, at han kommer for retten på mandag? "

Den slags scenarie, Dr.Geoffrey Barnes beskriver - om han skal tilbageholde en mistænkt i politiets varetægt eller løslade ham mod kaution - forekommer hundredtusinder af gange om året i Storbritannien. Resultatet af denne beslutning kan være vigtigt for den mistænkte, for den offentlige sikkerhed og for politiet.

"De politifolk, der træffer disse forældremyndighedsbeslutninger, er meget erfarne, "forklarer Barnes." Men al deres viden og politi -færdigheder kan ikke fortælle dem den eneste ting, de har mest brug for nu om den mistænkte - hvor sandsynligt er det, at han eller hun vil forårsage større skade, hvis de bliver løsladt? Dette er et job, der virkelig skræmmer mennesker-de er i frontlinjen for risikobaseret beslutningstagning. "

Barnes og professor Lawrence Sherman, der leder Jerry Lee Center for Experimental Criminology ved University of Cambridge's Institute of Criminology, har arbejdet med politistyrker rundt om i verden for at spørge, om AI kan hjælpe.

"Forestil dig en situation, hvor betjenten har fordelen af ​​hundrede tusinde, og mere, virkelige tidligere erfaringer med forældremyndighedsbeslutninger? "siger Sherman." Ingen kan have så mange oplevelser, men en maskine kan. "

I midten af ​​2016, med finansiering fra Monument Trust, forskerne installerede verdens første AI -værktøj til at hjælpe politiet med at tage frihedsbeslutninger i Durham Constabulary.

Kaldet Harm Assessment Risk Tool (HART), den AI-baserede teknologi bruger 104, 000 historier om mennesker, der tidligere blev anholdt og behandlet i Durham -forvaringssuiter i løbet af fem år, med en to-årig opfølgning for hver forældremyndighedsbeslutning. Ved hjælp af en metode kaldet "tilfældige skove", modellen ser på et stort antal kombinationer af 'forudsigelsesværdier', hvoraf hovedparten fokuserer på den mistænktes krænkende historie, samt alder, køn og geografisk område.

"Disse variabler kombineres på tusinder af forskellige måder, før en endelig forudsagt konklusion er nået, "forklarer Barnes." Forestil dig et menneske, der holder dette antal variabler i hovedet, og foretage alle disse forbindelser, inden der træffes en beslutning. Vores sind kan simpelthen ikke gøre det. "

Målet med HART er at kategorisere, om en lovovertræder i de næste to år har høj risiko (høj sandsynlighed for at begå en ny alvorlig lovovertrædelse som mord, grov vold, seksuelle forbrydelser eller røveri); moderat risiko (sandsynligvis begå en ikke-alvorlig lovovertrædelse) eller lav risiko (usandsynligt at begå en lovovertrædelse).

"Behovet for god forudsigelse handler ikke kun om at identificere de farlige mennesker, "forklarer Sherman." Det handler også om at identificere mennesker, der bestemt ikke er farlige. For hvert tilfælde af en mistænkt mod kaution, der dræber nogen, der er titusinder af ikke-voldelige mistænkte, der er låst inde længere end nødvendigt. "

Durham Constabulary ønsker at identificere gruppen af ​​"moderat risiko"-der tegner sig for knap halvdelen af ​​alle mistænkte ifølge statistikken genereret af HART. Disse personer kan have gavn af deres Checkpoint -program, som har til formål at tackle de grundlæggende årsager til krænkelser og tilbyde et alternativ til retsforfølgning, som de håber vil gøre moderate risici til lave risici.

"Det er nåle og høstakke, "siger Sherman." På den ene side, de farlige 'nåle' er for sjældne til at nogen kan mødes ofte nok til at få øje på dem. På den anden, 'høet' udgør ingen trussel, og at holde dem i varetægt spilder ressourcer og kan endda gøre mere skade end gavn. "Et randomiseret kontrolleret forsøg er i øjeblikket i gang i Durham for at teste brugen af ​​Checkpoint blandt dem, der forventes at være moderat risiko.

HART opdateres også med nyere data-et trin, som Barnes forklarer, vil være en vigtig del af denne form for værktøj:"En menneskelig beslutningstager kan omgående tilpasse sig en skiftende kontekst-såsom en prioritering af visse lovovertrædelser, som hadkriminalitet - men det samme kan ikke nødvendigvis siges om et algoritmisk værktøj. Dette antyder behovet for omhyggelig og konstant undersøgelse af de anvendte forudsigere og for ofte at opdatere algoritmen med nyere historiske data. "

Intet forudsigelsesværktøj kan være perfekt. En uafhængig valideringsundersøgelse af HART fandt en samlet nøjagtighed på omkring 63%. Men, siger Barnes, den virkelige kraft i maskinlæring kommer slet ikke fra at undgå enhver fejl, men fra at beslutte, hvilke fejl du mest vil undgå.

"Ikke alle fejl er ens, "siger Sheena Urwin, leder af strafferet ved Durham Constabulary og kandidat fra Institute of Criminology's Police Executive Master of Studies Program. "Den værste fejl ville være, hvis modellen forudsiger lavt, og gerningsmanden viste sig at være høj."

"I samråd med Durham -politiet, vi byggede et system, der er 98% nøjagtigt til at undgå denne farligste form for fejl - det 'falske negative' - gerningsmanden, der forudsiges at være relativt sikker, men fortsætter derefter med at begå en alvorlig voldsovertrædelse, "tilføjer Barnes." AI er uendeligt justerbar, og når man bygger et AI -værktøj, er det vigtigt at afveje den mest etisk passende vej at tage. "

Forskerne understreger også, at HARTs output kun er vejledende, og at den endelige afgørelse er den ansvarlige politibetjent.

"HART bruger Durhams data, og derfor er det kun relevant for lovovertrædelser begået i Durham Constabularys jurisdiktion. Denne begrænsning er en af ​​grundene til, at sådanne modeller skal betragtes som støtte menneskelige beslutningstagere, der ikke erstatter dem, "forklarer Barnes." Disse teknologier er ikke, af sig selv, sølvkugler til retshåndhævelse, og det er heller ikke skumle sammensværgelser af en såkaldt overvågningstilstand. "

Nogle beslutninger, siger Sherman, har for stor indflydelse på samfundet og enkeltpersoners velfærd til, at de kan påvirkes af en ny teknologi.

Hvor AI-baserede værktøjer giver et stort løfte, imidlertid, er at bruge prognosen for lovovertræders risikoniveau til effektiv 'triage', som Sherman beskriver:"Polititjenesten er presset til at gøre mere med mindre, at målrette ressourcer mere effektivt, og for at beskytte offentligheden.

"Værktøjet hjælper med at identificere de få 'nåle i høstakken', der udgør en stor fare for samfundet, og hvis frigivelse skal underkastes yderligere lag af anmeldelse. På samme tid, bedre triaging kan føre til, at de rigtige lovovertrædere modtager frigørelsesbeslutninger, der gavner både dem og samfundet. "


Varme artikler