Kredit:Ray Oranges
Beskyttelse af borgere over for katastrofer kræver ofte, at der træffes vidtrækkende beslutninger. Enhver assistance er velkommen - inklusive fra AI.
Naturbrande kommer i stigende grad ud af kontrol, som vist af de seneste begivenheder i Californien og Australien. Alligevel fortsætter brandmændene med at kæmpe utrætteligt mod flammerne - og i dag har de mere til deres rådighed end blot vand og kontrollerede forbrændinger. Digitalisering har længe været en del af deres arsenal i form af geoinformationssystemer, webkameraer og droner. Disse er blevet nøgleværktøjer til at forudsige og kontrollere naturbrande, alligevel skubber de enorme mængder data, de producerer, hurtigt menneskelig ekspertise til dets grænser. "AI er altid nyttig, når du har at gøre med masser af data, siger Benjamin Scharte, der leder Risk and Resilience Research Team ved ETH Center for Security Studies (CSS). For nylig, han og hans kollega Kevin Kohler gik sammen om at analysere brugen af kunstig intelligens i civilbeskyttelse.
"At være i stand til at bruge algoritmer til at lave forudsigelser er ret spændende, " siger Kohler. Hvilken retning er brandfronten på vej? Hvor skal vi indstille de næste kontrollerede forbrændinger? Ved at knuse alle tilgængelige data, AI-baserede modelleringsværktøjer kan hjælpe med at besvare disse spørgsmål. Disse data kan omfatte vejrudsigter, tørkens varighed, vindretning - og endda den potentielle mængde brændstof, der er tilgængelig for branden. De resulterende forudsigelser kan gøre katastrofereaktion mere effektiv. I det bedste tilfælde, de kan endda fungere som en form for forebyggelse.
Civilbeskyttelse er særligt lydhør over for brugen af kunstig intelligens, fordi alt for ofte, det er et spørgsmål om liv og død – og hvert minut tæller. Eksperter forventes ofte at træffe hurtige beslutninger med vidtrækkende konsekvenser, så de er taknemmelige for enhver hjælp, der kan understøtte disse beslutninger med mere robuste data. Ultimativt, imidlertid, kvaliteten af en beslutning afhænger altid af kvaliteten af dataene. "Hvor smart min algoritme end er, det vil være til lidt nytte i en nødsituation, hvis jeg ikke kan forsyne den med de rigtige data til katastrofen, " Kohler advarer.
Selv data af højeste kvalitet kan aldrig fuldt ud erstatte den erfaring, som eksperter har opnået gennem mange år, så spørgsmålet om, hvorvidt et menneske eller en maskine skal træffe den endelige beslutning, er meget komplekst. Taget som helhed, Algoritmen kan tænkes at producere et lavere økonomisk tab eller færre ofre end dens menneskelige modstykke, men den kan også træffe afgørelser i enkeltsager, som vi finder uacceptable. "Det er klart for mig, at vi som samfund, vil fortsætte med at kæmpe med ideen om at overlade beslutninger til autonome maskiner, " siger Scharte.
Et spørgsmål om tillid
Så på hvilket tidspunkt kan vi være villige til at lade en maskine træffe sine egne beslutninger? Scharte og Kohler er enige om, at dette afhænger af konteksten:"Civilbeskyttelse er nogle gange et spørgsmål om liv eller død. Mennesker bør spille en rolle i at træffe disse beslutninger - det er ikke stedet for maskiner at træffe fuldstændigt autonome beslutninger."
En afgørende faktor er, hvor stor tro folk har på algoritmen. Tillid baner vejen for accept, og begge er forbedret, når vi tydeligt er i stand til at følge, hvad en algoritme gør. For eksempel, når læger forstår beslutningslogikken i en algoritme, de er mere tilbøjelige til at stole på det og inkorporere det i deres arbejde. Adskillige undersøgelser har bekræftet dette - men Scharte lyder en advarsel:"Gennemsigtighed og forklarlighed øger ikke altid sikkerheden." Der er endda tilfælde, hvor gennemsigtighed kan være en ulempe, herunder menneskeskabte farer såsom cyberkriminalitet og terrorisme. "Hvis du afslører præcis, hvordan en algoritme opdager mistænkelige adfærdsmønstre, så har modstridende aktører bedre odds for bevidst at overliste det, " advarer Scharte.