Kredit:Shutterstock
Man skulle tro, at det ville være farligere at flyve i et fly end at køre bil. I virkeligheden er det meget mere sikkert, dels fordi luftfartsindustrien er stærkt reguleret.
Flyselskaber skal holde sig til strenge standarder for sikkerhed, test, uddannelse, politikker og procedurer, revision og tilsyn. Og når tingene går galt, vi undersøger og forsøger at rette op på problemet for at forbedre sikkerheden i fremtiden.
Det er ikke kun flyselskaber, enten. Andre industrier, hvor det kan gå meget galt, såsom lægemidler og medicinsk udstyr, er også stærkt reguleret.
Kunstig intelligens er en relativt ny industri, men det vokser hurtigt og har stor kapacitet til at gøre skade. Ligesom luftfart og lægemidler, det skal reguleres.
AI kan gøre stor skade
En bred vifte af teknologier og applikationer, der passer ind under rubrikken "kunstig intelligens", er begyndt at spille en væsentlig rolle i vores liv og sociale institutioner. Men de kan bruges på måder, der er skadelige, som vi allerede er begyndt at se.
I "robodebt"-affæren, for eksempel, det australske statslige velfærdsagentur Centrelink brugte data-matching og automatiseret beslutningstagning til at udstede (ofte forkerte) gældsmeddelelser til velfærdsmodtagere. Hvad mere er, bevisbyrden blev omvendt:enkeltpersoner skulle bevise, at de ikke skyldte den krævede gæld.
Regeringen i New South Wales er også begyndt at bruge kunstig intelligens til at spotte chauffører med mobiltelefoner. Dette involverer udvidet offentlig overvågning via mobiltelefondetektionskameraer, der bruger AI til automatisk at detektere et rektangulært objekt i førerens hænder og klassificere det som en telefon.
Ansigtsgenkendelse er en anden AI-applikation, der er under intens undersøgelse rundt om i verden. Dette skyldes dets potentiale til at underminere menneskerettighederne:det kan bruges til udbredt overvågning og undertrykkelse af offentlige protester, og programmeret skævhed kan føre til unøjagtighed og racediskrimination. Nogle har endda opfordret til et moratorium eller et direkte forbud, fordi det er så farligt.
I flere lande, inklusive Australien, AI bliver brugt til at forudsige, hvor sandsynligt en person er til at begå en forbrydelse. Sådanne forudsigelige metoder har vist sig at påvirke oprindelige unge uforholdsmæssigt meget og føre til undertrykkende politipraksis.
AI, der hjælper lokoførere, kommer også i brug, og i fremtiden kan vi forvente at se selvkørende biler og andre selvkørende køretøjer på vores veje. Livet vil afhænge af denne software.
Den europæiske tilgang
Når vi har besluttet, at AI skal reguleres, der er stadig spørgsmålet om, hvordan man gør det. Myndigheder i EU har for nylig lavet en række forslag til, hvordan man kan regulere AI.
Det første skridt, de argumenterer, er at vurdere de risici AI udgør i forskellige sektorer såsom transport, sundhedspleje, og offentlige applikationer såsom migration, strafferet og social sikring. De ser også på AI-applikationer, der udgør en risiko for død eller skade, eller have en indvirkning på menneskerettigheder såsom retten til privatliv, lighed, frihed og sikkerhed, bevægelses- og forsamlingsfrihed, social sikring og levestandard, og uskyldsformodningen.
Jo større risiko en AI-applikation blev anset for at udgøre, jo mere regulering ville det stå over for. Reglerne vil dække alt fra de data, der bruges til at træne AI, og hvordan optegnelser opbevares, til, hvor gennemsigtige skaberne og operatørerne af systemet skal være, test for robusthed og nøjagtighed, og krav til menneskelig tilsyn. Dette vil omfatte certificering og forsikringer om, at brugen af AI-systemer er sikker, og fører ikke til diskriminerende eller farlige resultater.
Mens EU's tilgang har stærke sider, selv tilsyneladende "lavrisiko" AI-applikationer kan gøre reel skade. For eksempel, anbefalingsalgoritmer i søgemaskiner er også diskriminerende. EU-forslaget er også blevet kritiseret for at søge at regulere teknologien til ansigtsgenkendelse frem for at forbyde det direkte.
EU har ledet verden med databeskyttelsesregulering. Hvis det samme sker med AI, Disse forslag vil sandsynligvis tjene som model for andre lande og gælde for alle, der handler med EU eller endda EU-borgere.
Hvad sker der i Australien?
I Australien er der nogle gældende love og regler, men der er mange huller, og de håndhæves ikke altid. Situationen gøres vanskeligere af manglen på menneskerettighedsbeskyttelse på føderalt niveau.
Et fremtrædende forsøg på at udarbejde nogle regler for kunstig intelligens kom sidste år fra Data61, CSIRO's data- og digitale arm. De udviklede en AI-etikramme bygget op omkring otte etiske principper for AI.
Disse etiske principper er ikke helt irrelevante (nummer to er "gør ingen skade, " for eksempel), men de kan ikke håndhæves og derfor stort set meningsløse. Etiske rammer som denne for kunstig intelligens er blevet kritiseret som "etikvask", og et trick for industrien for at undgå hårde love og regler.
Et andet forsøg er Human Rights and Technology-projektet under Australian Human Rights Commission. Det har til formål at beskytte og fremme menneskerettigheder i lyset af ny teknologi.
Vi vil sandsynligvis se nogle ændringer efter den australske konkurrence- og forbrugerkommissions nylige undersøgelse af digitale platforme. Og en længe ventet gennemgang af Privacy Act 1988 (Cth) er planlagt til senere i år.
Disse initiativer vil forhåbentlig styrke australsk beskyttelse i den digitale tidsalder, men der er stadig meget arbejde at gøre. Stærkere menneskerettighedsbeskyttelse ville være et vigtigt skridt i denne retning, at skabe grundlag for regulering.
Inden kunstig intelligens bliver vedtaget endnu bredere, vi er nødt til at forstå dens påvirkninger og sætte beskyttelse på plads. For at realisere de potentielle fordele ved AI, vi skal sikre, at det styres korrekt. Ellers, vi risikerer at betale en høj pris som individer og som samfund.
Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.