Alle har deres egen idé om den etiske brug af kunstig intelligens, men kan vi opnå en global konsensus? Kredit:Shutterstock/EtiAmmos
Australien er blandt 42 lande, der i sidste uge underskrev et nyt sæt politiske retningslinjer for udvikling af kunstig intelligens (AI)-systemer.
Alligevel har Australien sit eget udkast til retningslinjer for etik i kunstig intelligens til offentlig høring, og en række andre lande og brancheorganer har udviklet deres egne AI-retningslinjer.
Så hvorfor har vi brug for så mange retningslinjer, og kan nogen af dem håndhæves?
De nye principper
Det seneste sæt af politiske retningslinjer er anbefalingen om kunstig intelligens fra Organisationen for Økonomisk Samarbejde og Udvikling (OECD).
Den fremmer fem principper for ansvarlig udvikling af pålidelig AI. Det omfatter også fem komplementære strategier til udvikling af national politik og internationalt samarbejde.
I betragtning af at dette kommer fra OECD, det træder på grænsen mellem at fremme økonomisk forbedring og innovation og at fremme grundlæggende værdier og tillid til udviklingen af kunstig intelligens.
De fem AI-principper opfordrer til:
Disse anbefalinger er brede og bærer ikke kraft af love eller endog regler. I stedet søger de at tilskynde medlemslandene til at inkorporere disse værdier eller etik i udviklingen af kunstig intelligens.
Men hvad mener vi med AI?
Det er svært at komme med specifikke anbefalinger i forhold til AI. Det er til dels fordi AI ikke er én ting med en enkelt applikation, der udgør enestående risici eller trusler.
I stedet, AI er blevet en generel betegnelse for at referere til en lang række forskellige systemer. Hver er typisk designet til at indsamle og behandle data ved hjælp af computerteknologi, tilpasse sig forandringer, og handle rationelt for at nå sine mål, i sidste ende uden menneskelig indblanding.
Disse mål kunne være lige så forskellige som at oversætte sprog, identificere ansigter, eller endda spille skak.
Den type AI, der er usædvanlig god til at opfylde disse mål, omtales ofte som smal AI. Et godt eksempel er en skak-spillende AI. Dette er specielt designet til at spille skak - og er ekstremt godt til det - men fuldstændig ubrugeligt til andre opgaver.
På den anden side er generel AI. Dette er AI, som det siges, vil erstatte menneskelig intelligens i de fleste, hvis ikke alle opgaver. Dette er stadig langt væk, men er stadig det ultimative mål for nogle AI-udviklere.
Alligevel er det denne idé om generel AI, der driver mange af de frygt og misforståelser, der omgiver AI.
Mange mange retningslinjer
Som reaktion på denne frygt og en række meget reelle problemer med smal kunstig intelligens, OECD-anbefalingerne er de seneste af en række projekter og retningslinjer fra regeringer og andre organer rundt om i verden, der søger at indgyde en etisk tilgang til udvikling af kunstig intelligens.
Disse omfatter initiativer fra Institute of Electrical and Electronics Engineers, den franske databeskyttelsesmyndighed, privatlivskommissærens kontor i Hong Kong og Europa-Kommissionen.
Den australske regering finansierede CSIROs Data61 til at udvikle en AI-etisk ramme, som nu er åben for offentlig feedback, og Australian Council of Learned Academies har endnu ikke offentliggjort sin rapport om fremtiden for kunstig intelligens i Australien.
Den australske menneskerettighedskommission, sammen med World Economic Forum, gennemgår og rapporterer også om AIs indvirkning på menneskerettighederne.
Formålet med disse initiativer er at tilskynde til eller skubbe til etisk udvikling af kunstig intelligens. Men det forudsætter uetisk adfærd. Hvad er galskaben i AI?
Uetisk AI
En undersøgelse identificerede tre brede potentielle ondsindede anvendelser af kunstig intelligens. Disse mål:
Et område af bekymring er under udvikling i Kina, hvor flere regioner udvikler et socialt kreditsystem knyttet til masseovervågning ved hjælp af AI-teknologier.
Systemet kan identificere en person, der bryder sociale normer (såsom jaywalking, samvær med kriminelle, eller misbrug af sociale medier) og debiterer sociale kreditpoint fra den enkelte.
Når en kreditscore reduceres, denne persons friheder (såsom friheden til at rejse eller låne penge) er begrænset. Selvom dette endnu ikke er et landsdækkende system, rapporter tyder på, at dette kunne være det endelige mål.
Tilføjet til disse bevidste misbrug af AI er flere utilsigtede bivirkninger af dårligt konstrueret eller implementeret smal AI. Disse omfatter skævhed og diskrimination og udhuling af tillid.
Opbygning af konsensus om AI
Samfund er forskellige om, hvad der er etisk. Selv mennesker i samfund er forskellige med hensyn til, hvad de betragter som etisk adfærd. Så hvordan kan der nogensinde være en global konsensus om den etiske udvikling af kunstig intelligens?
I betragtning af det meget brede omfang af AI-udvikling, enhver politik i relation til etisk AI kan endnu ikke være mere specifik, før vi kan identificere fælles normer for etisk adfærd, der kan danne grundlag for nogle aftalte globale regler.
Ved at udvikle og udtrykke værdierne, rettigheder og normer, som vi anser for at være vigtige nu i form af de rapporter og retningslinjer, der er skitseret ovenfor, vi arbejder på at opbygge tillid blandt nationer.
Fælles temaer dukker op i de forskellige retningslinjer, såsom behovet for kunstig intelligens, der tager hensyn til menneskerettigheder, sikkerhed, sikkerhed, gennemsigtighed, troværdighed og ansvarlighed, så vi kan stadig være på vej mod en vis global konsensus.
Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.