Kredit:CC0 Public Domain
Maskiner, der træffer beslutninger om os:hvad kunne gå galt? Essays, taler, seminarer stiller dette spørgsmål år efter år, mens forskning i kunstig intelligens gør forbløffende fremskridt. Indbyggede skævheder i algoritmer er kun et af mange problemer som følge heraf.
Jonathan Shaw, administrerende redaktør, Harvard Magazine , skrev tidligere i år:"Kunstig intelligens kan samle og vurdere enorme mængder af data, som nogle gange er uden for menneskelig evne til at analysere uden hjælp, derved gør AI i stand til at komme med ansættelsesanbefalinger, bestemme på få sekunder kreditværdigheden af låneansøgere, og forudsige chancerne for, at kriminelle vil fornærme sig igen."
Igen, hvad kan gå galt?
"AI-udvikling har brug for stærk moralsk vejledning, hvis vi skal undgå nogle af de mere katastrofale scenarier, som AI-kritikere forestiller sig, " sagde Stephen Fleischresser, foredragsholder, University of Melbournes Trinity College, i Kosmos .
Edd Gent ind SingularityHub :"Bekymringer omkring privatlivets fred, gennemsigtighed og algoritmers evne til at fordreje social og politisk diskurs på uventede måder har resulteret i en byge af udtalelser fra virksomheder, regeringer, og endda overnationale organisationer om, hvordan man udfører etisk AI-udvikling."
Så, spørgsmålet bliver, hvem passer på AI-butikken? Hvis vi allerede forestiller os, hvad der kunne gå galt med AI-billedet, WHO, hvilket individ, hvilke grupper, hvis nogen, forsøger at kanalisere al snakken og tage lederskab for et fungerende regelsæt?
En god og rettidig læsning om dette er dukket op i Nature Machine Intelligence . Avisen giver dig ikke den eneste løsning, men det ryster samtalen. Som dens overskrift lyder, "Principper alene kan ikke garantere etisk kunstig intelligens."
Forfatteren, Brent Mittelstadt, er fra Oxford Internet Institute, University of Oxford, Oxford, Storbritannien og Alan Turing Institute, British Library, London, Storbritannien.
Fleischresser beskrev Mittelstadt som "en etiker, hvis forskning primært vedrører digital etik i forhold til algoritmer, maskinelæring, kunstig intelligens, prædiktiv analyse, Big Data og medicinske ekspertsystemer."
Problemet har ikke været manglen på snak; "Artificial Intelligence (AI) etik er nu et globalt diskussionsemne i akademiske og politiske kredse, " sagde Mittelstadt. "Mindst 84 offentlig-private initiativer har produceret erklæringer, der beskriver principper på højt niveau, værdier og andre principper til at lede den etiske udvikling, implementering og styring af kunstig intelligens."
Problemet er, at med al den snak, velmenende interessenter er ikke gået langt ud over startporten. Det understøttende lag af høje udtalelser og dristige principper kan være på plads, men hvor er det øverste lag? "Den virkelig svære del af etik - faktisk at oversætte normative teorier, koncepter og værdier til god praksis AI-udøvere kan tage i brug – bliver sparket ned ad vejen, som den velkendte kan."
Selvom høje principper er prisværdige, "AI-etiske initiativer har hidtil stort set produceret vage, principper og værdierklæringer på højt niveau, der lover at være handlingsorienterende, men giver i praksis få specifikke anbefalinger... Erklæringer fra AI-virksomheder og udviklere, der forpligter sig til etiske principper og selvregulerende kodekser på højt niveau, giver ikke desto mindre politiske beslutningstagere en grund til ikke at forfølge nye regler."
Mittelstadt sagde "en principiel tilgang kan have begrænset indvirkning på regeringsførelse. Hvad mangler:En samlet lovgivningsramme, der opstiller "klare tillidspligter over for registrerede og brugere." Fraværet af et tillidsforhold, han sagde, betyder, at brugere "ikke kan stole på, at udviklere vil handle i deres bedste interesse, når de implementerer etiske principper i praksis."
Papiret beskrev, hvad forfatteren identificerede som områder af bekymring for fremtiden for AI-etik.
Juridisk og professionel ansvarlighed var et af nøgleområderne under diskussion – dvs. "den relative mangel på juridiske og professionelle ansvarlighedsmekanismer." Hvorfor dette er et problem:"Seriøst, Langsigtet forpligtelse til selvregulerende rammer kan ikke tages for givet."
Forfatteren stillede det grundlæggende spørgsmål:I betragtning af disse svagheder i eksisterende juridiske og professionelle ansvarlighedsmekanismer for AI, man må spørge:"er det nok at definere gode hensigter og håbe på det bedste? Uden komplementære straffemekanismer og styringsorganer at træde til, når selvstyre svigter, en principiel tilgang risikerer blot at give falske forsikringer om etisk eller troværdig AI."
Hvor går vi hen herfra inden for AI-etik?
Forfatteren sagde, at denne "principielle" tilgang kræver et samarbejdende tilsyn. Tænk "Bindende og meget synlige ansvarlighedsstrukturer" sammen med "klare implementerings- og revisionsprocesser" på sektor- og organisationsniveau. "Professionelle og institutionelle normer kan etableres ved at definere klare krav til inklusiv design, gennemsigtig etisk gennemgang, dokumentation af modeller og datasæt, og uafhængig etisk revision."
© 2019 Science X Network