Videnskab
 science >> Videnskab >  >> Elektronik

Googles nye principper om kunstig intelligens skal være bedre til at beskytte menneskerettighederne

Der er voksende bekymringer om de potentielle risici ved kunstig intelligens – og stigende kritik af teknologigiganter. I kølvandet på det, der er blevet kaldt en AI-modreaktion eller "techlash", stater og virksomheder er ved at vågne op til, at design og udvikling af kunstig intelligens skal være etisk, gavne samfundet og beskytte menneskerettighederne.

I de sidste par måneder, Google har mødt protester fra sit eget personale mod virksomhedens AI-arbejde med det amerikanske militær. Det amerikanske forsvarsministerium fik Google til at udvikle kunstig intelligens til at analysere droneoptagelser i det, der er kendt som "Project Maven".

En talsmand for Google blev rapporteret at have sagt:"reaktionen har været forfærdelig for virksomheden", og "det er pålagt os at vise lederskab." Hun henviste til "planer om at løfte sløret for nye etiske principper." Disse principper er nu blevet frigivet.

Googles administrerende direktør, Sundar Pichar, anerkendte, at "dette område er dynamisk og udviklende" og sagde, at Google ville være villig til "at tilpasse vores tilgang, efterhånden som vi lærer over tid." Dette er vigtigt, fordi mens principperne er en begyndelse, mere arbejde og flere konkrete forpligtelser er nødvendige, hvis Google skal blive effektiv til at beskytte menneskerettighederne.

Googles principper om kunstig intelligens

  1. Være socialt gavnlig.
  2. Undgå at skabe eller forstærke unfair bias.
  3. Bliv bygget og testet for sikkerhed.
  4. Vær ansvarlig over for mennesker.
  5. Inkorporer principper for privatlivsdesign.
  6. Overhold høje standarder for videnskabelig ekspertise.
  7. Gøres tilgængelig til brug, der er i overensstemmelse med disse principper.

Google forpligter sig også til ikke at forfølge:

  1. Teknologier, der forårsager eller sandsynligvis vil forårsage generel skade.
  2. Våben eller andre teknologier, hvis hovedformål eller implementering er at forårsage eller direkte lette skade på mennesker.
  3. Teknologier, der indsamler eller bruger information til overvågning, krænker internationalt anerkendte normer.
  4. Teknologier, hvis formål strider mod bredt accepterede principper i international lov og menneskerettigheder.

Men der er få detaljer om, hvordan det rent faktisk vil gøre det.

AI-applikationer kan forårsage en lang række skader

Googles principper anerkender AI's risiko for bias og dens trussel mod privatlivets fred. Dette er vigtigt i lyset af resultaterne af, at Google-søgealgoritmer kan gengive race- og kønsstereotyper. Men principperne anerkender ikke de bredere risici for alle menneskerettigheder og behovet for at beskytte dem. For eksempel, partiske algoritmer resulterer ikke kun i diskrimination, men kan også påvirke adgangen til jobmuligheder.

Bortset fra søgemaskinen, Googles andre virksomheder kunne også rejse spørgsmål om menneskerettigheder. Google skabte virksomheden Jigsaw, som bruger kunstig intelligens til at kurere onlineindhold i et forsøg på at adressere krænkende sprogbrug, trusler, og chikane online. Men indholdsmoderering kan også udgøre en trussel mod retten til ytringsfrihed.

Google Brain bruger maskinlæring til at forudsige sundhedsresultater fra lægejournaler, og Google Cloud vil samarbejde med Fitbit. Begge disse eksempler rejser bekymringer om privatlivets fred og databeskyttelse. Vores kolleger har også stillet spørgsmålstegn ved, om partnerskaber såsom Google DeepMind og NHS gavner eller underminerer staternes forpligtelser til at indføre et sundhedssystem, der "giver lige muligheder for mennesker til at nyde det højest opnåelige sundhedsniveau."

Hvad skal Google gøre?

Googles overordnede tilgang bør være baseret på at finde måder, hvorpå AI kan være til gavn for samfundet uden at krænke menneskerettighederne. Forklarer dets første princip at være "socialt gavnligt, " Google siger, at det kun ville "fortsætte, hvor vi mener, at de overordnede sandsynlige fordele væsentligt overstiger de forudsigelige risici og ulemper." Men en tilgang, der afbalancerer risiciene mod fordelene, er ikke forenelig med menneskerettighederne. En stat eller virksomhed, som Google, kan ikke udvikle en AI, der lover at gavne nogle mennesker på bekostning af menneskerettighederne for nogle få eller et bestemt samfund. Hellere, den skal finde en måde at sikre, at kunstig intelligens ikke skader menneskerettighederne.

Så, Google er nødt til fuldt ud at overveje virkningerne af kunstig intelligens på menneskerettighederne gennem hele udviklingen og implementeringen. Især så, fordi der kan opstå risici, selvom teknologien ikke er designet til skadelige formål. Internationale menneskerettighedsstandarder og -normer – herunder FN’s vejledende principper for erhvervslivet og menneskerettigheder – dækker både formålet med og effekten af ​​virksomheders handlinger, inklusive Google, om menneskerettigheder. Disse eksisterende ansvarsområder skal afspejles meget tydeligere i Googles principper, især på de positive handlinger, som Google vil tage for at beskytte skade på menneskerettighederne, selvom det er utilsigtet.

At være ansvarlig for, hvordan den udvikler og implementerer AI, Google er nødt til at bevæge sig ud over det nuværende foreløbige sprog om at opmuntre til arkitekturer for privatliv og sikre "passende menneskelig styring og kontrol" uden at forklare, hvem der beslutter, hvad der er passende og på hvilket grundlag. Det skal integrere menneskerettigheder i designet af kunstig intelligens og inkorporere sikkerhedsforanstaltninger såsom menneskerettighedskonsekvensvurderinger og uafhængigt tilsyn og revisionsprocesser i principperne.

Principperne bør også beskrive, hvordan skader på menneskerettighederne vil blive afhjulpet, og hvordan enkeltpersoner og grupper kan fremsætte et krav, som i øjeblikket er fraværende.

Vejen frem?

Lancering af principperne, Googles administrerende direktør Sundar Picar erkendte, at den måde, hvorpå AI udvikles og bruges, vil have "en betydelig indflydelse på samfundet i mange år fremover." Googles banebrydende rolle inden for kunstig intelligens betyder, at virksomheden, ifølge Sundar, "føler et dybt ansvar for at få dette rigtigt."

Selvom principperne er en vigtig start, de har brug for meget mere udvikling, hvis vi skal være sikre på, at vores menneskerettigheder bliver beskyttet. Det næste skridt er, at Google integrerer menneskerettigheder, sikkerhedsforanstaltninger og ansvarlighedsprocesser gennem hele deres AI-udvikling. Det er det, der skal til for at "få det rigtige".

Denne artikel blev oprindeligt publiceret på The Conversation. Læs den originale artikel.




Varme artikler