Videnskab
 science >> Videnskab >  >> Elektronik

Deadbots kan tale for dig efter din død. Er det etisk?

Kredit:Pixabay/CC0 Public Domain

Maskinlæringssystemer ormer sig i stigende grad gennem vores hverdag og udfordrer vores moralske og sociale værdier og de regler, der styrer dem. I disse dage truer virtuelle assistenter hjemmets privatliv; nyhedsanbefalere former den måde, vi forstår verden på; risikoforudsigelsessystemer tipper socialarbejdere om, hvilke børn de skal beskytte mod misbrug; mens datadrevne ansættelsesværktøjer også rangerer dine chancer for at få et job. Etikken omkring maskinlæring forbliver dog sløret for mange.

Da jeg søgte efter artikler om emnet for de unge ingeniører, der deltog i etik og informations- og kommunikationsteknologi-kurset på UCLouvain, Belgien, blev jeg især slået af sagen om Joshua Barbeau, en 33-årig mand, der brugte et websted kaldet Project December til at lav en samtalerobot – en chatbot – der ville simulere samtale med hans afdøde forlovede, Jessica.

Konversationsrobotter, der efterligner døde mennesker

Kendt som en deadbot, tillod denne type chatbot Barbeau at udveksle tekstbeskeder med en kunstig "Jessica". På trods af sagens etisk kontroversielle karakter fandt jeg sjældent materialer, der gik ud over det blotte faktuelle aspekt og analyserede sagen gennem en eksplicit normativ linse:hvorfor ville det være rigtigt eller forkert, etisk ønskværdigt eller forkasteligt, at udvikle en deadbot?

Før vi kæmper med disse spørgsmål, lad os sætte tingene i kontekst:Project December blev skabt af spiludvikleren Jason Rohrer for at gøre det muligt for folk at tilpasse chatbots med den personlighed, de ønskede at interagere med, forudsat at de betalte for det. Projektet blev bygget ved at trække på en API af GPT-3, en tekstgenererende sprogmodel af den kunstige intelligens-forskningsvirksomhed OpenAI. Barbeaus sag åbnede en splid mellem Rohrer og OpenAI, fordi virksomhedens retningslinjer udtrykkeligt forbyder GPT-3 at blive brugt til seksuelle, amorøse, selvskadende eller mobningsformål.

Rohrer kaldte OpenAI's position som hypermoralistisk og argumenterede for, at folk som Barbeau var "samtykkede voksne", og lukkede ned for GPT-3-versionen af ​​Project December.

Selvom vi alle måske har intuitioner om, hvorvidt det er rigtigt eller forkert at udvikle en maskinlærende deadbot, er det næppe en let opgave at præcisere dens implikationer. Derfor er det vigtigt at behandle de etiske spørgsmål, som sagen rejser, trin for trin.

Er Barbeaus samtykke nok til at udvikle Jessicas deadbot?

Da Jessica var en rigtig (omend død) person, synes Barbeau at give samtykke til oprettelsen af ​​en dødbot, der efterligner hende, utilstrækkelig. Selv når de dør, er mennesker ikke blot ting, som andre kan gøre, som de vil. Det er derfor, vores samfund anser det for forkert at vanhellige eller at være respektløs over for de dødes minde. Med andre ord har vi visse moralske forpligtelser vedrørende de døde, for så vidt som døden ikke nødvendigvis indebærer, at mennesker ophører med at eksistere på en moralsk relevant måde.

Ligeledes er debatten åben om, hvorvidt vi skal beskytte de dødes grundlæggende rettigheder (f.eks. privatliv og personlige data). At udvikle en deadbot, der replikerer en persons personlighed, kræver store mængder personlige oplysninger, såsom sociale netværksdata (se hvad Microsoft eller Eternime foreslår), som har vist sig at afsløre meget følsomme træk.

Hvis vi er enige om, at det er uetisk at bruge folks data uden deres samtykke, mens de er i live, hvorfor skulle det så være etisk at gøre det efter deres død? I den forstand, når man udvikler en deadbot, virker det rimeligt at anmode om samtykke fra den, hvis personlighed er afspejlet – i dette tilfælde Jessica.

Når den imiterede person giver grønt lys

Det andet spørgsmål er således:ville Jessicas samtykke være nok til at betragte hendes deadbots skabelse som etisk? Hvad hvis det var nedværdigende for hendes hukommelse?

Grænserne for samtykke er faktisk et kontroversielt spørgsmål. Tag som et paradigmatisk eksempel "Rotenburg Cannibal", der blev idømt livsvarigt fængsel på trods af, at hans offer havde sagt ja til at blive spist. I den forbindelse er det blevet hævdet, at det er uetisk at give samtykke til ting, der kan være til skade for os selv, det være sig fysisk (at sælge sine egne vitale organer) eller abstrakt (at fremmedgøre sine egne rettigheder), så længe et godt samfund bør tilskynde alle dets medlemmer til at leve bedre og friere (ikke nødvendigvis i paternalistisk forstand, på de betingelser, som er pålagt af en anden, men på en demokratisk måde på folkets præmisser).

I hvilke specifikke termer noget kan være til skade for de døde, er et særligt komplekst spørgsmål, som jeg ikke vil analysere fuldt ud. Det er dog værd at bemærke, at selvom de døde ikke kan skades eller krænkes på samme måde som de levende, betyder det ikke, at de er usårlige over for dårlige handlinger, ej heller at disse er etiske. De døde kan lide skade på deres ære, omdømme eller værdighed (for eksempel posthume smædekampagner), og manglende respekt for de døde skader også dem, der står dem tæt på. Desuden fører en dårlig opførsel over for de døde os til et samfund, der er mere uretfærdigt og mindre respektfuldt over for menneskers værdighed generelt.

Endelig, givet maskinlæringssystemers formbarhed og uforudsigelighed, er der en risiko for, at samtykket givet af den person, der efterlignes (mens han er i live), ikke betyder meget mere end en blank check på dens potentielle veje.

Når alt dette tages i betragtning, forekommer det rimeligt at konkludere, at hvis deadbot'ens udvikling eller brug ikke svarer til, hvad den imiterede person har accepteret, bør deres samtykke anses for ugyldigt. Desuden, hvis det klart og bevidst skader deres værdighed, burde selv deres samtykke ikke være nok til at betragte det som etisk.

Hvem tager ansvar?

Et tredje spørgsmål er, om kunstige intelligenssystemer skal stræbe efter at efterligne enhver form menneskelig adfærd (uanset her om det er muligt).

Dette har været en langvarig bekymring inden for kunstig intelligens, og det er tæt forbundet med striden mellem Rohrer og OpenAI. Skal vi udvikle kunstige systemer, der for eksempel er i stand til at tage sig af andre eller træffe politiske beslutninger? Det ser ud til, at der er noget i disse færdigheder, der gør mennesker anderledes end andre dyr og maskiner. Derfor er det vigtigt at bemærke, at instrumentalisering af kunstig intelligens i retning af tekno-løsningsmæssige formål, såsom at erstatte kære, kan føre til en devaluering af, hvad der karakteriserer os som mennesker.

Det fjerde etiske spørgsmål er, hvem der bærer ansvaret for resultaterne af en deadbot – især i tilfælde af skadelige virkninger.

Forestil dig, at Jessicas deadbot selvstændigt lærte at optræde på en måde, der nedgjorde hendes hukommelse eller irreversibelt skadede Barbeaus mentale helbred. Hvem ville tage ansvar? AI-eksperter besvarer dette glatte spørgsmål gennem to hovedtilgange:For det første påhviler ansvaret dem, der er involveret i design og udvikling af systemet, så længe de gør det i overensstemmelse med deres særlige interesser og verdenssyn; for det andet er maskinlæringssystemer kontekstafhængige, så det moralske ansvar for deres output bør fordeles mellem alle de agenter, der interagerer med dem.

Jeg placerer mig tættere på den første position. I dette tilfælde, da der er en eksplicit co-creation af deadbot, der involverer OpenAI, Jason Rohrer og Joshua Barbeau, anser jeg det for logisk at analysere hver parts ansvarsniveau.

For det første ville det være svært at gøre OpenAI ansvarlig, efter at de eksplicit forbød at bruge deres system til seksuelle, amorøse, selvskadende eller mobningsformål.

Det forekommer rimeligt at tillægge Rohrer et betydeligt moralsk ansvar, fordi han:(a) eksplicit designede systemet, der gjorde det muligt at skabe deadbot; (b) gjorde det uden at forudse foranstaltninger for at undgå potentielle negative resultater; (c) var klar over, at den ikke overholdt OpenAI's retningslinjer; og (d) tjente på det.

Og fordi Barbeau skræddersyede deadbot ved at trække på særlige træk ved Jessica, synes det legitimt at holde ham medansvarlig i tilfælde af, at det forringede hendes hukommelse.

Etisk under visse betingelser

Så når vi vender tilbage til vores første generelle spørgsmål om, hvorvidt det er etisk at udvikle en maskinlærende deadbot, kunne vi give et bekræftende svar på den betingelse, at:

  • både den person, der efterlignes, og den, der tilpasser og interagerer med den, har givet deres frie samtykke til en så detaljeret beskrivelse som muligt af designet, udviklingen og anvendelsen af ​​systemet;
  • udvikling og brug, der ikke holder sig til, hvad den imiterede person har givet samtykke til, eller som strider mod deres værdighed, er forbudt;
  • de mennesker, der er involveret i dets udvikling og dem, der profiterer af det, tager ansvar for dets potentielle negative resultater. Både med tilbagevirkende kraft, for at redegøre for hændelser, der er sket, og fremadrettet, for aktivt at forhindre dem i at ske i fremtiden.

Denne case eksemplificerer, hvorfor etikken i maskinlæring betyder noget. Det illustrerer også, hvorfor det er vigtigt at åbne en offentlig debat, der bedre kan informere borgerne og hjælpe os med at udvikle politiske tiltag for at gøre AI-systemer mere åbne, socialt retfærdige og i overensstemmelse med grundlæggende rettigheder.

Varme artikler