Kredit:CC0 Public Domain
Hvis du vil forstå, hvordan folk tænker (og føler) om nye teknologier, det er vigtigt at forstå, hvordan medier tænker (og skriver) om nye teknologier.
En nylig analyse af, hvordan journalister har håndteret etik af kunstig intelligens (AI) tyder på, at journalister gør et godt stykke arbejde med at kæmpe med et komplekst sæt spørgsmål - men der er plads til forbedringer.
For at lære mere om arbejdet, hvorfor de gjorde det, og hvorfor det er vigtigt, vi talte med forskerne, der udførte arbejdet:Veljko Dubljević, tilsvarende forfatter til papiret og en adjunkt i filosofi ved NC State; Leila Ouchchy, første forfatter til papiret og en tidligere bachelor i NC State; og Allen Coin, medforfatter af papiret og en kandidatstuderende ved NC State.
Papiret, "AI i overskrifterne:skildringen af de etiske spørgsmål om kunstig intelligens i medierne, "blev offentliggjort i tidsskriftet AI og samfund den 29. marts.
Abstractet:Dette papir fokuserer på, delvis, om etiske spørgsmål i forbindelse med AI -teknologier, som folk ville bruge i deres daglige liv. Kan du give mig et eller to eksempler?
Allen Coin:Sandsynligvis den mest kendte anvendelse af AI med meget reelle etiske implikationer ville være selvkørende biler. Hvis en autonom bil er i en situation, hvor den har, for eksempel, mistet kontrollen over sine bremser og skal enten styrte ind i et barn eller en voksen, hvad skal den gøre? Hvis du 'kører' i en autonom bil, og du bliver bevidstløs, og bilen plejer at være ude af kontrol og har valget mellem at køre ned i en fodgænger, og dermed redde dit liv, eller kører ud af en klippe, og dermed ofre dit liv, hvad skal den gøre? Hvad ville du have din bil til at gøre i den situation?
Disse er "Trolley Problemer" i den virkelige verden, som selv mennesker ville kæmpe for at tage moralske og etiske beslutninger om i øjeblikket.
Et andet lidt mere lumsk eksempel ville være, hvordan menneskelige fordomme og fordomme tilsyneladende har en tendens til at dukke op i AI -applikationer, som mennesker udvikler. Maskinlæringsalgoritmer, for eksempel, berører flere og flere områder af menneskelivet. Men disse algoritmer skal "trænes" i virkelige datasæt. Hvis datasættene repræsenterer fordomsfuld menneskelig adfærd, selvom det ikke umiddelbart er tydeligt, eller du forsøger at afskærme det, det kan betyde, at den resulterende software ikke er i stand til at handle objektivt.
Et eksempel ville være HR -software til store virksomheder, der screener jobansøgere baseret på lignende træk til tidligere succesfulde ansøgere, hvilket betyder, at hvis der var en køns- eller race -forspænding, når mennesker foretog ansættelsesbeslutninger, kan "robotten" fortsat opføre sig med disse skævheder, når de vælger kandidater.
TA:Til denne forskning, du kiggede specifikt på, hvordan nyhedsmedier dækkede disse etiske overvejelser. Hvorfor?
Leila Ouchchy:Vi kiggede specifikt på nyhedsmedier på grund af den effekt, nyheder kan have på den offentlige mening om ny teknologi. Mediedækningen af AI's etik har potentiale til at påvirke, hvordan AI implementeres i vores samfund, fra den slags AI, der produceres af virksomheder, til den måde, hvorpå AI reguleres af regeringen.
TA:Hvorfor ikke også se på de måder, hvorpå AI -etik behandles i populærkulturen, såsom tv eller film? Oplyser og afspejler de ikke også offentlige bekymringer?
Veljko Dubljević:Den offentlige repræsentation af etiske spørgsmål inden for AI i fiktion har allerede fået mere opmærksomhed i det akademiske samfund, og det er både godt og ondt.
Det gode ved det er, at vi har nogle analyser derude, som kan være nyttig.
Den dårlige side, imidlertid, er, at dette ikke er solidt funderet i videnskabelige kendsgerninger og allerede tilgængelige teknologier, hvilket gør dette mere tilbøjeligt til utopiske og dystopiske overdrivelser.
TA:Hvad fandt din analyse af nyhedsmedier? Og hvad betyder det?
Ouchchy:Der var en kraftig stigning i antallet af artikler, der blev offentliggjort i de seneste år, hvilket viser, at mængden af medieindhold, der offentliggøres om etik af AI, konstant har været stigende, og vil sandsynligvis fortsætte med at stige, da dette bliver et mere udbredt problem. Derudover der var lidt diskussion af etiske rammer og principper baseret på dem, hvilket tyder på manglende deltagelse eller indflydelse fra etikere i mediediskussionen. Endelig, vi fandt ud af, at artiklerne for det meste havde neutrale toner, og fokuseret på praktiske og relevante spørgsmål, selvom deres anbefalinger ikke var særlig specifikke. Dette viser, at mediediskussionen om etik af AI er relativt sofistikeret, men stadig i sine tidlige stadier.
TA:Hvad kunne eller burde journalister gøre anderledes i deres dækning af etik og AI -teknologier?
Dubljević:Journalister kan have fordel af at kontakte AI -teknologieksperter og etikere for at få rettet de relevante fakta og værdier. Diskussionen kan være relativt sofistikeret, men der er bestemt plads til forbedringer.
Mønt:For at tilføje til dette punkt, en ting, der slog mig ved resultaterne af denne forskning, er, at en af de mest almindeligt citerede "etiske rammer" i artikler om AI -etik er Isaac Asimovs "Three Laws of Robotics". Nu, Jeg er bestemt fan af Asimovs science fiction, men hans "Tre love" er ikke en formel etisk ramme. Det er heller ikke særlig nyttigt i forbindelse med virkelige diskussioner om, hvordan AI kan og bør opføre sig etisk.
Utilitarisme blev også almindeligt diskuteret i nyhedsartikler om AI -etik, så jeg tror, der er en mulighed for at modernisere, hvordan vi taler om AI -etik. Specifikt, vi kunne-eller burde-bruge mere moderne etiske rammer, der er i stand til at tackle forviklingerne og kompleksiteten ved virkelige anvendelser af kunstige moralske agenter. Jeg er også enig med Veljko i, at journalister oftere skal kontakte AI-forskere og etikere-jeg tror, at der er mange eksperter, der med glæde ville tale øret af enhver journalist, der ønsker at få et detaljeret etisk perspektiv på enhver AI-relateret nyhedsartikel .