Talal Rahwan, lektor i datalogi ved NYU Abu Dhabi. Kredit:NYU Abu Dhabi
Nylige teknologiske gennembrud inden for kunstig intelligens har gjort det muligt for maskiner, eller bots, at passere som mennesker. Et team af forskere ledet af Talal Rahwan, lektor i datalogi ved NYU Abu Dhabi, udførte et eksperiment for at studere, hvordan folk interagerer med bots, som de mener er mennesker, og hvordan sådanne interaktioner påvirkes, når bots afslører deres identitet. Forskerne fandt ud af, at bots er mere effektive end mennesker ved visse menneske-maskine-interaktioner, men kun hvis de får lov til at skjule deres ikke-menneskelige natur.
I deres papir med titlen "Behavioral Evidence for a Transparency-Efficiency Tradeoff in Human-Machine Cooperation" offentliggjort i Nature Machine Intelligence , forskerne præsenterede deres eksperiment, hvor deltagerne blev bedt om at spille et samarbejdsspil med enten en menneskelig medarbejder eller en botmedarbejder. Det her spil, kaldte Iterated Prisoners Dilemma, var designet til at fange situationer, hvor hver af de interagerende parter enten kan handle egoistisk i et forsøg på at udnytte den anden, eller handle i samarbejde i et forsøg på at opnå et gensidigt fordelagtigt resultat.
Afgørende, forskerne gav nogle deltagere ukorrekte oplysninger om identiteten på deres partner. Nogle deltagere, der interagerede med et menneske, fik at vide, at de interagerede med en bot, og omvendt. Gennem dette eksperiment, forskere var i stand til at afgøre, om mennesker er fordomsfulde over for arbejdsmarkedets parter, som de mener er bots, og vurdere, i hvilken grad sådanne fordomme, hvis det findes, påvirker effektiviteten af bots, der er gennemsigtige omkring deres ikke-menneskelige natur.
Resultaterne viste, at bots, der udgav sig for at være mennesker, var mere effektive til at overtale partneren til at samarbejde i spillet. Imidlertid, så snart deres sande natur blev afsløret, samarbejdsraterne faldt, og robotternes overlegenhed blev negeret.
"Selvom der er bred enighed om, at maskiner skal være gennemsigtige om, hvordan de træffer beslutninger, det er mindre klart, om de skal være gennemsigtige om, hvem de er, " sagde Rahwan.
"Overveje, for eksempel, Google Duplex, en automatiseret stemmeassistent, der er i stand til at generere menneskelignende tale for at foretage telefonopkald og booke aftaler på vegne af sin bruger. Google Duplexs tale er så realistisk, at personen på den anden side af telefonen måske ikke engang indser, at de taler med en bot. Er det etisk at udvikle sådan et system? Skulle vi forbyde bots at passere som mennesker, og tvinge dem til at være gennemsigtige om, hvem de er? Hvis svaret er "Ja", så fremhæver vores resultater behovet for at sætte standarder for effektivitetsomkostningerne, som vi er villige til at betale til gengæld for sådan gennemsigtighed."