Kredit:CC0 Public Domain
Psykologiprofessor Michelle Drouin ville vide, hvordan folk ville reagere, hvis en chatbot kunne efterligne et menneske.
Så hun og hendes medforskere opdelte 350 bachelorstuderende i tre grupper. En gruppe fik at vide, at de ville interagere med en bot. En anden fik at vide, at det var en rigtig person. Og den sidste blev først informeret efter den interaktion, de havde kommunikeret med en algoritme.
De to første grupper var næsten lige tilfredse med oplevelsen. Men det var den sidste gruppe ikke.
"De følte en uhyggelighed over det, "sagde Drouin fra Purdue University Fort Wayne." De troede, de blev bedraget. "
Det er en reaktion, Silicon Valley -virksomheder måske vil være meget opmærksomme på, da de fortsætter med at skubbe grænserne for kunstig intelligens for at skabe stadig mere realistiske virtuelle assistenter.
På tirsdag, Google afslørede en assistent, der er i stand til at foretage opkald til at planlægge aftaler, mens han taler med en næsten fejlfri menneskelig stemme fyldt med "ums" og "ahs." På intet tidspunkt under præsentationen afslørede Googles software, at det ikke er menneskeligt - hvilket udløste en debat om etik og samtykke.
På torsdag, Google vendte kursen ved eksplicit at sige, at tjenesten, kendt som Google Duplex, ville indeholde en oplysning om, at det ikke er en person.
"Vi forstår og værdsætter diskussionen omkring Google Duplex - som vi har sagt fra begyndelsen, gennemsigtighed i teknologien er vigtig, "sagde en virksomheds talsmand." Vi designer denne funktion med indbygget afsløring, og vi sørger for, at systemet er korrekt identificeret. "
Bekymringen for, at folk ville blive lurt af Googles nye funktion, understreger, at det haster for samfundet at afgøre, hvilken slags relation det ønsker med sine kunstige hjælpemidler, efterhånden som teknologivirksomheder kommer tættere på at krydse den såkaldte uhyggelige dal. Det er et udtryk, der bruges til at beskrive kløften mellem en robot eller software, der har lige nok ufuldkommenheder til at rejse skepsis og en anden, der ikke kan skelnes fra et menneske.
Vil vi kræve at vide det, når vi taler med en bot? Eller vil vi acceptere, at vi uforvarende vil tale med algoritmer? Vil vi skænke dem den samme venlighed og empati, som vi kræver af hinanden? Eller ser vi dem bare som værktøjer, uværdig til de værdier, der binder civilsamfundet sammen? Det er spørgsmål, etikere, udviklere og designere undrer sig over. Hvordan vi reagerer kan have vidtrækkende konsekvenser for, hvordan mennesker i sidste ende behandler hinanden.
"Det vil ændre os, "sagde Pamela Pavliscak, professor ved Pratt Institute og grundlægger af Change Sciences, et konsulentfirma med speciale i den følelsesmæssige forbindelse, folk har med teknologi. "Vi designer tech og tech, på tur, designer os. Det ville være ret naivt at tro, at vi bliver ved med at være det samme. "
Ved hjælp af et par indspillede telefonopkald, Googles administrerende direktør, Sundar Pichai, demonstrerede i denne uge for deltagerne på virksomhedens udviklerkonference, hvordan dens virtuelle assistent kunne ringe og bestille en håraftale og forsøge at reservere bord på en restaurant.
"Mm-hmm, "siger ersatz -assistenten med en naturlig kvindelig stemme, da han blev bedt om at vente et øjeblik af salonmedarbejderen.
Assistenten forhandler derefter alternative tider for udnævnelsen, smide i en "um" for en god del. Der er ikke noget, der tyder på, at salonmedarbejderen aner, at stemmen i den anden ende er computergenereret.
Det samme gør en restaurantmedarbejder, der taler til en mandlig virtuel assistent, der bruger omgangstegn som "Åh, Jeg må "udtrykke forståelse.
Googles vilje til at afsløre, at Duplex ikke er en rigtig person, kan presse andre virksomheder til at gøre det samme. Men amerikanere - der allerede er vant til robocalls og automatiserede opkaldsmenuer - kan alligevel engang finde på at spørge, om stemmen i den anden ende er ægte.
Pichai sagde, at tjenesten kunne være en velsignelse for virksomheder ved at slette endnu en barriere for kunderne, som måske ikke har tid til at foretage sådanne opkald. Det hele passer fint ind i virksomhedens nye tagline, "Få Google til at gøre det, "som opfordrer forbrugere til at udnytte assistenten fra deres telefoner, smarte højttalere, biler, Tv og bærbare computere.
Lad ingen glemme, jo mere menige opgaver, folk outsourcer til Google, jo mere virksomheden kender til deres vaner. Det tjener to formål:Det giver Google mulighed for at give forbrugerne bedre søgeresultater, og det giver annoncører mulighed for at målrette målgrupper mere præcist. Og ved at få en virtuel assistent til at lyde ægte, brugere sænker deres vagter, giver Google endnu mere værdifulde data.
Det bekymrer i sig selv fortalere for fortrolighed. Vil en autentisk klingende assistent lulle brugerne til at afsløre deres mest private detaljer for et firma, der samlede 95 milliarder dollars i reklameindtægter sidste år? Hvad hvis assistenten ringer til en læge? Ved Google nu om nogens sundhedshistorie?
Det er noget, Google skal tage fat på i betragtning af dagens øgede bekymringer om privatliv efter Facebooks Cambridge Analytica -skandale. Men etikere siger, at de større bekymringer er de utilsigtede konsekvenser af en verden, der i stigende grad oversvømmes af bots og automatiserede tjenester i stedet for ægte menneskelig interaktion.
"Grunden til at dette kan gå sidelæns, er fordi menneskelig kommunikation og relationer er baseret på gensidighed, "sagde David Ryan Polgar, en teknologetiker. "Hvad hvis jeg bruger tid på at tænke på nogen og skrive til dem, men den anden person ikke gør det? De gør ikke den samme indsats, men de vil stadig have fordel af et uddybet forhold."
Som resultat, han sagde, kommunikation bliver billigere.
"Det bliver transaktionelt, udelukkende om ordene og ikke meningen, "sagde Polgar, der mener, at Google og andre AI -udviklere har et etisk ansvar for at afsløre, at deres assistenter ikke er mennesker.
Dennis Mortensen, administrerende direktør og grundlægger af AI virtual assistant company x.ai, said he fears people will eventually determine it's a waste of time being kind to one another if an increasing amount of interaction is automated. But he has hope that won't come to pass.
"You can engineer good behavior, " said Mortensen. He cited Google's announcement this week that it will add a feature to its virtual assistant that encourages children to say "please" and "thank you." Amazon has a similar program for its assistant.
Mortensen, whose company solely helps users schedule meetings, said he's also seen polite responses to his virtual assistants, Amy and Andrew. Of the hundreds of thousands of meetings x.ai schedules each month, about 11 percent of users reply to the assistants just to express gratitude—even though Mortensen discloses that the service is AI.
Drouin, the psychology professor at Purdue University Fort Wayne, believes people are willing to accept algorithmic relationships if they are upfront. She says AI has unfairly gotten a bad rap from popular culture. She thinks the technology can eventually succeed in places humans can't, like delivering comfort to people suffering from alienation and loneliness.
"There's a lot of people who don't have rich and plentiful human relationships, " she said. "What options do they have? If we can advance AI we can fill a need for these people. The movement toward more human-like forms is allowing people to feel more connected."
© 2018 Los Angeles Times
Distribueret af Tribune Content Agency, LLC.