At lære, hvordan mennesker interagerer med AI, er et vigtigt skridt i at integrere maskiner i samfundet på fordelagtige måder. Kredit:Pixabay
At lære, hvordan mennesker interagerer med maskiner med kunstig intelligens-og bruge den viden til at forbedre folks tillid til AI-kan hjælpe os med at leve i harmoni med det stadigt stigende antal robotter, chatbots og andre smarte maskiner i vores midte, ifølge en Penn State -forsker.
I et papir, der blev offentliggjort i det aktuelle nummer af Journal of Computer-Mediated Communication, S. Shyam Sundar, James P. Jimirro Professor i medieeffekter i Donald P. Bellisario College of Communications og meddirektør for Media Effects Research Laboratory, har foreslået en måde, eller ramme, at studere AI, der kan hjælpe forskere med bedre at undersøge, hvordan mennesker interagerer med kunstig intelligens, eller Human-AI-interaktion (HAII).
"Dette er et forsøg på systematisk at se på alle de måder kunstig intelligens kan påvirke brugerne psykologisk, især hvad angår tillid, sagde Sundar, som også er tilknyttet Penn State's Institute for Computational and Data Sciences (ICDS). "Forhåbentlig, den teoretiske model, der er avanceret i denne artikel, vil give forskere en ramme, samt et ordforråd, for at studere de socialpsykologiske virkninger af AI. "
Rammerne identificerer to veje - tegn og handlinger - som AI -udviklere kan fokusere på for at opnå tillid og forbedre brugeroplevelsen, sagde Sundar. Cues er signaler, der kan udløse en række mentale og følelsesmæssige reaktioner fra mennesker.
"Cue -ruten er baseret på overfladiske indikatorer for, hvordan AI ser ud, eller hvad den tilsyneladende gør, "forklarede han.
Sundar tilføjede, at der er flere tegn, der påvirker, om brugerne stoler på AI. Tegnene kan være lige så indlysende som brugen af menneskelignende funktioner, såsom et menneskeligt ansigt, som nogle robotter har, eller en menneskelignende stemme, som virtuelle assistenter som Siri og Alexa bruger.
Andre tegn kan være mere subtile, såsom en erklæring om grænsefladen, der forklarer, hvordan enheden fungerer, som når Netflix forklarer, hvorfor det anbefaler en bestemt film til seere.
Men, hver af disse signaler kan udløse forskellige mentale genveje eller heuristik, ifølge Sundar.
"Når en AI identificeres for brugeren som en maskine frem for et menneske, som det ofte sker i nutidens chatbots, det udløser 'maskin heuristik, "eller en mental genvej, der får os til automatisk at anvende alle de stereotyper, vi har om maskiner, "sagde Sundar." Vi tror måske, at maskiner er nøjagtige og præcise, men vi kan også tænke på computere og maskiner som kolde og ubærlige. "Disse stereotyper dikterer igen, hvor meget vi stoler på AI -systemet.
Sundar foreslog, at autopilotsystemer i fly er et eksempel på, hvordan overdreven tillid til AI kan føre til negative konsekvenser. Piloter kan stole så implicit på autopilotsystemet, at de slækker deres vagt og ikke er forberedt på pludselige ændringer i flyets ydeevne eller funktionsfejl, der ville kræve deres indgriben. Han nævner denne form for 'automatiseringsbias' som en indikation på vores dybe tillid til maskinens ydeevne.
På den anden side, AI kan også udløse negative skævheder for nogle mennesker.
"Det modsatte af automatiseringsbias ville være algoritmeaversion, "sagde Sundar." Der er mennesker, der bare har en aversion, fordi, måske tidligere, de blev brændt af en algoritme og mistro nu dybt AI. De blev sandsynligvis narret af 'deepfakes', som er opdigtede videoer, der er skabt ved hjælp af AI -teknologi, eller de fik den forkerte produktanbefaling fra et e-handelswebsted, eller følte, at deres privatliv blev invaderet af AI, der snøgede ind i deres tidligere søgninger og køb. "
Sundar rådede udviklere til at være særligt opmærksomme på de tegn, de muligvis giver brugerne.
"Hvis du giver tydelige tegn på grænsefladen, du kan hjælpe med at forme, hvordan brugerne reagerer, men hvis du ikke giver gode tegn, du vil lade brugerens tidligere erfaring og folketeorier, eller naive forestillinger, om algoritmer, der skal overtage, "Sagde Sundar.
Ud over at give tegn, AI's evne til at interagere med mennesker kan også skabe brugeroplevelse, ifølge Sundar. Han kalder dette "handlingsruten".
"Handlingsruten handler virkelig om samarbejde, "sagde Sundar." AI'er burde faktisk engagere sig og arbejde sammen med os. De fleste af de nye AI -værktøjer - de smarte højttalere, robotter og chatbots - er meget interaktive. I dette tilfælde, det er ikke kun synlige tegn på, hvordan de ser ud, og hvad de siger, men om, hvordan de interagerer med dig. "
I både handlinger og tegn, Sundar foreslår, at udviklere opretholder den korrekte balance. For eksempel, en cue, der ikke gennemsigtigt fortæller brugeren, at AI er på arbejde i enheden kan udløse negative tegn, men hvis køen giver for mange detaljer, folk kan prøve at ødelægge - eller "spille" - interaktionen med AI. "At cueing den rigtige mængde gennemsigtighed på grænsefladen er derfor ret vigtig, " han sagde.
"Hvis din smarte højttaler stiller dig for mange spørgsmål, eller interagerer for meget med dig, det kan være et problem, også, "sagde Sundar." Folk vil have samarbejde. Men de vil også minimere deres omkostninger. Hvis AI konstant stiller dig spørgsmål, så hele pointen med AI, nemlig bekvemmelighed, er væk."
Sundar sagde, at han forventer, at rammen af tegn og handlinger vil guide forskere, når de tester disse to veje til AI -tillid. Dette vil generere beviser for at informere om, hvordan udviklere og designere skaber AI-drevne værktøjer og teknologi til mennesker.
AI -teknologien udvikler sig så hurtigt, at mange kritikere presser på for direkte at forbyde visse applikationer. Sundar sagde, at det at give forskere tid til grundigt at undersøge og forstå, hvordan mennesker interagerer med teknologi, er et nødvendigt skridt for at hjælpe samfundet med at udnytte fordelene ved enhederne, samtidig med at de negative konsekvenser minimeres.
"Vi laver fejl, "sagde Sundar." Fra trykpressen til internettet, nye medieteknologier har ført til negative konsekvenser, men de har også ført til mange flere fordele. Der er ingen tvivl om, at visse manifestationer af AI vil frustrere os, men på et tidspunkt, vi bliver nødt til at eksistere sammen med AI og bringe dem ind i vores liv. "