Videnskab
 science >> Videnskab >  >> Elektronik

Kan AI-chatbots hjælpe med at udfylde empatikløften?

Kredit:Michigan State University

Stresset? Har du brug for at tale? Det kan hjælpe at henvende sig til en chatbot for at få følelsesmæssig støtte.

ComArtSci lektor i kommunikation Jingbo Meng ønskede at se, hvor effektive chatbots med kunstig intelligens (AI) kunne være til at levere støttende beskeder. Så hun oprettede forskningen og brugte en chatbot-udviklingsplatform til at teste det.

"Chatbots er blevet brugt bredt i kundeservice gennem tekst- eller stemmebaseret kommunikation," sagde hun. "Det er en naturlig forlængelse at tænke på, hvordan AI-chatbots kan spille en rolle i at give empati efter at have lyttet til nogens historier og bekymringer."

Chat det op

I begyndelsen af ​​2019 begyndte Meng at vurdere effektiviteten af ​​empatiske chatbots ved at sammenligne dem med menneskelig chat. Hun havde fulgt væksten af ​​digitale sundheds- og wellness-apps og så den fænomenale vækst af dem, der var relateret til mental sundhed. Hendes tidligere samarbejde med MSU-ingeniørkolleger fokuserede på et bærbart mobilsystem til at fornemme, spore og forespørge brugere om adfærdsmarkører for stress og depression. Samarbejdet inspirerede hende til at bruge chatbots, der indleder samtaler med brugerne, når adfærdsmarkørerne identificeres.

"Vi fornemmede, at nogle chatbot-kommunikationer kunne fungere, andre måske ikke," sagde Meng. "Jeg ønskede at lave mere forskning for at forstå hvorfor, så vi kan udvikle mere effektive budskaber til brug i apps til mental sundhed."

Meng rekrutterede 278 MSU-studerende til sit studie og bad dem identificere de store stressfaktorer, de havde oplevet i den seneste måned. Deltagerne blev derefter forbundet via Facebook Messenger med en empatisk chatpartner. En gruppe fik at vide, at de ville tale med en chatbot, en anden forstod, at de ville tale med et menneske. Rynken? Meng satte det op, så kun chatbots leverede forespørgsler og beskeder, så hun kunne måle, om deltagerne reagerede anderledes, når de troede, at deres chatpartner var menneskelig.

Meng varierede også niveauet af gensidig selvafsløring, deltagere ville opleve under deres 20-minutters sessioner. Nogle chatbots delte deres egne erfaringer som en måde at fremkalde empati. Andre chatbots forklarede simpelthen deres egne personlige problemer på bekostning af ikke at validere deltagerne."

Med undtagelse af de forskellige gensidige selvafsløringsscenarier blev indholdet og flowet af samtaler skrevet nøjagtigt det samme for chatbots og for de opfattede menneskelige chatpartnere. Chatbots bad deltagerne om at identificere stressfaktorer. De spurgte, hvordan deltagerne havde det. De undersøgte, hvorfor deltagerne troede, at stressfaktorer fik dem til at føle på bestemte måder. Derefter delte chatbots deres egne erfaringer.

"De var programmeret til at validere og hjælpe deltagerne med at komme igennem stressede situationer," sagde hun. "Vores mål var at se, hvor effektiv beskeden kunne være."

Pas på

Meng opdagede, at uanset om han taler med en chatbot eller et menneske, skulle en deltager føle, at partneren er støttende eller omsorgsfuld. Hvis denne betingelse er opfyldt, lykkes samtalen med at reducere stress.

Hendes undersøgelse afslørede også, at uanset budskabet følte deltagerne, at mennesker var mere omsorgsfulde og støttende end en chatbot.

Hendes scenarier om gensidig selvafsløring fortalte en anden historie. Menneskelige partnere, der afslørede sig selv – uanset om deres hensigt var at være empatiske eller blot at uddybe deres egne problemer – bidrog til stressreduktion. Men chatbots, der afslørede sig selv uden at tilbyde følelsesmæssig støtte, gjorde ikke meget for at reducere en deltagers stress – endnu mindre end chatbots, der slet ikke sagde noget.

"Mennesker er simpelthen mere relaterbare," sagde Meng. "Når vi taler med et andet menneske, selv når de ikke validerer vores følelser, kan vi relatere mere naturligt. Chatbots skal dog være mere eksplicitte og sende beskeder af højere kvalitet. Ellers kan selvafsløring være irriterende og deaktiveret -putting."

Opfattelse af kilden

Meng udførte og analyserede forskning med Yue (Nancy) Dai, en 2018-alumne fra MSU's kommunikationsdoktorgradsprogram og professor ved City University of Hong Kong. Deres resultater blev offentliggjort i Journal of Computer-Mediated Communication.

Meng sagde, at undersøgelsen understreger, at chatbots, der bruges i apps til mental sundhed, fungerer bedst, når de opfattes som en virkelig omsorgsfuld kilde. Hun planlægger at følge undersøgelsen op med yderligere forskning, der undersøger, hvordan beskeder kan designes for at øge omsorgsfaktoren.

Mental sundheds-apps, sagde hun, forsvinder ikke, og de er faktisk stigende i brug og tilgængelighed. Mens de fleste mennesker har adgang til en mobiltelefon, har mange ikke lige adgang til en terapeut eller sygeforsikring. Apps, sagde hun, kan hjælpe enkeltpersoner med at håndtere bestemte situationer og kan give benchmarks for yderligere støttende behandling.

"Disse apps og chatbots vil på ingen måde erstatte et menneske," sagde hun. "Vi tror på, at hybridmodellen af ​​AI-chatbots og en menneskelig terapeut vil være meget lovende."

Varme artikler