Videnskab
 science >> Videnskab >  >> Elektronik

Der er en grund til at AI er så dårlig til at snakke

Kredit:Phonlamai Photo/Shutterstock

"Undskyld, Det forstod jeg ikke helt. "Enhver, der nogensinde har prøvet at have en dybere samtale med en virtuel assistent som Siri, ved, hvor frustrerende det kan være. Det er på trods af at AI -systemer som det i stigende grad skubber ind i vores liv, med nye succeshistorier på næsten daglig basis. Ikke kun hjælper AI'er nu radiologer med at opdage tumorer, de kan fungere som katafvisende og endda opdage signaler om potentiel fremmed teknologi fra rummet.

Men når det kommer til grundlæggende menneskelige evner, som at have en god snak, AI kommer til kort. Det kan simpelthen ikke give humor, varme og evnen til at opbygge sammenhængende og personlig rapport, der er afgørende i menneskelige samtaler. Men hvorfor er det, og vil det nogensinde komme der?

Chatbots er faktisk kommet langt siden deres tidlige begyndelse, med MIT's Eliza i 1960'erne. Eliza var baseret på et sæt omhyggeligt udformede regler, der ville give indtryk af at være en aktiv lytter og simulere en session med en psykoterapeut.

Systemer som Eliza var gode til at give et sofistikeret første indtryk, men blev let fundet ud af et par samtalevendinger. Sådanne systemer blev bygget på bestræbelser på at samle så meget viden om verden som muligt, og derefter formalisere det til begreber, og hvordan disse forholder sig til hinanden. Begreber og relationer blev yderligere indbygget i grammatik og leksikoner, der ville hjælpe med at analysere og generere naturligt sprog fra mellemliggende logiske repræsentationer. For eksempel, verdens viden kan indeholde fakta som "chokolade er spiselig" og "sten er ikke spiselig".

Eliza.

Lære af data

Dagens samtale AI -systemer er forskellige ved, at de målretter mod åben domænesamtale - der er ingen grænse for antallet af emner, spørgsmål eller instruktioner et menneske kan stille. Dette opnås hovedsageligt ved helt at undgå enhver form for mellemrepræsentation eller eksplicit vidensteknik. Med andre ord, succesen med den nuværende samtale -AI er baseret på den forudsætning, at den intet kender og ikke forstår noget om verden.

Den grundlæggende deep learning -model, der ligger til grund for det mest aktuelle arbejde inden for behandling af naturligt sprog, kaldes et tilbagevendende neuralt netværk, hvorved en model forudsiger en output -sekvens af ord baseret på en input -ordsekvens ved hjælp af en sandsynlighedsfunktion, der kan udledes af data. I betragtning af brugerinputet "Hvordan har du det?" modellen kan bestemme, at et statistisk hyppigt svar er "Jeg har det godt."

Kraften i disse modeller ligger delvist i dets enkelhed - ved at undgå mellemliggende repræsentationer, flere data vil typisk føre til bedre modeller og bedre output. At lære for en AI ligner meget, hvordan vi lærer:fordøj et meget stort træningsdatasæt og sammenlign det med kendte, men usynlige data (testsæt). Baseret på hvor godt AI klarer sig i forhold til testsættet, AI's prædiktive model justeres derefter for at få bedre resultater, før testen gentages.

Men hvordan finder du ud af, hvor godt det er? Du kan se på grammatikken i ytringer, hvor "menneskelige" de lyder, eller sammenhængen i et bidrag i en række samtalevendinger. Kvaliteten af ​​output kan også bestemmes som en subjektiv vurdering af, hvor tæt de lever op til forventningerne. MIT's DeepDrumpf er et godt eksempel - et AI -system, der er uddannet i brug af data fra Donald Trumps Twitter -konto, og som uhyggeligt lyder ligesom ham, kommentere en række emner som sundhedspleje, Kvinder, eller immigration.

Imidlertid, problemer starter, når modeller modtager "forkerte" input. Microsofts Tay var et forsøg på at opbygge en samtale-AI, der gradvist ville "forbedre" sig og blive mere menneskelignende ved at have samtaler på Twitter. Tay ændrede sig berygtet fra en filantrop til en politisk mobber med et usammenhængende og ekstremistisk verdensbillede inden for 24 timer efter indsættelsen. Det blev hurtigt taget offline.

Når maskiner lærer af os, de påtager sig også vores fejl - vores ideologier, stemninger og politiske synspunkter. Men i modsætning til os, de lærer ikke at kontrollere eller evaluere dem - de kortlægger kun en indgangssekvens til en udgangssekvens, uden filter eller moralsk kompas.

Dette har, imidlertid, også fremstillet som en fordel. Nogle hævder, at de seneste succeser med IBM's Project debatter, en AI, der kan bygge "overbevisende bevisbaserede argumenter" om et givet emne, skyldes sin mangel på partiskhed og følelsesmæssig indflydelse. At gøre dette, den slår data op i en stor samling af dokumenter og trækker oplysninger ud for at udtrykke den modsatte opfattelse til den person, den debatterer med.

Næste skridt

Men selvom flere data kan hjælpe AI med at lære at sige mere relevante ting, vil det nogensinde virkelig lyde menneskeligt? Følelser er afgørende i menneskelig samtale. At genkende tristhed eller lykke i en anden persons stemme eller endda tekstbesked er utrolig vigtigt, når vi skræddersyr vores eget svar eller træffer en dom over en situation. Vi skal typisk læse mellem linjerne.

Samtale -AI'er er i det væsentlige psykopater, uden følelser eller empati. Dette bliver smerteligt klart, når vi skriger vores kundenummer ned i telefonen for syvende gang, i håb om, at systemet vil genkende vores smerte og bringe os igennem til en menneskelig kundeservicerepræsentant.

Tilsvarende samtale -AI'er forstår normalt ikke humor eller sarkasme, som de fleste af os anser for afgørende for en god chat. Selvom individuelle programmer designet til at lære AI at få øje på sarkastiske kommentarer blandt en række sætninger har haft en vis succes, ingen har formået at integrere denne færdighed i en egentlig samtale -AI endnu.

Det næste trin for samtale -AI'er er klart at integrere denne og andre sådanne "menneskelige" funktioner. Desværre, vi har endnu ikke de tilgængelige teknikker til at gøre dette med succes. Og selvom vi gjorde det, problemet er stadig, at jo mere vi forsøger at bygge ind i et system, jo mere processorkraft det vil kræve. Så der kan gå noget tid, før vi har de computertyper til rådighed, der gør dette muligt.

AI -systemer mangler tydeligvis stadig en dybere forståelse af ordets betydning, de politiske synspunkter, de repræsenterer, de formidlede følelser og ordens potentielle indvirkning. Dette sætter dem i lang tid fra faktisk at lyde menneskelige. Og der kan gå endnu længere tid, før de bliver sociale ledsagere, der virkelig forstår os og kan føre en samtale i menneskets betydning.

Denne artikel er genudgivet fra The Conversation under en Creative Commons -licens. Læs den originale artikel.




Varme artikler