Kredit:Shutterstock
"Hej, Google. Kan du forstå min accent?"
"Selvfølgelig. Du har en utrolig behagelig dialekt."
Så begyndte min lørdag formiddag diskussion med min Google Home Mini. Og selvom jeg var glad for at modtage en kompliment om min tale, det var ikke min motivation for at stille spørgsmålet. Vores menneske-til-robot-chat blev udløst af nylige nyhedsrapporter, der hævder, at stemmeassistenter sandsynligvis vil "slå ud", "slå ihjel" og få os til at "miste" vores regionale accenter, beskrevet af nogle som "truede".
Endnu en apokalyptisk historie om sprog og endnu en opfordring til sprogforskere om at lave nogle myte-sprængninger, derefter.
Disse skræmmeoverskrifter relaterer sig til resultaterne af en nylig undersøgelse foretaget af Life Science Center i Newcastle upon Tyne, som hævder, at 79 % af besøgende på deres Robots – Then and Now-udstilling rapporterede, at de ændrede måden, de taler på, for at blive forstået af stemmeassistenter, såsom Alexa (Amazon), Google Assistant, Siri (Apple) og Cortana (Microsoft). Afgørende, disse besøgende rapporterede også at have regionale britiske accenter, og deres opfattede behov for at skifte accent fremhæver to problemer.
Et spørgsmål er praktisk. Folk med ikke-standard accenter er mere tilbøjelige til at støde på problemer med at kommunikere, når de interagerer med deres smarte højttalere. Det andet spørgsmål er socialt. Taleteknologi ser ud til at privilegere standard accenter, såsom sydlig standard britisk engelsk (også kendt som modtaget udtale). Men det, der er vigtigt at bemærke, er, at vores virtuelle assistenter ikke i sagens natur er forudindtaget. De replikerer simpelthen de menneskelige fordomme, som de er modelleret efter.
"Hej, Google. Kan du lide den måde, jeg taler på?"
"Undskyld, Jeg kan ikke dømme. Men jeg kan spille noget musik for dig. "
Sprogbaseret diskrimination er overalt omkring os, og når vi beder vores enheder om at spille vores yndlingssang og ender med noget andet eller med et "Undskyld, jeg forstår ikke", det kan undre os over, hvorfor vores stemmer ikke bliver hørt, og hvorfor disse maskiner ser ud til at arbejde imod dem af os med regionale accenter.
Internettet bugner af klip og klager. Skotske accenter er særligt vanskelige for stemmegenkendelsesteknologi, som vist af forskning og populariseret af komedie sketch show, Burnistoun. Men vi skal huske på, at det ikke er en lille bedrift at genkende den brede vifte af engelske accenter, der findes (overvej de forskellige accenter, der tales i din region, overvej derefter overfloden af accenter, der tales i engelsktalende lande verden over og af andetsprogstalere af engelsk).
Forskning tyder på, at vi mennesker generelt er gode til at genkende, hvor folk kommer fra, baseret på deres accenter, men kan nogle gange kæmpe, normalt på grund af manglende tidligere eksponering. Så det giver mening, at vores virtuelle assistenter også skal stifte bekendtskab med regionale accenter gennem sproglige input for at genkende – eller endda bruge – accenter, når de interagerer med os.
"Hej, Google. Vil smarte højttalere udrydde regionale accenter?"
"Undskyld, Jeg forstår det ikke."
Okay, Jeg har nok skubbet min Google Assistant lidt for langt med dette spørgsmål, men jeg var nysgerrig efter at se, om det ville forudsige en form for sproglig dommedagsprofeti. Og jeg var parat til at imødegå endetidspessimismen med det beroligende budskab, at stemmeassistenter ikke vil føre til tab af regionale accenter. Her er blot et par grunde til hvorfor.
Slap af
Menneske-til-robot-interaktioner er meget mindre hyppige end menneske-til-menneske-interaktioner. Størstedelen af vores daglige snak er designet til andre mennesker. At ændre vores tale et par gange om dagen for at interagere med smarthøjttalere vil ikke påvirke vores accenter mere generelt.
Vores "smart-speaker accenter" ligner accenter, som vi allerede bruger regelmæssigt. Vi har en tendens til ikke at ændre vores accenter drastisk, når vi taler til smarte højttalere. Vi kan hæve vores volumen, tale langsommere og udtale mere. Vi udtaler måske tingene anderledes, men kun lidt. Og vi tilpasser vores tale på lignende måder i mange andre sammenhænge:foretage telefonopkald, laver jobsamtaler, tale med folk fra andre byer og lande.
Accenter, og det sprog, vi bruger mere generelt, er grundlæggende for, hvem vi er. Vi skaber og udøver vores identiteter gennem sprog og andre sociale praksisser. Gennem vores tale, vi kan understrege vores professionalisme i nogle sammenhænge, og vores street cred i andre. Vores accenter er ofte en kilde til regional stolthed og forbundet med en følelse af loyalitet og tilhørsforhold til gruppen. Vi er ikke robotter, der bruger en input-output-model for sprog. Vi taler på bestemte måder, fordi det er meningsfuldt at gøre det.
Så, frygt ej, enden på rige og varierede britiske accenter er ikke nær. Hvis noget, stemmeaktiveret kunstig intelligens gør regional tale til et stadig vigtigere træk ved dagligdags interaktioner. I stedet for at se stemmeassistenter som en trussel mod regionale accenter, vi kan være bedre til at omfavne udfordringen med at lære dem vores sprog.
"Hej, Google. Foretrækker du at tale med en bestemt accent?"
"Jeg er bange for, at du bliver nødt til at holde ud med den her for nu."
Hvis vi ser på deres evne til at producere sprog, smarte højttalere er utvivlsomt kommet langt. Min Google Assistent, for eksempel, taler nu tysk, Fransk, japansk, Italiensk og spansk, plus nogle sprogvarianter inden for hver kategori. Det kan svare mig med en australier, canadisk, britisk, Amerikansk, Indisk, Singaporesk eller irsk accent af engelsk (omend hovedsagelig standardvarianter på dette stadium, og ofte med fejl). I denne forstand, de er mere repræsentative og inkluderende end nogensinde før, men selvfølgelig, der er stadig en vej at gå.
Denne artikel blev oprindeligt publiceret på The Conversation. Læs den originale artikel.
Sidste artikelStater sigter mod at stoppe internetudgivelsen af 3D-printede våbenplaner
Næste artikelMetaforme - støbning af en form