Videnskab
 science >> Videnskab >  >> Elektronik

Kunstig intelligens har et kønsproblem – bare spørg Siri

Sexistiske stereotyper udspiller sig i kunstig intelligenss verden. Kredit:yavi/Shutterstock

Foreslå Samsungs virtuelle personlige assistent Bixby "Let's talk dirty", og kvindestemmen vil svare med en honningfarvet accent:"Jeg vil ikke ende på julemandens frække liste."

Stil det samme spørgsmål til programmets mandestemme, og det svarer "Jeg har læst, at jorderosion er et rigtigt snavsproblem."

I Sydafrika, hvor jeg bor og udfører min forskning i kønsbias i kunstig intelligens, Samsung tilbyder nu Bixby i forskellige stemmer alt efter hvilket sprog du vælger. For amerikansk engelsk, der er Julia, Stephanie, Lisa og John. Julias stemmer, Lisa og Stephanie er kokette og ivrige. John er klog og ligetil.

Virtuelle personlige assistenter - såsom Bixby, Alexa (Amazon), Siri (Apple) og Cortana (Microsoft) – er på forkant med salgbar kunstig intelligens (AI). AI refererer til at bruge teknologiske systemer til at udføre opgaver, som folk normalt ville.

De fungerer som en applikation på en smartenhed, at reagere på stemmekommandoer gennem naturlig sprogbehandling. Deres udbredelse overalt i verden er hastigt stigende. En nylig rapport fra UNESCO vurderede, at vi allerede næste år vil have flere samtaler med vores virtuelle personlige assistenter end med vores ægtefæller.

Endnu, som jeg har udforsket i min egen forskning med Dr. Nora Ni Loideain fra Information Law and Policy Centre ved University of London, disse teknologier røber kritiske kønsmæssige skævheder.

Med deres kvindenavne, stemmer og programmeret flirt, designet af virtuelle personlige assistenter gengiver diskriminerende stereotyper af kvindelige sekretærer, som i henhold til kønsstereotypen, er ofte mere end blot en sekretær for sin mandlige chef.

Det styrker også kvinders rolle som sekundær og underdanig over for mænd. Disse AI-assistenter opererer på kommando fra deres bruger. De har ingen ret til at afvise disse kommandoer. De er kun programmeret til at adlyde. Formodentlig, de rejser også forventninger til, hvordan rigtige kvinder burde opføre sig.

Formålet med disse assistenter er også at frigøre deres bruger fra slemt arbejde, såsom at lave aftaler og købe varer online. Dette er problematisk på mindst to fronter:det antyder, at brugeren har mere tid til angiveligt vigtigere arbejde. For det andet den udtaler sig kritisk om værdien af ​​den slags sekretærarbejde, der udføres, først af rigtige kvinder og nu af digitaliserede kvinder, i den digitale fremtid.

"Hvad har du på?"

En af de mere åbenlyse måder, hvorpå disse skævheder er tydelige, er brugen af ​​kvindenavne:Siri og Cortana, for eksempel. Siri er et nordisk navn, der betyder "den smukke kvinde, der fører dig til sejr".

Cortana tager sit navn (såvel som billeder og stemme) fra spilserien Halo. I Halo, Cortana blev skabt ud fra en klon af hjernen fra en succesfuld kvindelig videnskabsmand gift med en gennemsigtig og meget seksualiseret kvindekrop. Hun fungerer som en fiktiv medhjælper for gamere med sin beskedne intelligens og fascinerende form.

Ud over deres kvindestemmer, alle de virtuelle personlige assistenter på markedet i dag kommer med en standard kvindestemme, hvilken, ligesom Bixby, er programmeret til at svare på alle slags suggestive spørgsmål og kommentarer. Disse spørgsmål omfatter:"Hvad har du på?" Siris svar er "Hvorfor skulle jeg have noget på?"

Alexa, i mellemtiden, spytter:"De laver ikke tøj til mig"; og Cortana svarer, "Bare en lille ting, jeg tog op i ingeniørfaget."

Bias og diskrimination i AI

Det bliver i stigende grad anerkendt, at AI-systemer ofte er forudindtaget, især efter race og køn. For eksempel, Amazons seneste udvikling af en rekrutteringsalgoritme til at sortere CV'er til jobansøgninger viste kønsbias ved at nedgradere CV'er, der indeholdt ordet "kvinder", eller som indeholdt henvisninger til kvindeskoler. Da algoritmen blev trænet på historiske data og den foretrukne rekruttering af mænd, det kunne i sidste ende ikke rettes og måtte droppes.

Som forskning har vist, der er en kritisk sammenhæng mellem udviklingen af ​​AI-systemer, der viser kønsbias og manglen på kvinder i teams, der designer dem.

Men der er noget mindre anerkendelse af de måder, hvorpå AI-produkter inkorporerer stereotype gengivelser af køn i deres selve design. For AI nu, en førende forskningsinstitution, der ser på den sociale virkning af AI, der er en klar sammenhæng mellem den mandsdominerede AI-industri og de diskriminerende systemer og produkter, den producerer.

Forskernes rolle er at synliggøre disse sammenhænge og vise de kritiske forbindelser mellem kvinders repræsentationer, hvad enten det drejer sig om kulturelle eller teknologiske produkter, og behandlingen af ​​kvinder i den virkelige verden.

AI er den førende teknologi i den såkaldte fjerde industrielle revolution. Det refererer til de teknologiske fremskridt - fra bioteknologi, til AI og big data – der hurtigt omformer verden, som vi kender den. Mens Sydafrika fortsætter med at engagere sig i løfterne og faldgruberne i, hvad dette rummer, det bliver stadig vigtigere at overveje og behandle, hvordan de teknologier, der driver disse ændringer, kan påvirke kvinder.

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.




Varme artikler