Videnskab
 science >> Videnskab >  >> Andet

Hvordan studerer du ansigtsbias uden bias?

Kredit:Pixabay/CC0 Public Domain

Når vi støder på et ukendt ansigt, er vi tilbøjelige til at foretage hurtige domme. Ser personen smart, attraktiv eller ung ud? Er de troværdige eller korrupte? Neurovidenskabsmænd og psykologer studerer, hvordan vores hjerner danner disse ansigtsforstyrrelser, og hvordan dommene i sidste ende påvirker den måde, folk opfører sig på.

"Vi har en tendens til at være ret sikre på de vurderinger, vi foretager baseret på folks ansigter, men vi tager ofte fejl," siger Ralph Adolphs (Ph.D. '93), Bren professor i psykologi, neurovidenskab og biologi og et tilknyttet fakultet medlem af Tianqiao og Chrissy Chen Institute for Neuroscience.

Tidligere undersøgelser har knyttet disse stereotyper og domme til de beslutninger, folk træffer i forskellige aspekter af samfundet, herunder valg, ansættelsespraksis og domstolsafsigelse af juryer. For eksempel viste en Caltech-undersøgelse fra Adolphs og Mike Alvarez, en professor i statskundskab, at folk vurderede politikere til at være mere korrupte, hvis de havde bredere ansigter, og at disse domme i dette tilfælde faldt sammen med, om politikerne var blevet dømt for korruption i det virkelige liv.

"Meget vigtige sociale beslutninger er påvirket af de hurtige domme, som vi foretager om mennesker ud fra deres ansigter," siger Adolphs. "Ved at påpege disse skævheder håber vi, at vi kan reducere deres indvirkning."

I en nylig undersøgelse i tidsskriftet Nature Communications , Adolphs og hans team, ledet af den tidligere Caltech-kandidatstuderende Chujun Lin, nu postdoc ved Dartmouth College, så på, hvordan ansigtsforstyrrelser kan opdeles i primære domme. På samme måde som et maleris mangefacetterede farver kan udledes af primærfarverne rød, gul og blå, blander vores hjerner primære domme sammen for at skabe en række opfattelser af alt fra hvor venlig en person er til deres niveauer af aggression.

Resultaterne viste, at undersøgelsens deltagere, som omfattede mennesker fra syv forskellige regioner rundt om i verden, automatisk lavede fire primære domme, når de stødte på et nyt ansigt (uanset om dommene var nøjagtige eller ej):de vurderede, om en person er varm eller kold , kompetent eller inkompetent, feminin eller maskulin, og ung eller gammel. Alle andre vurderinger, folk måtte foretage, kan udledes af en blanding af disse fire primære vurderinger.

"Disse fire primære vurderinger ligger til grund for de skævheder, vi har, når vi danner en bred vifte af indtryk af andre baseret på ansigter, som effektivt kunne målrettes til anti-bias interventioner," forklarer Lin.

Udfordringer til at studere bias

Adolphs bemærker, at der er grænser for denne særlige undersøgelse, og mange andre kan lide den. Her brugte forskerne eksisterende databaser, som i høj grad består af hvide ansigter med neutrale udtryk.

"De fleste af databaserne til disse typer undersøgelser blev konstrueret for år siden og endda årtier siden," siger Adolphs. "Der er typisk billeder af mennesker, der er let tilgængelige for efterforskerne, men billederne repræsenterer bestemt ikke verdens befolkning."

Til deres indledende analyse valgte Adolphs og hans team at begrænse stimuli til hvide ansigter med neutrale udtryk, fordi dette tillod dem at udelukke andre faktorer såsom kontekst og race. Holdet arbejder på et opfølgningsprojekt, der bringer flere forskellige ansigter ind, herunder ansigter fra forskellige racer, der udviser en bredere vifte af udtryk.

"At repræsentere mangfoldigheden af ​​en generel verdensbefolkning er en stor udfordring på vores felt," siger Adolphs.

En banebrydende undersøgelse fra University of British Columbia om spørgsmålet, siger Adolphs, introducerede et udtryk kendt som WEIRD for vestlige, uddannede, industrialiserede, rige og demokratiske samfund. WEIRD refererer til populationer af mennesker, der typisk studeres i psykologi og samfundsvidenskab. Som artiklen påpeger, er "denne særligt tynde og ret usædvanlige del af menneskeheden" en af ​​de "mindst repræsentative befolkninger, man kunne finde til at generalisere om mennesker."

"I mange af vores studier rekrutterer vi ikke studerende af denne grund," siger Adolphs. "De er praktiske, men de er naturligvis ikke en repræsentativ demografisk underafdeling af verdens befolkning. Ofte forsøger vi at rekruttere folk fra samfundet, som er mere forskelligartede."

Fremtiden:Bias in AI

I en anden nylig undersøgelse fra Adolphs' gruppe, ledet af Caltech postdoc Umit Keles og offentliggjort i tidsskriftet Affective Science , the researchers looked at the question of whether artificial intelligence (AI) methods can be trained to predict how individuals will react to people's faces. They found machine-based methods could make surprisingly accurate predictions, but sometimes came up with wrong answers.

"A round face might look baby faced and kind, but also corrupt, depending on the details. Because the features in faces are so closely related to one another, you can get many kinds of misjudgments from these algorithms," says Keles. "There is a worrisome potential for misuse of these AI methods."

This past summer, a Summer Undergraduate Research Fellowship (SURF) student in Adolphs' lab, Leena Mathur, worked on a project that examined how AI models might be trained to perceive human emotions across cultures. She used videos of people talking to each other from a database created by researchers at Imperial College London. The database includes people from six cultures:British, Chinese, German, Greek, Hungarian, and Serbian. The preliminary findings suggest AI models can be trained on videos of people communicating in one cultural context and subsequently adapted to detect emotions from videos of people communicating in other cultural contexts.

"There is a field-wide effort to collect more diverse data for AI research," she says. "The goal is to ultimately develop AI systems that are inclusive and can support people across race, age, gender, culture, and every other dimension of human diversity."

Mathur, a student at USC, hopes her research will eventually contribute to AI systems that support human health and societal well-being across cultures.

"There is potential for misuse of these technologies, so it is important to research how robots and AI systems can be effectively adapted across cultural contexts for assistive applications," she says.

Adolphs says his team's lab meetings always include discussions on diversity and racism (the lab has a Diversity, Equity, and Inclusion representative, postdoc Nina Rouhani).

"It's a topic we continue to be very concerned about. We talk about all of these issues and ask ourselves, "What else can we do?" We are continuing to emphasize issues of race and representativeness in our science."

Varme artikler