Videnskab
 science >> Videnskab >  >> Elektronik

Gør memes tilgængelige for personer med synshandicap

Et team fra Carnegie Mellon skabte en platform til at oversætte memes til lyde frem for tekst som en måde at formidle følelser gennem musik og lydeffekter til mennesker med synshandicap. Kredit:Carnegie Mellon University

Mennesker med synshandicap bruger sociale medier som alle andre, ofte ved hjælp af skærmlæsersoftware. Men den teknologi kommer til kort, når den støder på memes, som ikke inkluderer alternativ tekst, eller alternativ tekst, for at beskrive, hvad der er afbildet på billedet.

For at imødegå dette, forskere ved Carnegie Mellon University har udviklet en metode til automatisk at identificere memer og anvende forudskrevne skabeloner til at tilføje beskrivende alt-tekst, gør dem forståelige via eksisterende hjælpeteknologier.

Memes er billeder, der kopieres og derefter overlejres med små variationer af tekst. De er ofte humoristiske og formidler en fælles oplevelse, men "hvis du er blind, du savner den del af samtalen, " sagde Cole Gleason, en ph.d. studerende i CMU's Human-Computer Interaction Institute (HCII.)

"Memes virker måske ikke som det vigtigste problem, men en vital del af tilgængelighed er ikke at vælge for folk, hvad der fortjener deres opmærksomhed, " sagde Jeff Bigham, lektor i HCII. "Mange mennesker bruger memes, og derfor bør de gøres tilgængelige. "

Memes lever stort set inden for sociale medieplatforme, der har barrierer for at tilføje alt-tekst. Twitter, for eksempel, giver folk mulighed for at tilføje alt-tekst til deres billeder, men den funktion er ikke altid nem at finde. Ud af ni millioner tweets, som CMU-forskerne undersøgte, en million inkluderede billeder og, af disse, kun 0,1 procent inkluderede alt-tekst.

Gleason sagde, at grundlæggende computervisionsteknikker gør det muligt at beskrive de billeder, der ligger til grund for hvert meme, om det er en berømthed, en grædende baby, en tegneseriefigur eller en scene som en bus opad i et synkehul. Optiske tegngenkendelsesteknikker bruges til at dechifrere den overlejrede tekst, som kan ændre sig med hver iteration af meme. For hver memetype, det er kun nødvendigt at lave én skabelon, der beskriver billedet, og den overlejrede tekst kan tilføjes for hver iteration af det meme.

Et team fra Carnegie Mellon skabte en platform til at oversætte memes til lyde i stedet for tekst som en måde at formidle følelser gennem musik og lydeffekter til mennesker med synshandicap. Kredit:Carnegie Mellon University

Men at skrive ud, hvad meme skal formidle, viste sig at være svært.

"Det afhængede af meme, hvis humoren blev oversat. Nogle af de visuelle er mere nuancerede, " sagde Gleason. "Og nogle gange er det eksplicit, og du kan bare beskrive det." F.eks. den komplette alt-tekst til det såkaldte "succes kid"-meme siger "Toddler clenching næve foran selvtilfreds ansigt. Overlejret tekst på toppen:Var en dårlig dreng hele året. Overlejret tekst i bunden:Stadig fik fantastiske gaver fra julemanden."

Holdet skabte også en platform til at oversætte memes til lyd i stedet for tekst. Brugere søger gennem et lydbibliotek og træk og slip elementer i en skabelon. Dette system blev lavet til at oversætte eksisterende memes og formidle følelsen gennem musik og lydeffekter.

"En af grundene til, at vi prøvede lydmemes, var fordi vi troede, at alt-tekst ville dræbe joken, men folk foretrak stadig teksten, fordi de er så vant til det, " sagde Gleason.

Det vil være en udfordring at implementere teknologien. Selvom det var integreret i et meme-generatorwebsted, at alt-tekst ikke automatisk ville blive kopieret, når billedet blev delt på sociale medier.

"Vi bliver nødt til at overbevise Twitter om at tilføje en ny funktion, " sagde Gleason. Det kunne være noget tilføjet til en personlig smartphone, men han bemærkede, at det ville lægge byrden på brugeren. CMU-forskere arbejder i øjeblikket på relaterede projekter, herunder en browserudvidelse til Twitter, der forsøger at tilføje alt-tekst til hvert billede og kunne inkludere et meme-system. Et andet projekt søger at integrere alt-tekst i metadataene for billeder, der ville blive med billedet, uanset hvor det blev postet.

Dette arbejde blev præsenteret tidligere i år på ACCESS-konferencen i Pittsburgh. Andre forskere involveret i forskningen omfatter HCII postdoc-stipendiat Amy Pavel, CMU bachelor Xingyu Liu, HCII assisterende professor Patrick Carrington og Lydia Chilton fra Columbia University.