Fremtidige høreapparatbrugere vil kunne målrette deres lytning mere præcist takket være ny dansk teknologi. En forsker fra Aalborg Universitet bruger maskinlæring til at lære et computerprogram, hvordan man fjerner uønsket støj og forbedrer tale.
En af hovedudfordringerne for mennesker med høretab er at forstå tale i støjende omgivelser. Problemet omtales som cocktailparty-effekten, fordi situationer, hvor mange mennesker taler på samme tid, ofte gør det meget svært at skelne, hvad der bliver sagt af den person, du taler med.
Selvom de fleste moderne høreapparater indeholder forskellige former for taleforbedringsteknologi, ingeniører kæmper stadig med at udvikle et system, der gør en væsentlig forbedring.
Ph.D. studerende Mathew Kavalekalam fra Audio Lab Analysis på Aalborg Universitet bruger maskinlæring til at udvikle en algoritme, der gør det muligt for en computer at skelne mellem talte ord og baggrundsstøj. Projektet er lavet i samarbejde med høreapparatforskere fra GN Advanced Science og er støttet af Danmarks Innovationsfond.
Computer lytter og lærer
"Hørecentret inde i vores hjerner udfører normalt en række vildt komplicerede beregninger, der gør os i stand til at fokusere på en enkelt stemme – også selvom der er mange andre, der taler i baggrunden, " forklarer Mathew Kavalekalam, Aalborg Universitet. "Men den evne er meget svær at genskabe i en maskine."
Mathew Kavalekalam startede med en digital model, der beskriver, hvordan tale produceres i en menneskelig krop, fra lungerne via hals og strubehoved, mund- og næsehuler, tænder, læber, etc.
Han brugte modellen til at beskrive den type signal, som en computer skal 'lytte' efter, når den forsøger at identificere en talende stemme. Han bad derefter computeren om at begynde at lytte og lære.
Støj er ikke bare støj
"Baggrundsstøj varierer afhængigt af miljøet, fra gade- eller trafikstøj, hvis du er udenfor, til støjen fra folk, der taler på en pub eller et cafeteria, " siger Mathew Kavalekalam. "Det er en af de mange grunde til, at det er så vanskeligt at bygge en model for taleforbedring, der filtrerer den tale, du ønsker at høre, fra den pludren, du ikke er interesseret i."
På Aalborg Universitet afspillede Mathew Kavalekalam forskellige optagelser af stemmer, der taler til computeren og tilføjede gradvist forskellige typer baggrundsstøj på et stigende niveau.
Ved at anvende denne maskinlæring, computersoftwaren udviklede en måde at genkende lydmønstrene på og beregne, hvordan man forstærker den særlige lyd af talende stemmer og ikke baggrundsstøjen.
Femten procent forbedring
Resultatet af Kavalekalams arbejde er et stykke software, der effektivt kan hjælpe mennesker med høretab bedre til at forstå tale. Den er i stand til at identificere og forbedre talte ord selv i meget støjende omgivelser.
Indtil videre er modellen blevet testet på ti personer, der har sammenlignet tale og baggrundsstøj med og uden brug af Kavalekalams algoritme.
Testpersonerne blev bedt om at udføre simple opgaver, der involverede farve, tal og bogstaver, der blev beskrevet for dem i støjende omgivelser.
Resultaterne indikerer, at Kavalekalam meget vel kan have udviklet en lovende løsning. Testpersoners taleopfattelse blev forbedret med femten procent i meget støjende omgivelser.
Snappy signalbehandling
Imidlertid, der er stadig noget arbejde, der skal gøres, før Mathew Kavalekalams software finder vej til nye høreapparater. Teknologien skal justeres og tunes, før den er praktisk anvendelig.
Algoritmen skal optimeres for at optage mindre processorkraft. Selvom teknologien bliver hurtigere og mere kraftfuld, der er hardwarebegrænsninger i små, moderne høreapparater.
"Når det kommer til taleforbedring, signalbehandlingen skal være rigtig hurtig. Hvis lyden er forsinket i høreapparatet, det bliver ude af sync med mundbevægelserne, og det vil ende med at gøre dig endnu mere forvirret, " forklarer Mathew Kavalekalam.