Et Duke-hold trænede en computer til at identificere op til 200 fuglearter fra blot et billede. Givet et billede af en mystisk fugl (øverst), A.I. spytter varmekort ud, der viser, hvilke dele af billedet, der minder mest om typiske artstræk, det har set før. Kredit:Duke University
Det kan tage mange års erfaring med fuglekiggeri at skelne en art fra den næste. Men ved at bruge en kunstig intelligens-teknik kaldet deep learning, Forskere fra Duke University har trænet en computer til at identificere op til 200 fuglearter fra blot et billede.
Den virkelige innovation, imidlertid, er, at A.I. værktøj viser også sin tankegang, på en måde, som selv en, der ikke kender en pingvin fra en lunde, kan forstå.
Holdet trænede deres dybe neurale netværk - algoritmer baseret på den måde, hjernen fungerer på - ved at fodre den 11, 788 billeder af 200 fuglearter at lære af, lige fra svømmeænder til svævende kolibrier.
Forskerne fortalte aldrig netværket "det her er et næb" eller "det er vingefjer." Givet et billede af en mystisk fugl, netværket er i stand til at udvælge vigtige mønstre i billedet og risikere et gæt ved at sammenligne disse mønstre med typiske artstræk, det har set før.
Undervejs spytter den en række varmekort ud, der i det væsentlige siger:"Dette er ikke en hvilken som helst sangfugl. Det er en hættesanger, og her er træk - som dets maskerede hoved og gule mave - der giver det væk."
Duke datalogi Ph.D. studerende Chaofan Chen og undergraduate Oscar Li ledede forskningen, sammen med andre teammedlemmer af Prediction Analysis Lab ledet af Duke professor Cynthia Rudin.
De fandt ud af, at deres neurale netværk er i stand til at identificere den korrekte art op til 84 % af tiden - på niveau med nogle af dets bedst præsterende modparter, som ikke afslører, hvordan de er i stand til at fortælle, sige, den ene spurv fra den næste.
Rudin siger, at deres projekt handler om mere end at navngive fugle. Det handler om at visualisere, hvad dybe neurale netværk virkelig ser, når de ser på et billede.
Lignende teknologi bruges til at tagge folk på sociale netværkssider, spotte mistænkte kriminelle i overvågningskameraer, og træne selvkørende biler til at opdage ting som lyskryds og fodgængere.
Problemet, Rudin siger:er, at de fleste deep learning tilgange til computersyn er notorisk uigennemsigtige. I modsætning til traditionel software, deep learning-software lærer af dataene uden at være eksplicit programmeret. Som resultat, præcis, hvordan disse algoritmer 'tænker', når de klassificerer et billede, er ikke altid klart.
Rudin og hendes kolleger forsøger at vise, at A.I. behøver ikke at være sådan. Hun og hendes laboratorium designer deep learning-modeller, der forklarer ræsonnementet bag deres forudsigelser, gør det klart, præcis hvorfor og hvordan de kom med deres svar. Når en sådan model laver en fejl, dens indbyggede gennemsigtighed gør det muligt at se hvorfor.
Til deres næste projekt, Rudin og hendes team bruger deres algoritme til at klassificere mistænkelige områder i medicinske billeder som mammografi. Hvis det virker, deres system hjælper ikke kun læger med at opdage klumper, forkalkninger og andre symptomer, der kan være tegn på brystkræft. Det vil også vise, hvilke dele af mammogrammet, det går ind på, afsløre, hvilke specifikke træk der ligner mest de kræftlæsioner, den har set før hos andre patienter.
På den måde, Rudin siger:deres netværk er designet til at efterligne den måde, læger stiller en diagnose på. "Det er case-baseret ræsonnement, " sagde Rudin. "Vi håber, at vi bedre kan forklare læger eller patienter, hvorfor deres billede blev klassificeret af netværket som enten ondartet eller godartet."
Holdet præsenterer et papir om deres resultater på den treogtredive konference om neurale informationsbehandlingssystemer (NeurIPS 2019) i Vancouver den 12. december.