Professor Thomas Müller. Kredit:Ulrike Sommer
Professor Thomas Müller og professor Hans Briegel har i flere år forsket i en machine learning -model, der adskiller sig væsentligt fra alternative kunstige intelligens (AI) læringsmodeller. Filosofen fra Konstanz og den teoretiske fysiker fra University of Innsbruck har integreret metoder til filosofisk handlingsteori og kvanteoptik. Deres læringsmodel "Projective Simulation" er allerede blevet anvendt med succes i grundforskning.
Sammen med Innsbruck -fysikeren Dr. Katja Ried, forskerne har nu tilpasset denne AI-model til realistisk anvendelse på biologiske systemer. Det aktuelle nummer af det videnskabelige tidsskrift PLoS One diskuterer, hvordan læringsmodellen kan bruges til at modellere og gengive græshoppers specifikke sværmende adfærd.
Efterspørgsel efter modeller, der er "tættere på biologi"
For at udføre deres tværfaglige kollaborative forskning, forskerne brugte data om græshoppeadfærd fra Center for Advanced Study of Collective Behavior i Konstanz, som forsker i kollektiv adfærd. Især biologer kræver, at modeller, der forklarer kollektiv adfærd, bliver designet til at være "tættere på biologi."
De fleste nuværende modeller blev udtænkt af fysikere, der antager, at interagerende individer påvirkes af en fysisk kraft. Som resultat, de opfatter ikke nødvendigvis individer inden for sværme som agenter, men i stedet, som punkter såsom interagerende magnetiseringsenheder på et gitter. "Modellerne fungerer godt inden for fysik og har et godt empirisk grundlag der. Men de modellerer ikke interaktionen mellem levende individer, ”siger Thomas Müller.
AI -regler gør det muligt for agenter at lære
Projective Simulation er en læringsmodel, der oprindeligt blev udviklet af Hans Briegel og er baseret på agenter, der ikke reagerer på begivenheder på en forudprogrammeret måde. I stedet, de er i stand til at lære. Disse "læringsmidler" er kodet som individer med forskellige adfærdsmæssige dispositioner, som interagerer med deres omgivelser ved at opfatte og reagere på sensoriske input. Til dette formål, de følger AI -regler, der giver dem mulighed for at bruge deres tidligere individuelle oplevelser til at justere deres handlinger.
På den ene side, denne læringsproces involverer kvantefysikbaserede tilfældige processer, hvor alle potentielle handlemuligheder overvejes. På den anden side, det handlingsteoretiske princip om forstærkende læring kommer i spil, som er baseret på at belønne visse resultater. "Vi giver en belønning, hvis agenten flytter med de andre på en velordnet måde. Med tiden en agent indser:når han opfatter visse ting, det er bedre at reagere på en måde, der vil føre til en belønning. Vi forudindstiller ikke den rigtige fremgangsmåde i en bestemt situation, men vi sikrer, at det opnås gennem interaktionen mellem agenterne, ”forklarer Thomas Müller.
Læringsmodel kan gengive kollektiv adfærd
Thomas Müller, Katja Ried og Hans Briegel har anvendt denne læringsmodel på en johannesbrøds specifikke og velundersøgte sværmende adfærd. I et begrænset rum, insektets bevægelsesadfærd svarer til sværmens størrelse. Hvis der kun er få individer, græshopperne bevæger sig på en uordnet måde. I større antal, de bevæger sig sammen som en enhed. I meget stort antal, de bevæger sig som en enhed og i samme retning. Da forskerne oprindeligt var interesserede i blot at teste deres læringsmodel, de brugte en kvalitativ beskrivelse af græshoppernes adfærd i stedet for rådata. På denne måde, de var, faktisk, i stand til kvalitativt at gengive græshoppernes adfærd.
Ser frem til, Thomas Müller mener, at fremtidig forskning på dette område vil drage fordel af store datasæt om dyr, såsom fiskeskoler med deres dynamiske adfærdsmønstre. "At modellere fisk ville nok være et godt, men også meget kompliceret næste trin i at gøre vores læringsmodel endnu mere realistisk, " slutter Müller.