"The Great Floating Point Wave" i hyldest til Hokusai's "The Great Wave Off Kanagawa" Kredit:P V Coveney, H S C Martin &Charu G
Studiet, udgivet i dag i Avanceret teori og simuleringer , viser, at digitale computere ikke pålideligt kan gengive adfærden for 'kaotiske systemer', som er udbredt. Denne grundlæggende begrænsning kan have konsekvenser for højtydende beregning (HPC) og for applikationer af maskinlæring til HPC.
Professor Peter Coveney, Direktør for UCL Center for Computational Science og studieforfatter, sagde:"Vores arbejde viser, at de kaotiske dynamiske systemers adfærd er rigere, end nogen digital computer kan fange. Kaos er mere almindeligt, end mange mennesker måske indser, og endda for meget enkle kaotiske systemer, tal, der bruges af digitale computere, kan føre til fejl, der ikke er indlysende, men som kan have stor indflydelse. Ultimativt, computere kan ikke simulere alt. "
Teamet undersøgte virkningen af at bruge floating-point-aritmetik-en metode standardiseret af IEEE og siden 1950'erne brugt til at tilnærme reelle tal på digitale computere.
Digitale computere bruger kun rationelle tal, dem, der kan udtrykkes som brøker. Desuden skal nævneren af disse brøker være en effekt på to, såsom 2, 4, 8, 16, osv. Der er uendeligt flere reelle tal, der ikke kan udtrykkes på denne måde.
I det nuværende arbejde, forskerne brugte alle fire milliarder af disse single-precision floating-point tal, der spænder fra plus til minus uendeligt. Det faktum, at tallene ikke fordeles ensartet, kan også bidrage til nogle af unøjagtighederne.
Første forfatter, Professor Bruce Boghosian (Tufts University), sagde:"De fire milliarder single-precision floating-point tal, som digitale computere bruger, er spredt ujævnt, så der er lige så mange sådanne tal mellem 0,125 og 0,25, da der er mellem 0,25 og 0,5, da der er mellem 0,5 og 1,0. Det er forbløffende, at de er i stand til at simulere virkelige kaotiske begivenheder så godt som de gør. Men alligevel, vi er nu klar over, at denne forenkling ikke præcist repræsenterer kompleksiteten af kaotiske dynamiske systemer, og dette er et problem for sådanne simuleringer på alle nuværende og fremtidige digitale computere. "
Undersøgelsen bygger på arbejdet fra Edward Lorenz fra MIT, hvis vejrsimuleringer ved hjælp af en simpel computermodel i 1960'erne viste, at små afrundingsfejl i de tal, der blev ført ind i hans computer, førte til ganske forskellige prognoser, som nu er kendt som 'sommerfugleeffekten'.
Holdet sammenlignede den kendte matematiske virkelighed i et simpelt kaotisk parameter med ét parameter kaldet det 'generaliserede Bernoulli-kort' med, hvad digitale computere ville forudsige, hvis alle de tilgængelige single-precision floating-point tal blev brugt.
De fandt ud af, at for nogle værdier af parameteren, computerforudsigelserne er helt forkerte, mens beregningerne for andre valg kan virke korrekte, men afviger med op til 15%.
Forfatterne siger, at disse patologiske resultater ville vedvare, selvom der blev brugt dobbelt-præcisions flydende tal, som der er langt flere at trække på.
"Vi bruger det generaliserede Bernoulli -kort som en matematisk fremstilling for mange andre systemer, der ændres kaotisk over tid, som dem, der ses på tværs af fysik, biologi og kemi, "forklarede professor Coveney." Disse bruges til at forudsige vigtige scenarier i klimaændringer, i kemiske reaktioner og i atomreaktorer, for eksempel, så det er bydende nødvendigt, at computerbaserede simuleringer nu bliver grundigt undersøgt. "
Teamet siger, at deres opdagelse har konsekvenser for området kunstig intelligens, når maskinindlæring anvendes på data, der stammer fra computersimuleringer af kaotiske dynamiske systemer, og for dem, der forsøger at modellere alle slags naturlige processer.
Mere forskning er nødvendig for at undersøge, i hvilket omfang brugen af floating-point-aritmetik forårsager problemer i daglig beregningsvidenskab og modellering og, hvis der findes fejl, hvordan man retter dem.
Professor Bruce Boghosian og Dr. Hongyan Wang er på Tufts University, Medford, Massachusetts, USA (Dr. Wang arbejder nu på Facebook i Seattle). Professor Peter Coveney fra UCL taler ved et arrangement i morgen i Science Museum om fremtiden for quantum computing.