Brug af kunstig intelligens, et Penn State IST-ledet team designede et system, der kunne komprimere og gendanne filer, såsom billeder. Ofte er der et kvalitetstab, når billeder gendannes. Imidlertid, når holdets algoritme gendannede eksempelbilleder, billedkvaliteten var bedre end benchmarks, inklusive Googles eget komprimeringssystem. Kredit:Wikimedia Commons
Verden producerer omkring 2,5 kvintillion bytes data hver dag. Lagring og overførsel af alt dette enorme – og konstant voksende – antal billeder, videoer, Tweets, og andre former for data er ved at blive en betydelig udfordring, en, der truer med at underminere væksten af internettet og forpurre indførelsen af nye teknologier, såsom Internet of Things.
Nu, et team af forskere rapporterer, at en algoritme, der bruger en maskinlæringsteknik baseret på den menneskelige hjerne, kunne lette denne datatilstopning ved at reducere størrelsen af multimediefiler, såsom videoer og billeder, og gendanne dem uden at miste meget kvalitet eller information. Machine learning er en form for kunstig intelligens, eller AI.
I en undersøgelse, forskerne udviklede en algoritme, der indeholder et tilbagevendende neuralt netværk til at komprimere og gendanne data, ifølge C. Lee Giles, David Reese professor i informationsvidenskab og teknologi, Penn State, og en associeret Institut for CyberScience. I dette tilfælde, algoritmen, som de kaldte den iterative forfiningsalgoritme, som fokuserer på afkodnings- eller gendannelsestrinnet, var i stand til at producere gendannede billeder, der havde bedre kvalitet end de benchmarks, der blev valgt til undersøgelsen, inklusive et komprimeringssystem designet af Google, som forskerne anså for den bedste dengang.
Folk komprimerer data for at gemme flere billeder på deres smartphone, for eksempel, eller dele videoer på tværs af internettet eller via sociale medieplatforme såsom YouTube og Twitter.
Han sagde, at systemets succes med at komprimere filer skyldes brugen af en tilbagevendende neural netværksdekoder, snarere end et feedforward-netværk eller en konventionel (lineær) dekoder. Et tilbagevendende neuralt netværk bruger stateful hukommelse, som giver den mulighed for at gemme stykker data, mens den laver beregninger. Imidlertid, et almindeligt neuralt netværk – eller feedforward neuralt netværk – kan ikke lagre data og kan kun behandle information sekventielt. Med den ekstra hukommelseskapacitet, tilbagevendende neurale netværk kan præstere bedre til opgaver, såsom billedgenkendelse.
"Et tilbagevendende system har feedback, mens en flerlags perceptron, eller foldningsnet, eller anden lignende type neurale netværk, er normalt feedforward, med andre ord, dataene går bare igennem, det er ikke gemt som hukommelse, " sagde Giles.
David Miller, professor i elektroteknik og datalogi, der arbejdede med Giles, sagde, at "den vigtigste fordel ved gentagelse i denne billeddekodningskontekst er, at den udnytter korrelationer over lange rumlige områder af billedet end en konventionel billeddekoder."
En anden fordel ved algoritmen, sammenlignet med konkurrerende systemer, var enkelheden i algoritmens design, sagde forskerne, som rapporterede deres resultater for nylig på Data Compression Conference (DCC).
"Vi har egentlig bare det tilbagevendende neurale netværk i slutningen af processen, sammenlignet med Googles, som inkluderer tilbagevendende neurale netværk, men de er placeret på mange forskellige lag, hvilket øger kompleksiteten, " sagde Giles.
Et af problemerne med komprimering er, at når et komprimeret billede eller en komprimeret video gendannes, filen kan miste stykker information, hvilket kan gøre billedet eller videoen sløret, eller forvrænget. Forskerne testede algoritmen på flere billeder, og den var i stand til at gemme og rekonstruere billederne i højere kvalitet end Googles algoritme og andre benchmark-systemer.
Neurale netværk arrangerer deres elektroniske "neuroner" meget ligesom den måde, hjernen er sammensat af netværk af neuroner; imidlertid, Alexander G. Ororbia, en assisterende professor ved Rochester Institute of Technology, hvis forskning fokuserer på at udvikle biologisk motiverede neurale systemer, og læringsalgoritmer fører til denne forskning, sagde elektroniske hjerner er langt enklere.
"Det vigtige at huske er, at disse neurale netværk er løst baseret på hjernen, " sagde Ororbia. "De neuroner, der udgør et elektronisk neuralt netværk, er mange, meget enklere. Ægte biologiske neuroner er ekstremt komplekse. Nogle mennesker siger, at det elektroniske neurale netværk nærmest er en karikatur af hjernens neurale netværk."
Giles sagde, at ideen om at bruge tilbagevendende neurale netværk til komprimering kom fra at gense gamle neurale netværksforskning om kompressionsproblemet, .
"Vi bemærkede, at der ikke var meget om at bruge neurale netværk til komprimering - og vi spekulerede på hvorfor, " sagde Giles. "Det er altid godt at gense gammelt arbejde for at se noget, der kunne være anvendeligt i dag."
Forskerne testede deres algoritmes evne til at komprimere og gendanne et billede i sammenligning med Googles system ved hjælp af tre uafhængige målinger, der evaluerer billedkvaliteten:Peak Signal Noise Ratio, Structural Similarity Image Index og Multi-Scale Structural Similarity Image Index – der evaluerer billedkvaliteten.
"Resultaterne fra alle de uafhængige benchmarks og testsæt og for alle metrics, vise, at den foreslåede iterative forfiningsalgoritme producerede billeder med lavere forvrængning og højere perceptuel kvalitet, " sagde Ankur Mali, en ph.d.-studerende ved Penn State, who worked extensively on the technical implementation of the system.
I fremtiden, the researchers may also explore whether the system is easier to train than competing algorithms.
While all the compression neural networks require training—feeding data into the system to teach it how to perform—Giles thinks the team's design may be easier to train.
"I would guess it's much, much faster, in terms of training, too, " said Giles.