Videnskab
 science >> Videnskab >  >> Elektronik

Hvorfor AI ikke kan løse alt

Kredit:artificial-intelligence-503593_1920/flickr

Hysteriet om fremtiden for kunstig intelligens (AI) er overalt. Der synes ikke at mangle sensationelle nyheder om, hvordan AI kunne helbrede sygdomme, fremskynde menneskelig innovation og forbedre menneskelig kreativitet. Bare ved at kigge på medieoverskrifterne, du tror måske, at vi allerede lever i en fremtid, hvor AI har infiltreret alle aspekter af samfundet.

Selvom det er ubestrideligt, at AI har åbnet et væld af lovende muligheder, det har også ført til fremkomsten af ​​en tankegang, der bedst kan beskrives som "AI-løsningisme". Dette er filosofien, der givet nok data, maskinlæringsalgoritmer kan løse alle menneskehedens problemer.

Men der er et stort problem med denne idé. I stedet for at understøtte AI-fremskridt, det bringer faktisk værdien af ​​maskineintelligens i fare ved at se bort fra vigtige AI -sikkerhedsprincipper og sætte urealistiske forventninger til, hvad AI virkelig kan gøre for menneskeheden.

AI -løsningsmodel

På kun få år, AI -løsningsmodeller har fundet vej fra teknologievangelisternes mund i Silicon Valley til regeringsembedsmænd og politikere rundt om i verden. Pendulet har svinget fra den dystopiske forestilling om, at AI vil ødelægge menneskeheden til den utopiske tro på, at vores algoritmiske frelser er her.

Vi ser nu, at regeringer lover støtte til nationale AI -initiativer og konkurrerer i et teknologisk og retorisk våbenkapløb om at dominere den spirende maskinlæringssektor. For eksempel, den britiske regering har lovet at investere £ 300 mio. i AI -forskning for at positionere sig som en leder på området. Forelsket i AIs transformative potentiale, den franske præsident Emmanuel Macron forpligtede sig til at gøre Frankrig til et globalt AI -knudepunkt. I mellemtiden den kinesiske regering øger sin AI-dygtighed med en national plan om at skabe en kinesisk AI-industri til en værdi af 150 milliarder USD inden 2030. AI-løsningsismen er i fremmarch, og den er kommet for at blive.

Neurale netværk – lettere sagt end gjort

Mens mange politiske manifest viser de transformerende virkninger af den truende "AI -revolution", de har en tendens til at undervurdere kompleksiteten omkring implementering af avancerede maskinlæringssystemer i den virkelige verden.

En af de mest lovende sorter af AI -teknologier er neurale netværk. Denne form for maskinlæring er løst modelleret efter den menneskelige hjernes neuronale struktur, men i meget mindre skala. Mange AI-baserede produkter bruger neurale netværk til at udlede mønstre og regler fra store mængder data. Men hvad mange politikere ikke forstår er, at blot at tilføje et neuralt netværk til et problem, vil det ikke automatisk betyde, at du finder en løsning. Tilsvarende at tilføje et neuralt netværk til et demokrati betyder ikke, at det øjeblikkeligt vil være mere inkluderende, fair eller personlig.

Udfordrer databurokratiet

AI -systemer har brug for mange data for at fungere, men den offentlige sektor har typisk ikke den passende datainfrastruktur til at understøtte avanceret maskinlæring. De fleste af dataene forbliver gemt i offline arkiver. De få digitaliserede datakilder, der findes, har en tendens til at blive begravet i bureaukratiet. Oftere end ikke, data spredes på tværs af forskellige regeringsdepartementer, der hver især kræver særlige tilladelser. Først og fremmest, den offentlige sektor mangler typisk det menneskelige talent med de rette teknologiske evner til fuldt ud at høste fordelene ved maskinintelligens.

Af disse grunde, sensationismen over AI har tiltrukket mange kritikere. Stuart Russell, professor i datalogi i Berkeley, har længe været fortaler for en mere realistisk tilgang, der fokuserer på simple hverdagsapplikationer af AI i stedet for den hypotetiske overtagelse af superintelligente robotter. Tilsvarende MIT's professor i robotteknologi, Rodney Brooks, skriver, at "næsten alle innovationer inden for robotteknologi og AI tager langt, langt, længere tid om at være virkelig bredt udsendt, end folk i felten og uden for feltet forestiller sig".

En af de mange vanskeligheder ved implementering af maskinlæringssystemer er, at AI er ekstremt modtagelig for modgangsangreb. Det betyder, at en ondsindet AI kan målrette en anden AI for at tvinge den til at lave forkerte forudsigelser eller til at opføre sig på en bestemt måde. Mange forskere har advaret mod udrulningen af ​​kunstig intelligens uden passende sikkerhedsstandarder og forsvarsmekanismer. Stadig, AI-sikkerhed forbliver et ofte overset emne.

Maskinlæring er ikke magi

Hvis vi skal høste fordelene og minimere de potentielle skader ved AI, vi må begynde at tænke på, hvordan maskinlæring meningsfuldt kan anvendes på specifikke områder af regeringen, erhvervsliv og samfund. Det betyder, at vi skal have en diskussion om AI-etik og den mistillid, som mange mennesker har til maskinlæring.

Mest vigtigt, vi skal være opmærksom på begrænsningerne ved AI, og hvor mennesker stadig skal tage føringen. I stedet for at male et urealistisk billede af AIs magt, det er vigtigt at tage et skridt tilbage og adskille AIs faktiske teknologiske muligheder fra magi.

I lang tid, Facebook mente, at problemer som spredning af misinformation og hadefuld tale kunne identificeres algoritmisk og stoppes. Men under nylig pres fra lovgivere, virksomheden lovede hurtigt at erstatte sine algoritmer med en hær på over 10, 000 menneskelige anmeldere.

Lægefaget har også erkendt, at AI ikke kan betragtes som en løsning på alle problemer. IBM Watson for Oncology -programmet var et stykke AI, der skulle hjælpe læger med at behandle kræft. Selvom det blev udviklet til at levere de bedste anbefalinger, menneskelige eksperter havde svært ved at stole på maskinen. Som resultat, AI-programmet blev opgivet på de fleste hospitaler, hvor det blev afprøvet.

Lignende problemer opstod på det juridiske område, da algoritmer blev brugt i domstole i USA til at dømme kriminelle. En algoritme beregnede risikovurderingsscore og rådgav dommerne om strafudmålingen. Systemet viste sig at forstærke strukturel racediskrimination og blev senere opgivet.

Disse eksempler viser, at der ikke er nogen AI-løsning til alt. Brug af AI simpelthen af ​​hensyn til AI er måske ikke altid produktivt eller nyttigt. Ikke alle problemer løses bedst ved at anvende maskinintelligens til det. Dette er den afgørende lektie for alle, der sigter mod at øge investeringerne i nationale AI-programmer:Alle løsninger har en omkostning, og ikke alt, der kan automatiseres, burde være det.

Denne artikel blev oprindeligt publiceret på The Conversation. Læs den originale artikel.




Varme artikler