Kredit:Pixabay/CC0 Public Domain
Lad en million aber klappe på en million skrivemaskiner i en million år, og, lyder ordsproget, vil de gengive Shakespeares værker. Giv uendelige aber uendelig tid, og de vil stadig ikke sætte pris på bardens poetiske vending, selvom de kan skrive ordene. Det samme gælder for kunstig intelligens (AI), ifølge Michael Woolridge, professor i datalogi ved University of Oxford. Problemet, sagde han, er ikke processorkraften, men snarere mangel på erfaring.
Hans perspektiv blev offentliggjort den 25. juli i Intelligent Computing .
"I løbet af de sidste 15 år har fremskridtshastigheden inden for AI generelt, og maskinlæring (ML) i særdeleshed, gentagne gange overrumplet erfarne AI-kommentatorer som mig selv:vi har hele tiden været nødt til at omkalibrere vores forventninger til, hvad der kommer til at være muligt og hvornår," sagde Wooldridge.
"For alt, hvad deres præstationer skal hyldes, tror jeg, at der er én afgørende henseende, hvori de fleste store ML-modeller er stærkt begrænset:verden og det faktum, at modellerne simpelthen ikke har nogen erfaring med det."
De fleste ML-modeller er bygget i virtuelle verdener, såsom videospil. De kan træne på massive datasæt, men til fysiske applikationer mangler de vital information. Wooldridge pegede på den kunstige intelligens, der ligger til grund for autonome køretøjer, som et eksempel.
"At lade førerløse biler slippe løs på vejene for at lære selv er en ikke-starter, så af denne og andre grunde vælger forskere at bygge deres modeller i virtuelle verdener," sagde Wooldridge. "Og på denne måde bliver vi begejstrede for en generation af AI-systemer, der simpelthen ikke har nogen evne til at fungere i det vigtigste miljø af alle:vores verden."
Sprog AI-modeller er på den anden side udviklet uden en foregivelse af en verden overhovedet - men lider stadig af de samme begrænsninger. De har så at sige udviklet sig fra latterligt forfærdelige forudsigende tekster til Googles LaMDA, som trak overskrifter tidligere i år, da en nu tidligere Google-ingeniør hævdede, at AI var sansende.
"Uanset gyldigheden af [ingeniørens] konklusioner, var det tydeligt, at han var dybt imponeret over LaMDA's evne til at konversere - og med god grund," sagde Wooldridge og bemærkede, at han ikke personligt mener, at LaMDA er sansende, og heller ikke er AI i nærheden af en sådan. en milepæl.
"Disse grundlæggende modeller demonstrerer hidtil usete evner inden for generering af naturligt sprog, der producerer udvidede stykker af naturligt klingende tekst. De ser også ud til at have erhvervet en vis kompetence i sund fornuft ræsonnement, en af AI-forskningens hellige gral gennem de sidste 60 år."
Sådanne modeller er neurale netværk, der lever af enorme datasæt og træner i at forstå dem. For eksempel trænede GPT-3, en forgænger til LaMDA, i al den engelske tekst, der er tilgængelig på internettet. Mængden af træningsdata kombineret med betydelig computerkraft gør modellerne beslægtet med menneskelige hjerner, hvor de bevæger sig forbi snævre opgaver for at begynde at genkende mønstre og skabe forbindelser, der tilsyneladende ikke er relateret til den primære opgave.
"Væddemålet med fundamentmodeller er, at deres omfattende og brede træning fører til nyttige kompetencer på tværs af en række områder, som derefter kan specialiseres til specifikke applikationer," sagde Wooldridge. "Mens symbolsk AI var baseret på antagelsen om, at intelligens primært er et vidensproblem, er grundlagsmodeller baseret på den antagelse, at intelligens primært er et problem med data. For at forenkle, men ikke meget, kaste nok træningsdata på store modeller, og forhåbentlig vil der opstå kompetence."
Denne "might is right"-tilgang skalerer modellerne større for at producere smartere AI, hævdede Wooldridge, men dette ignorerer den fysiske knowhow, der er nødvendig for virkelig at fremme AI.
"For at være retfærdig er der nogle tegn på, at dette er ved at ændre sig," sagde Wooldridge og pegede på Gato-systemet. Meddelt i maj af DeepMind, kan grundmodellen, trænet i store sprogsæt og robotdata, fungere i et enkelt, men fysisk miljø.
"Det er vidunderligt at se de første babyskridt taget ind i den fysiske verden af foundation-modeller. Men de er bare babytrin:udfordringerne, der skal overvindes med at få AI til at fungere i vores verden, er mindst lige så store - og sandsynligvis større - end dem, vi står over for. ved at få AI til at fungere i simulerede miljøer." + Udforsk yderligere