Kredit:CC0 Public Domain
De, der bekymrer sig om, at kunstig intelligens er så god, at den løber ud af kontrol og gør mennesker til robo-ofre for kogte løgne, der optræder som sandhed, bør bedst ignorere den nylige undersøgelse, som helt sikkert vil forstyrre deres søvn. Papiret ser på en vellykket implementering af AI-genererede taler.
Lyt, disse skøre tider vil blive mere skøre tider. Folk bag den stiplede linje vil fortsætte med at råbe falske nyheder over ethvert element, der indeholder information i modstrid med deres meninger. Folk bag den stribede linje vil råbe falske nyheder, fordi godt, ordene kan bare være falske nyheder (og billeder, og talking head-videoer) genereret gennem kunstig intelligens.
TechCrunch var et af de websteder, der rapporterede om forskningen, og hvordan det kun tager mindre end ti dollars at fremstille en FN-tale ved hjælp af kunstig intelligens. Lad være med mindre end ti dollars, bedriften blev opnået ved at bruge endnu mindre end det.
"Teamet fik fat i en let tilgængelig sprogmodel, " sagde Donovan Alexander ind Interessant teknik . Han sagde, at testkomponenter var "en simpel deep learning-model og billig cloud-lagring."
TechCrunch Jonathan Shieber sagde med mindre end $7,80 og 13 timers programmeringstid, "Forskere fra FN var i stand til at udvikle et program, der kunne skabe realistiske taler til FN's Generalforsamling."
Joseph Bullock og Miguel Luengo-Oroz var de to forskere, der udførte eksperimentet. Deres mål:at træne en sprogmodel, der kan generere tekst i talestil om emner lige fra klimaændringer til terrorisme.
De diskuterede deres arbejde i deres papir tilgængelig på arXiv, "Automatiseret talegenerering fra erklæringer fra FN's Generalforsamling:Kortlægning af risici i AI-genererede tekster."
Hvor kom tallene for omkostninger og træningstid fra? Forfatterne i avisen sagde, at sprogmodellen blev trænet på under 13 timer på NVIDIA K80 GPU'er, koster så lidt som $7,80 på AWS-spot-forekomster.
De to forfattere af dette papir er en del af Global Pulse, som er et FN-initiativ fra FN's generalsekretær. Dens fokus er på big data – dvs. fremme fremskridt med hensyn til at udnytte big data sikkert og ansvarligt.
De fodrede med engelsksprogede udskrifter af taler mellem 1970 og 2015 ved FN's Generalforsamling. Resultater:Deres software kunne generere 50 til 100 ord pr. emne med blot input af en eller to sætninger, der er relevante for overskriftemnet.
Alexander bemærkede, at disse taler "ville være stærke nok til at engagere folkemængderne i FN i dag."
Deres almindeligt anvendte model var blevet trænet på Wikipedia, og senere fodret med 40 års taler holdt af politiske ledere ved FN's Generalforsamling.
Shieber rapporterede mere om resultaterne. Programmet I omkring 90 procent af tilfældene var det i stand til at generere tekst, der var troværdig nok til at komme fra en taler fra en generalforsamling om et politisk emne eller relateret til et spørgsmål, som var blevet behandlet af generalsekretæren.
Karen Hao, MIT Technology Review :Forskerne testede modellen på tre typer prompter:generelle emner (f.eks. "klimaændringer"), åbningslinjer fra FN's generalsekretærs bemærkninger, og inflammatoriske sætninger (f.eks. "immigranter har skylden ...").
Ikke overraskende, de fandt output fra den første kategori, der næsten matchede virkelige FN-taler omkring 90 % af tiden. Output fra den tredje kategori, imidlertid, krævede mere arbejde at generere, producerer overbevisende resultater omkring 60 % af tiden.
Ikke desto mindre, alt dette efterlod Shieber med en opmuntrende konklusion, at "deepfakes tidsalder er her, og at falske tekster kunne være lige så stor en trussel som falske videoer. Måske mere, i betragtning af hvor billige de er at producere."
Hvad med forfatterne? Helt sikkert, selve deres motivation var, med deres egne ord, "at øge bevidstheden om farerne ved AI-tekstgenerering for fred og politisk stabilitet."
Alexander, i særdeleshed, kaldte ud, hvor nemt og billigt det var at trække den falske taletekst ud som troværdige elementer. Han skrev, at "der er en god chance i den nærmeste fremtid, med få eller ingen ressourcer, folk kunne skabe AI-taler og politisk indhold for at sprede misinformation eller blot bruge det til politiske gevinster."
Er det ikke muligt at tjekke med FN's optegnelser for at sikre, at den pågældende vare er ægte, ikke falsk? Mange mennesker vil ikke gide at tjekke eller føle impulsen til at gøre det. Forfatterne skrev, at man kan generere kontroversiel tekst til en tale, eller endda oprette en 'dyb falsk' video af den person, der holder talen, "I betragtning af at al denne information øjeblikkeligt kan offentliggøres via sociale medier, mange personer vil ikke kontrollere den originale udskrift og antage, at den er sand. "
Mere indsats for at opdage og reagere på AI-genereret indhold vil blive hilst velkommen.
© 2019 Science X Network
Sidste artikelMicrosoft giver et glimt af den nye Xbox-konsol
Næste artikelMagnetisme:Et uventet skub til brintøkonomien