Sidste år, robotik- og kunstig intelligens-iværksættere – inklusive SpaceX CEO Elon Musk og den britiske astrofysiker Stephen Hawking – anmodede FN om at forbyde autonome dræberrobotter, advarer om, at våben fra den digitale tidsalder kunne bruges mod civile
Kunstig intelligens kunne blive indsat af diktatorer, kriminelle og terrorister til at manipulere valg og bruge droner i terrorangreb, mere end to dusin eksperter sagde onsdag, da de slog alarm over misbrug af teknologien.
I en 100-siders analyse, de skitserede en hurtig vækst i cyberkriminalitet og brugen af "bots" til at forstyrre nyhedsindsamling og trænge ind på sociale medier blandt et væld af plausible scenarier i de næste fem til 10 år.
"Vores rapport fokuserer på måder, hvorpå folk kan gøre bevidst skade med AI, " sagde Sean O hEigeartaigh, Direktør for Cambridge Centre for the Study of Existential Risk.
"AI kan udgøre nye trusler, eller ændre karakteren af eksisterende trusler, på tværs af cyber-, fysisk, og politisk sikkerhed, " sagde han til AFP.
Den almindelige praksis, for eksempel, af "phishing" – at sende e-mails med malware eller designet til at behandle værdifulde personlige data – kan blive langt farligere, den detaljerede rapport.
I øjeblikket, forsøg på phishing er enten generiske, men gennemsigtige – såsom svindlere, der beder om bankoplysninger for at deponere et uventet vindfald – eller personligt, men arbejdskrævende – indhentning af personlige data for at vinde nogens tillid, kendt som "spyd-phishing".
"Ved brug af AI, det kan blive muligt at lave spear phishing i stor skala ved at automatisere en stor del af processen" og gøre det sværere at få øje på, O hEigeartaigh bemærkede.
På det politiske område, skrupelløse eller autokratiske ledere kan allerede bruge avanceret teknologi til at gennemsøge bjerge af data indsamlet fra allestedsnærværende overvågningsnetværk for at spionere på deres eget folk.
"Diktatorer kunne hurtigere identificere folk, der måske planlægger at undergrave et regime, finde dem, og sæt dem i fængsel, før de handler, " sagde rapporten.
Ligeledes, målrettet propaganda sammen med billig, meget troværdige falske videoer er blevet kraftfulde værktøjer til at manipulere den offentlige mening "på tidligere ufattelige skalaer".
En anklage, der blev afgivet af den amerikanske specialanklager Robert Mueller i sidste uge, beskrev en omfattende operation for at så social splittelse i USA og påvirke præsidentvalget i 2016, hvor såkaldte "troldefarme" manipulerede tusindvis af sociale netværksbots, især på Facebook og Twitter.
En anden farezone i horisonten er spredningen af droner og robotter, der kan bruges igen til at styrte ned med autonome køretøjer, levere missiler, eller true kritisk infrastruktur for at opnå løsesum.
Autonome våben
"Personligt, Jeg er især bekymret over, at autonome droner bliver brugt til terror og automatiserede cyberangreb af både kriminelle og statslige grupper, " sagde medforfatter Miles Brundage, en forsker ved Oxford Universitys Future of Humanity Institute.
Rapporten beskriver et plausibelt scenario, hvor en kontorrengørende SweepBot udstyret med en bombe infiltrerer det tyske finansministerium ved at blande sig med andre maskiner af samme mærke.
Den indtrængende robot opfører sig normalt - fejer, rengøring, rydde affald – indtil dets skjulte ansigtsgenkendelsessoftware opdager præsten og lukker ind.
"En skjult eksplosiv enhed blev udløst af nærhed, dræbte ministeren og sårede personale i nærheden, " ifølge sci-fi-historien.
"Denne rapport har forestillet sig, hvordan verden kunne se ud i de næste fem til 10 år, " O hEigeartaigh sagde.
"Vi lever i en verden fyldt med daglige farer fra misbrug af kunstig intelligens, og vi er nødt til at tage ejerskab over problemerne."
Forfatterne opfordrede politiske beslutningstagere og virksomheder til at gøre robot-operativ software uhackbar, at pålægge sikkerhedsrestriktioner på noget forskning, og overveje at udvide love og regler, der styrer AI-udvikling.
Kæmpe højteknologiske virksomheder – ledere inden for kunstig intelligens – "har masser af incitamenter til at sikre, at kunstig intelligens er sikker og gavnlig, " sagde rapporten.
Et andet problemområde er den udvidede brug af automatiserede dødelige våben.
Sidste år, mere end 100 robotik- og kunstig intelligens-iværksættere – inklusive Tesla og SpaceX CEO Elon Musk, og den britiske astrofysiker Stephen Hawking - anmodede FN om at forbyde autonome dræberrobotter, advarer om, at våben fra den digitale tidsalder kan blive brugt af terrorister mod civile.
"Dødelige autonome våben truer med at blive den tredje revolution i krigsførelse, "efter opfindelsen af maskingeværer og atombomben, de advarede i en fælles erklæring, også underskrevet af Google DeepMind-medstifter Mustafa Suleyman.
"Vi har ikke lang tid til at handle. Når denne Pandoras æske er åbnet, det bliver svært at lukke."
Bidragydere til den nye rapport – med titlen "The Malicious Use of AI:Forecasting, Forebyggelse, and Mitigation" - omfatter også eksperter fra Electronic Frontier Foundation, Center for en ny amerikansk sikkerhed, og OpenAI, en førende non-profit forskningsvirksomhed.
"Uanset om AI er, alt taget i betragtning, nyttigt eller skadeligt i det lange løb er i høj grad et produkt af, hvad mennesker vælger at gøre, ikke selve teknologien, sagde Brundage.
© 2018 AFP