Videnskab
 science >> Videnskab >  >> Elektronik

Robotforskere har pligt til at forhindre autonome våben

Robotteknologi bliver hurtigt forvandlet af fremskridt inden for kunstig intelligens. Og fordelene er udbredte:Vi ser sikrere køretøjer med mulighed for automatisk at bremse i en nødsituation, robotarme, der transformerer fabrikslinjer, der engang var offshore, og nye robotter, der kan gøre alt fra at handle dagligvarer til at levere receptpligtig medicin til folk, der har problemer med at gøre det selv.

Men vores stadigt voksende appetit på intelligente, autonome maskiner udgør en lang række etiske udfordringer.

Hurtige fremskridt har ført til etiske dilemmaer

Disse ideer og flere svirrede, da mine kolleger og jeg mødtes i begyndelsen af ​​november til en af ​​verdens største autonome robotteknologi-fokuserede forskningskonferencer – IEEE International Conference on Intelligent Robots and Systems. der, akademikere, virksomhedsforskere, og regeringsforskere præsenterede udviklinger inden for algoritmer, der tillader robotter at træffe deres egne beslutninger.

Som med al teknologi, rækken af ​​fremtidige anvendelser for vores forskning er svære at forestille sig. Det er endnu mere udfordrende at forudsige i betragtning af, hvor hurtigt dette felt ændrer sig. Tage, for eksempel, en computers evne til at identificere objekter i et billede:i 2010, det moderne var kun succesfuldt omkring halvdelen af ​​tiden, og den sad fast der i årevis. I dag, selvom, de bedste algoritmer som vist i offentliggjorte artikler er nu på 86% nøjagtighed. Alene dette fremskridt gør det muligt for autonome robotter at forstå, hvad de ser gennem kameralinserne. Det viser også det hurtige fremskridt i det seneste årti på grund af udviklingen inden for kunstig intelligens.

Denne form for forbedring er en sand milepæl fra et teknisk perspektiv. Hvorimod manuel gennemgang af videooptagelser tidligere ville kræve et utroligt antal timer, nu kan sådanne data hurtigt og nøjagtigt parses af et computerprogram.

Men det giver også anledning til et etisk dilemma. Ved at fjerne mennesker fra processen, de antagelser, der ligger til grund for beslutningerne vedrørende privatliv og sikkerhed, er blevet fundamentalt ændret. For eksempel, brugen af ​​kameraer i offentlige gader kan have rejst bekymringer om privatlivets fred for 15 eller 20 år siden, men tilføjelse af nøjagtig ansigtsgenkendelsesteknologi ændrer dramatisk disse privatlivsimplikationer.

Let at modificere systemer

Når man udvikler maskiner, der kan træffe egne beslutninger - typisk kaldet autonome systemer - er de etiske spørgsmål, der opstår, uden tvivl mere bekymrende end dem i genkendelse af objekter. AI-forbedret autonomi udvikler sig så hurtigt, at funktioner, der engang var begrænset til højtudviklede systemer, nu er tilgængelige for alle med en husholdningsværktøjskasse og en vis computererfaring.

Folk uden baggrund i datalogi kan lære nogle af de mest avancerede kunstig intelligens-værktøjer, og robotter er mere end villige til at lade dig køre dine nyerhvervede maskinlæringsteknikker på dem. Der er onlinefora fyldt med folk, der er ivrige efter at hjælpe nogen med at lære, hvordan man gør dette.

Med tidligere værktøjer, det var allerede nemt nok at programmere din minimalt modificerede drone til at identificere en rød taske og følge den. Nyere objektdetekteringsteknologi låser op for muligheden for at spore en række ting, der ligner mere end 9, 000 forskellige objekttyper. Kombineret med nyere, mere manøvredygtige droner, det er ikke svært at forestille sig, hvor let de kunne udstyres med våben. Hvad kan forhindre nogen i at spænde et sprængstof eller et andet våben til en drone udstyret med denne teknologi?

Ved at bruge en række forskellige teknikker, autonome droner er allerede en trussel. De er blevet taget i at kaste sprængstoffer på amerikanske tropper, lukke lufthavne og blive brugt i et mordforsøg på den venezuelanske leder Nicolas Maduro. De autonome systemer, der er ved at blive udviklet lige nu, kan gøre iscenesættelse af sådanne angreb lettere og mere ødelæggende.

Rapporter tyder på, at Islamisk Stat bruger hyldedroner, hvoraf nogle bliver brugt til bombninger.

Regulerings- eller revisionsnævn?

For omkring et år siden, en gruppe forskere inden for kunstig intelligens og autonom robotik fremlagde et løfte om at afstå fra at udvikle dødelige autonome våben. De definerede dødelige autonome våben som platforme, der er i stand til at "udvælge og engagere mål uden menneskelig indblanding." Som en robotforsker, der ikke er interesseret i at udvikle autonome målretningsteknikker, Jeg følte, at løftet gik glip af farens kerne. Den forsvandt vigtige etiske spørgsmål, der skal behandles, især dem i det brede skæringspunkt af droneapplikationer, der kan være enten godartede eller voldelige.

For en, forskerne, virksomheder og udviklere, der skrev papirerne og byggede softwaren og enheder, gør det generelt ikke for at skabe våben. Imidlertid, de kan utilsigtet muliggøre andre, med minimal ekspertise, at skabe sådanne våben.

Hvad kan vi gøre for at imødegå denne risiko?

Regulering er én mulighed, og en allerede brugt ved at forbyde luftdroner nær lufthavne eller omkring nationalparker. De er nyttige, men de forhindrer ikke skabelsen af ​​bevæbnede droner. Traditionelle våbenregler er ikke en tilstrækkelig skabelon, enten. De skærper generelt kontrollen med kildematerialet eller fremstillingsprocessen. Det ville være næsten umuligt med autonome systemer, hvor kildematerialerne er udbredt delt computerkode, og fremstillingsprocessen kan foregå derhjemme ved hjælp af hyldekomponenter.

En anden mulighed ville være at følge i biologernes fodspor. I 1975, de holdt en konference om de potentielle farer ved rekombinant DNA på Asilomar i Californien. der, eksperter gik med til frivillige retningslinjer, der ville styre forløbet af det fremtidige arbejde. For autonome systemer, et sådant resultat forekommer usandsynligt på nuværende tidspunkt. Mange forskningsprojekter, der kunne bruges i udviklingen af ​​våben, har også fredelige og utroligt nyttige resultater.

Et tredje valg ville være at etablere selvstyreorganer på organisationsniveau, såsom de institutionelle revisionsnævn, der i øjeblikket fører tilsyn med undersøgelser af menneskelige emner i virksomheder, universiteter og offentlige laboratorier. Disse bestyrelser overvejer fordelene for de befolkninger, der er involveret i forskningen og udformer måder at afbøde potentielle skader på. Men de kan kun regulere forskning udført inden for deres institutioner, hvilket begrænser deres omfang.

Stadig, et stort antal forskere ville falde ind under disse bestyrelsers ansvarsområde - inden for det autonome robotforskningssamfund, næsten alle oplægsholdere på tekniske konferencer er medlemmer af en institution. Forskningsevalueringsnævn ville være et første skridt mod selvregulering og kunne markere projekter, der kunne våbengøres.

At leve med faren og løftet

Mange af mine kolleger og jeg er spændte på at udvikle den næste generation af autonome systemer. Jeg føler, at potentialet for det gode er for lovende til at ignorere. Men jeg er også bekymret over de risici, som nye teknologier udgør, især hvis de bliver udnyttet af ondsindede mennesker. Men med en vis omhyggelig organisation og informerede samtaler i dag, Jeg tror på, at vi kan arbejde hen imod at opnå disse fordele og samtidig begrænse risikoen for skade.

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.




Varme artikler