Videnskab
 science >> Videnskab >  >> Elektronik

Hvordan man undersøger, hvornår en robot forårsager en ulykke, og hvorfor det er vigtigt, at vi gør det

Kredit:Andrey_Popov/Shutterstock

Robotter optræder mere og mere i vores daglige liv. De kan være utrolig nyttige (bioniske lemmer, robotplæneklippere eller robotter, der leverer måltider til folk i karantæne), eller blot underholdende (robothunde, danselegetøj og akrobatiske droner). Fantasien er måske den eneste grænse for, hvad robotter vil være i stand til i fremtiden.

Hvad sker der dog, når robotter ikke gør, hvad vi vil have dem til - eller gør det på en måde, der forårsager skade? Hvad sker der for eksempel, hvis en bionisk arm er involveret i en køreulykke?

Robotulykker bliver en bekymring af to grunde. For det første vil stigningen i antallet af robotter naturligvis se en stigning i antallet af ulykker, de er involveret i. For det andet bliver vi bedre til at bygge mere komplekse robotter. Når en robot er mere kompleks, er det sværere at forstå, hvorfor noget gik galt.

De fleste robotter kører på forskellige former for kunstig intelligens (AI). AI'er er i stand til at træffe menneskelignende beslutninger (selvom de kan træffe objektivt gode eller dårlige). Disse beslutninger kan være en række ting, lige fra at identificere et objekt til at fortolke tale.

AI'er er trænet til at træffe disse beslutninger for robotten baseret på information fra enorme datasæt. AI'erne bliver derefter testet for nøjagtighed (hvor godt de gør, hvad vi vil have dem til), før de bliver sat til opgaven.

AI'er kan designes på forskellige måder. Som et eksempel kan du overveje robotstøvsugeren. Den kunne designes, så den omdirigerer i en tilfældig retning, når den støder fra en overflade. Omvendt kunne den være designet til at kortlægge sine omgivelser for at finde forhindringer, dække alle overfladeområder og vende tilbage til sin opladningsbase. Mens det første vakuum tager input fra sine sensorer, sporer det andet det input ind i et internt kortlægningssystem. I begge tilfælde tager AI information ind og træffer en beslutning omkring det.

Jo mere komplekse ting en robot er i stand til, jo flere typer information skal den fortolke. Det kan også være at vurdere flere kilder til én type data, såsom, i tilfælde af lyddata, en levende stemme, en radio og vinden.

Efterhånden som robotter bliver mere komplekse og er i stand til at handle på en række forskellige informationer, bliver det endnu vigtigere at afgøre, hvilken information robotten handlede på, især når der er forårsaget skade.

Ulykker sker

Som med ethvert produkt kan og går ting galt med robotter. Nogle gange er dette et internt problem, såsom at robotten ikke genkender en stemmekommando. Nogle gange er det eksternt - robottens sensor var beskadiget. Og nogle gange kan det være begge dele, såsom at robotten ikke er designet til at arbejde på tæpper og "tripper". Robotulykkesundersøgelser skal se på alle potentielle årsager.

Selvom det kan være ubelejligt, hvis robotten bliver beskadiget, når noget går galt, er vi langt mere bekymrede, når robotten forårsager skade på eller ikke formår at afbøde skade på en person. For eksempel, hvis en bionisk arm ikke griber en varm drik, banker den på ejeren; eller hvis en plejerobot undlader at registrere et nødkald, når den svage bruger er faldet.

Hvorfor er undersøgelse af robotulykker anderledes end ved menneskelige ulykker? Navnlig robotter har ikke motiver. Vi vil gerne vide, hvorfor en robot tog den beslutning, den gjorde, baseret på det særlige sæt af input, den havde.

I eksemplet med den bioniske arm, var det en fejlkommunikation mellem brugeren og hånden? Forvirrede robotten flere signaler? Lås uventet? I eksemplet med den person, der falder om, kunne robotten så ikke "høre" kaldet om hjælp over en høj blæser? Eller havde den problemer med at fortolke brugerens tale?

Den sorte boks

Undersøgelse af robotulykker har en vigtig fordel i forhold til undersøgelse af menneskelige ulykker:Der er potentiale for et indbygget vidne. Kommercielle fly har et lignende vidne:den sorte boks, bygget til at modstå flystyrt og give oplysninger om, hvorfor styrtet skete. Denne information er utrolig værdifuld, ikke kun for at forstå hændelser, men for at forhindre dem i at ske igen.

Som en del af RoboTIPS, et projekt, der fokuserer på ansvarlig innovation for sociale robotter (robotter, der interagerer med mennesker), har vi skabt det, vi kalder den etiske sorte boks:en intern registrering af robottens input og tilsvarende handlinger. Den etiske sorte boks er designet til hver type robot, den bebor og er bygget til at registrere al information, som robotten handler på. Dette kan være tale-, visuel- eller endda hjernebølgeaktivitet.

Vi tester den etiske sorte boks på en række robotter i både laboratorie- og simulerede ulykkesforhold. Målet er, at den etiske sorte boks bliver standard i robotter af alle mærker og applikationer.

Mens data registreret af den etiske sorte boks stadig skal fortolkes i tilfælde af en ulykke, er det afgørende at have disse data i første omgang for at give os mulighed for at efterforske.

Undersøgelsesprocessen giver mulighed for at sikre, at de samme fejl ikke sker to gange. Den etiske sorte boks er ikke kun en måde at bygge bedre robotter på, men at innovere ansvarligt i et spændende og dynamisk felt.

Varme artikler