Videnskab
 science >> Videnskab >  >> Elektronik

Opbygning af etisk tilpasset AI

Kredit:CC0 Public Domain

Jo flere AI-agenter, der er indsat i scenarier med muligvis uventede situationer, jo mere de skal være fleksible, fleksibel, og kreative til at nå deres mål. Dermed, et vist niveau af frihed til at vælge den bedste vej til et specifikt mål er nødvendigt for at gøre AI robust og fleksibel nok til at blive implementeret med succes i virkelige scenarier.

Dette gælder især, når AI-systemer tackler vanskelige problemer, hvis løsning ikke kan defineres nøjagtigt af en traditionel regelbaseret tilgang, men kræver, at de datadrevne og/eller læringstilgange i stigende grad bruges i AI. Ja, datadrevne AI-systemer, såsom dem, der bruger maskinlæring, er meget succesrige med hensyn til nøjagtighed og fleksibilitet, og de kan være meget "kreative" til at løse et problem, finde løsninger, der positivt kunne overraske mennesker og lære dem innovative måder at løse en udfordring på.

Imidlertid, kreativitet og frihed uden grænser kan nogle gange føre til uønskede handlinger:AI-systemet kunne nå sit mål på måder, der ikke anses for acceptable i henhold til værdier og normer i det berørte samfund. Dermed, der er et stigende behov for at forstå, hvordan man begrænser handlingerne i et AI-system ved at give grænser, inden for hvilke systemet skal fungere. Dette omtales normalt som "værdijusteringsproblemet", da sådanne grænser bør modellere værdier og principper, der kræves for det specifikke AI-applikationsscenarie.

Hos IBM Research, vi har studeret og vurderet to måder at tilpasse AI-systemer til etiske principper:

  • Den første bruger den samme formalisme til at modellere og kombinere subjektive præferencer (for at opnå servicepersonalisering) og etiske prioriteter (for at opnå værditilpasning). En forestilling om afstand mellem præferencer og etiske prioriteter bruges til at afgøre, om handlinger kan bestemmes kun af præferencerne, eller om vi skal overveje yderligere etiske prioriteter, når præferencerne er for forskellige fra disse prioriteter.
  • Den anden anvender en forstærkende læringstilgang (inden for banditproblemstillingen) til belønningsmaksimering og lærer de etiske retningslinjer fra positive og negative eksempler. Vi testede denne tilgang på filmanbefalinger med forældrenes vejledning, samt valg af lægemiddeldosis med hensyn til livskvalitet.

Papiret, der beskriver vores overordnede tilgang og de to mulige måder at løse værditilpasningsproblemet på, vil blive præsenteret på den kommende AAAI 2019-konference og vil modtage AAAI 2019 Blue Sky Idea-prisen. Den kan findes her.

Dette arbejde er en del af en langsigtet indsats for at forstå, hvordan man indlejrer etiske principper i AI-systemer i samarbejde med MIT. Mens forskningen udført i og modellerer etiske prioriteter som deontologiske begrænsninger, IBM-MIT-teamet indsamler i øjeblikket menneskelige præferencedata for at modellere, hvordan mennesker følger, og skifte mellem, forskellige etiske teorier (såsom utilitaristisk, deontologisk, og kontraktuel), for derefter at konstruere både etiske teorier og omskiftningsmekanismer, passende tilpasset, ind i AI-systemer. På denne måde sådanne systemer vil være i stand til at blive bedre tilpasset den måde, folk ræsonnerer og handler efter etik, mens de træffer beslutninger, og vil dermed være bedre rustet til naturligt og kompakt at interagere med mennesker i en augmented intelligens tilgang til AI.

Denne historie er genudgivet med tilladelse fra IBM Research. Læs den originale historie her.




Varme artikler