Kredit:CC0 Public Domain
Et lille hold af medicinske forskere fra Harvard University og MIT har udgivet et politisk forum i tidsskriftet Videnskab tyder på, at fremtidige medicinske AI-systemer kan være sårbare over for modstridende angreb. De påpeger, at tidligere forskning har vist, at stort set alle AI -systemer på en eller anden måde er sårbare over for sådanne angreb.
Et modstridende angreb inden for maskinlæring er et forsøg på gennem ondsindet input at narre den model, som et sådant system er bygget på. I praksis, dette betyder at fodre et AI-system med en slags information, der tvinger det til at returnere forkerte resultater. Forskerne foreslår, at et sådant angreb kan være rettet mod detektionssystemer som dem, der er programmeret til at finde kræft ved at analysere scanninger. De viste endda, hvordan et modstridende angreb ville fungere ved at fodre et system med et bestemt støjmønster, der udløste forvirring, resulterer i forkerte resultater.
Men det er ikke den slags modstridende angreb, forskerne virkelig er bekymrede over. Det, der bekymrer dem mest, er de AI -systemer, der er udviklet og allerede er i brug, der er involveret i behandling af skader og fakturering - muligheden for at hospitaler eller endda læger kunne bruge sådanne systemer til at ændre oplysninger om formularer for at få mere betalt af forsikringsselskaber eller Medicaid til at udføre tests, for eksempel, ved at ændre en kode for at få et simpelt røntgenbillede til at ligne en MR-test. At fodre et AI-system med den rigtige information på det rigtige tidspunkt kunne få det til at gøre netop det. Der er også mulighed for, at et hospital kan lære sit AI-system at finde de bedste måder at snyde forsikringsselskaber eller regeringen på, gør det næsten umuligt at opdage.
Forskerne foreslår, at der er behov for en ny tilgang til politikudformning - en, hvor folk fra en bred vifte af felter, herunder lov, datalogi og medicin, løse problemet, før det bliver udbredt. Sådanne grupper kunne måske, finde måder at forhindre det i at ske, eller i det mindste opdage det, hvis det gør.
© 2019 Science X Network