Kredit:CC0 Public Domain
Kunstig intelligens og maskinlæring (AI/ML) transformerer i stigende grad sundhedssektoren. Fra at spotte ondartede tumorer til at læse CT-scanninger og mammografi, AI/ML-baseret teknologi er hurtigere og mere præcis end traditionelle enheder – eller endda de bedste læger. Men sammen med fordelene følger nye risici og regulatoriske udfordringer.
I deres seneste artikel, "Algorithms on regulatory lockdown in medicine" for nylig offentliggjort i Videnskab , Boris Babic, INSEAD adjunkt i beslutningsvidenskab; Theodoros Evgeniou, INSEAD professor i beslutningsvidenskab og teknologiledelse; Sara Gerke, Forskningsstipendiat ved Harvard Law Schools Petrie-Flom Center for Health Law Policy, Bioteknologi, og bioetik; og I. Glenn Cohen, Professor ved Harvard Law School og fakultetsdirektør ved Petrie-Flom Center, se på de nye udfordringer, som regulatorer står over for, når de navigerer på de ukendte veje for AI/ML.
De overvejer spørgsmålene:Hvilke nye risici står vi over for, når AI/ML-enheder udvikles og implementeres? Hvordan skal de forvaltes? Hvilke faktorer skal regulatorer fokusere på for at sikre maksimal værdi med minimal risiko?
Indtil nu har tilsynsorganer som US Food and Drug Administration (FDA) godkendt medicinsk AI/ML-baseret software med "låste algoritmer, " det er, algoritmer, der giver det samme resultat hver gang og ikke ændres ved brug. Imidlertid, en vigtig styrke og potentiel fordel ved de fleste AI/ML-teknologier er afledt af dens evne til at udvikle sig, efterhånden som modellen lærer som svar på nye data. Disse "adaptive algoritmer, " gjort muligt på grund af AI/ML, skabe det, der i bund og grund er et lærende sundhedssystem, hvor grænserne mellem forskning og praksis er porøse.
I betragtning af den betydelige værdi af dette adaptive system, et grundlæggende spørgsmål for tilsynsmyndigheder i dag er, om godkendelse bør begrænses til den version af teknologi, der blev indsendt og vurderet som værende sikker og effektiv, eller om de tillader markedsføring af en algoritme, hvor der skal findes større værdi i teknologiens evne til at lære og tilpasse sig nye forhold.
Forfatterne tager et dybtgående kig på de risici, der er forbundet med dette opdateringsproblem, overvejer de specifikke områder, der kræver fokus og måder, hvorpå udfordringerne kan løses.
Nøglen til stærk regulering, de siger, er at prioritere løbende risikoovervågning.
"For at styre risiciene, tilsynsmyndigheder bør især fokusere på løbende overvågning og risikovurdering, og mindre om planlægning af fremtidige algoritmeændringer, " siger forfatterne.
Efterhånden som regulatorer bevæger sig fremad, Forfatterne anbefaler, at de udvikler nye processer til løbende at overvåge, identificere, og håndtere tilknyttede risici. De foreslår nøgleelementer, der kan hjælpe med dette, og som i fremtiden selv kan blive automatiseret ved hjælp af AI/ML - muligvis med AI/ML-systemer, der overvåger hinanden.
Mens papiret i vid udstrækning trækker på FDA's erfaring med at regulere biomedicinsk teknologi, lektionerne og eksemplerne har bred relevans, da andre lande overvejer, hvordan de former deres tilknyttede regulatoriske arkitektur. De er også vigtige og relevante for enhver virksomhed, der udvikler AI/ML indlejrede produkter og tjenester, fra bilindustrien, til forsikring, økonomi, energi, og flere og flere andre. Ledere i alle organisationer har meget at lære om håndtering af nye AI/ML-risici ud fra, hvordan regulatorer tænker om dem i dag.
"Vores mål er at understrege de risici, der kan opstå fra uventede ændringer i, hvordan medicinske AI/ML-systemer reagerer eller tilpasser sig deres omgivelser, " siger forfatterne, advarer om, at "Diskret, ofte kan ukendte parametriske opdateringer eller nye typer data forårsage store og dyre fejl."