Kredit:Pixabay/CC0 Public Domain
Offentligheden behøver ikke at vide, hvordan kunstig intelligens fungerer for at stole på den. De skal bare vide, at en person med de nødvendige færdigheder undersøger AI og har autoritet til at idømme sanktioner, hvis det forårsager eller sandsynligvis vil forårsage skade.
Dr. Bran Knowles, en lektor i datavidenskab ved Lancaster University, siger:"Jeg er sikker på, at offentligheden ikke er i stand til at bestemme troværdigheden af individuelle AI'er... men vi har ikke brug for dem til at gøre dette. Det er ikke deres ansvar at holde AI ærlig."
I dag (8. marts) præsenterer Dr. Knowles et forskningspapir "The Sanction of Authority:Promoting Public Trust in AI" på ACM Conference on Fairness, Ansvarlighed og gennemsigtighed (ACM FAccT).
Artiklen er medforfatter af John T. Richards, af IBM's T.J. Watson Research Center, Yorktown Heights, New York.
Den brede offentlighed er, papirnoterne, ofte mistroisk over for AI, som stammer både fra måden AI er blevet skildret gennem årene og fra en voksende bevidsthed om, at der er lidt meningsfuldt tilsyn med det.
Forfatterne hævder, at større gennemsigtighed og mere tilgængelige forklaringer på, hvordan AI-systemer fungerer, opfattes som et middel til at øge tilliden, ikke adressere offentlighedens bekymringer.
Et 'regulativt økosystem, " de siger, er den eneste måde, hvorpå AI vil være meningsfuldt ansvarlig over for offentligheden, fortjener deres tillid.
"Offentligheden bekymrer sig ikke rutinemæssigt om madens troværdighed, luftfart, og lægemidler, fordi de stoler på, at der er et system, der regulerer disse ting og straffer enhver overtrædelse af sikkerhedsprotokoller, " siger Dr. Richards.
Og, tilføjer Dr. Knowles:"I stedet for at bede offentligheden om at få færdigheder til at træffe informerede beslutninger om, hvilke AI'er der er deres tillid værd, offentligheden har brug for de samme garantier for, at enhver kunstig intelligens, de måtte støde på, ikke vil forvolde dem skade."
Hun understreger den kritiske rolle, AI-dokumentation spiller for at muliggøre dette troværdige regulatoriske økosystem. Som et eksempel, papiret diskuterer IBM's arbejde med AI-faktaark, dokumentation designet til at fange nøglefakta vedrørende en AI's udvikling og test.
Men, mens sådan dokumentation kan give oplysninger, der er nødvendige af interne revisorer og eksterne regulatorer for at vurdere overholdelse af nye rammer for pålidelig AI, Dr. Knowles advarer mod at stole på det for direkte at fremme offentlig tillid.
"Hvis vi ikke erkender, at byrden for at overvåge AI's troværdighed skal ligge hos højtuddannede regulatorer, så er der en god chance for, at fremtiden for AI-dokumentation er endnu en vilkår og betingelser-lignende samtykkemekanisme – noget ingen rigtig læser eller forstår, " hun siger.
Papiret opfordrer til, at AI-dokumentation skal forstås korrekt som et middel til at give specialister mulighed for at vurdere troværdigheden.
"AI har materielle konsekvenser i vores verden, som påvirker virkelige mennesker; og vi har brug for ægte ansvarlighed for at sikre, at den AI, der gennemsyrer vores verden, hjælper med at gøre den verden bedre, " siger Dr. Knowles.