Kredit:CC0 Public Domain
OK, vi forstår det. Den nørdede følelse af kunstig intelligens som vist i dens udviklingsmæssige herlighed er med os, og vi rider villigt på bølgen.
En ædru fase er dog helt klart i kulissen. Nu hvor vi har AI, hvad laver vi med det, og klarer vi, selv vurderer, det godt?
"Som videospillere, der leder efter det næste hack, medarbejdere skal overvåge, forstå, sætte spørgsmålstegn ved og udnytte sårbarhederne i deres værktøjer og redegøre for dem, " sagde John Sumser, hovedanalytiker hos HR eksaminator .
"Digitale medarbejdere er centrale for vores fremtid, men at administrere dem er meget anderledes end at administrere mennesker eller ældre software." Citeret i Human Resource Executive :"...forstå, at vi er i begyndelsen af at bygge og bruge intelligente værktøjer, der er meget arbejde forude, og vi bliver nødt til at tænke på vores maskiner anderledes fra nu af."
AI-tilhængere for beslutninger, som bruges af regeringer og store organisationer, trods alt, påvirker vores liv.
Det store spørgsmål er, hvem og hvad træner AI til at træffe beslutninger? Er der bias bagt ind i træningsfasen? Hvis så, hvordan kan man være sikker på, at resultatet er den mest retfærdige beslutning?
Lang og kort, IBM-forskere har haft travlt med at udtænke måder at reducere skævhed i de datasæt, der bruges til at træne AI. Hvad laver de? Skal vi bare se på endnu en hvidbog? De gør mere end det.
De leverer et ratingsystem, der kan rangere den relative retfærdighed af et AI-system.
Retfærdighed er ikke kun noget, der fangede IBMs opmærksomhed. Zoe Kleinman, teknologi reporter, BBC nyheder, skrev, "Der er stigende bekymring for, at algoritmer, der bruges af både teknologigiganter og andre firmaer, ikke altid er retfærdige i deres beslutningstagning."
IBMs arsenal af teknologiske værktøjer til kunstig intelligens inkluderer nu en måde at fjerne ubevidste skævheder i beslutningstagningen. Bias kommer ikke altid klædt i neonlys og magiske mærker. Halvdelen af tiden krydsforhører vi endda vores egen evne til at dømme, føler sig utryg ved den anden halvdel af os, der har mistanke om, at beslutningen var manipuleret med partiskhed. Tag ikke fejl, selvom, vores sniffere har ofte ret.
"Et vilkårligt antal prædispositioner kan indbygges i en algoritme, skjult i et datasæt eller på en eller anden måde udtænkt under et projekts udførelse, " sagde Jack Murtha onsdag i Nyheder om Healthcare Analytics .
IBM laver denne uges AI-relaterede nyheder.
IBM har annonceret en softwaretjeneste, der kører på IBM Cloud, der kan registrere bias og forklarer, hvordan AI træffer beslutninger – efterhånden som beslutningerne bliver taget, sagde Murtha.
"Vi giver ny gennemsigtighed og kontrol til de virksomheder, der bruger kunstig intelligens og står over for den mest potentielle risiko fra enhver mangelfuld beslutningstagning, "general manager for Watson AI hos IBM, Beth Smith, anført.
"Kunder vil kunne se, via et visuelt dashboard, hvordan deres algoritmer træffer beslutninger, og hvilke faktorer der bruges til at lave de endelige anbefalinger, sagde Kleinman.
Den IBM cloud-baserede software vil være open source, og vil arbejde med nogle almindeligt anvendte rammer til opbygning af algoritmer. Så hvad vil det egentlig gøre?
Murtha uddybede det. (1) Den pinger "uretfærdige resultater" i realtid og (2) anbefaler data, der kan afbøde bias; (3) IBM tilbyder også konsulenttjenester til at skrubbe beslutningstagning via stærkere forretningsprocesser og menneske-AI-grænseflader.
IBM's nye bidrag kan tilføje endnu et lag til forståelse og adressering af bias.
Urimelighed kan afspejle sig i mangel på mangfoldighed, der går ind i mængder af data, som algoritmer trænes på.
En CNBC-rapport bemærkede, at "sammensætningen af den teknologiske industri, der skaber disse algoritmer, ikke var perfekt. "Silicon Valley har en lang historie med at blive kritiseret for sin mangel på mangfoldighed."
Kay Firth-Butterfield, leder af kunstig intelligens og maskinlæring ved World Economic Forum, blev citeret af CNBC.
"Når vi taler om bias, vi bekymrer os først og fremmest om fokus for de mennesker, der skaber algoritmerne, " sagde Firth-Butterfield. "Vi er nødt til at gøre industrien meget mere mangfoldig i Vesten."
En postgraduate-studerende ved Massachusetts Institute of Technology i 2016 havde fundet ud af, at "ansigtsgenkendelse kun opdagede hendes ansigt, hvis hun bar en hvid maske, sagde Kleinman.
Hvad er det næste? "IBM Services vil arbejde sammen med virksomheder for at hjælpe dem med at bruge den nye service. IBM Research vil frigive et værktøjssæt til open source-fællesskabet, " sagde Søger Alpha . ZDNet havde flere detaljer at dele om dette værktøjssæt. IBM vil open source "bias detection tools" fra IBM Research via et "AI Fairness 360 toolkit." Forvent at se et bibliotek af algoritmer, kode og tutorials.
ZDNet 's Larry Dignan:"Håbet er, at akademikere, forskere og dataforskere vil integrere bias-detektion i deres modeller."
De, der ønsker at dykke mere ned i sådan et værktøjssæt, kan tjekke IBMs værktøjer på Github.
© 2018 Tech Xplore
Sidste artikelAt genkende det delvist sete
Næste artikelKombination af flere CCTV-billeder kan hjælpe med at fange mistænkte