Kredit:Shutterstock
Ibrahim Diallo blev angiveligt affyret af en maskine. De seneste nyhedsrapporter formidlede den eskalerende frustration, han følte, da hans sikkerhedspas holdt op med at virke, hans computersystem -login blev deaktiveret, og til sidst blev han frømarcheret fra bygningen af sikkerhedspersonale. Hans ledere var ikke i stand til at give en forklaring, og magtesløs til at tilsidesætte systemet.
Nogle tror måske, at dette var en forsmag på de kommende ting, da kunstig intelligens får mere magt over vores liv. Personligt, Jeg trak den modsatte konklusion. Diallo blev fyret, fordi en tidligere manager ikke havde fornyet sin kontrakt på det nye computersystem, og forskellige automatiserede systemer derefter klikkede i aktion. Problemerne var ikke forårsaget af AI, men ved dets fravær.
Systemerne viste ingen videnbaseret intelligens, hvilket betyder, at de ikke havde en model designet til at indkapsle viden (såsom ekspertise inden for menneskelige ressourcer) i form af regler, tekst og logiske links. Ligeligt, systemerne viste ingen beregningsmæssig intelligens – evnen til at lære af datasæt – såsom at genkende de faktorer, der kunne føre til afskedigelse. Faktisk, det ser ud til, at Diallo blev fyret som følge af et gammeldags og dårligt designet system udløst af en menneskelig fejl. AI har bestemt ikke skylden - og det kan være løsningen.
Den konklusion, jeg vil drage af denne erfaring, er, at nogle menneskelige ressourcer-funktioner er modne til automatisering af kunstig intelligens, især som, I dette tilfælde, dum automatisering har vist sig at være så ufleksibel og ineffektiv. De fleste store organisationer vil have en personalehåndbog, der kan kodes op som en automatisk, ekspertsystem med eksplicitte regler og modeller. Mange virksomheder har skabt sådanne systemer inden for en række domæner, der involverer specialistviden, ikke kun i menneskelige ressourcer.
Men et mere praktisk AI-system kunne bruge en blanding af teknikker til at gøre det smartere. Den måde, reglerne skal anvendes på nuancerne i virkelige situationer, kan læres af virksomhedens HR-registre, på samme måde almindelige retssystemer som Englands præcedenser fra tidligere sager. Systemet kunne revidere sin begrundelse, efterhånden som flere beviser blev tilgængelige i enhver given sag ved hjælp af det, der kaldes "bayesisk opdatering". Et kunstig intelligens-koncept kaldet "fuzzy logic" kunne fortolke situationer, der ikke er sort-hvide, at anvende beviser og konklusioner i forskellig grad for at undgå den form for barsk beslutningstagning, der førte til Diallos afskedigelse.
Behovet for flere tilgange bliver nogle gange overset i den nuværende bølge af overentusiasme for "deep learning"-algoritmer, komplekse kunstige neurale netværk inspireret af den menneskelige hjerne, der kan genkende mønstre i store datasæt. Da det er alt, de kan gøre, nogle eksperter argumenterer nu for en mere afbalanceret tilgang. Deep learning algoritmer er gode til mønstergenkendelse, men de viser bestemt ikke dyb forståelse.
Brug af kunstig intelligens på denne måde vil sandsynligvis reducere fejl og, da de opstod, systemet kunne udvikle og dele lektionerne med tilsvarende AI i andre virksomheder, så lignende fejl undgås i fremtiden. Det er noget, der ikke kan siges om menneskelige løsninger. En god menneskelig leder vil lære af sine fejl, men den næste manager vil sandsynligvis gentage de samme fejl.
Så hvad er ulemperne? Et af de mest slående aspekter af Diallos oplevelse er den viste mangel på menneskelighed. Der blev truffet en beslutning, om end ved en fejl, men ikke kommunikeret eller forklaret. En AI laver muligvis færre fejl, men ville det være bedre til at kommunikere sine beslutninger? Jeg tror, at svaret nok ikke er det.
At miste dit job og levebrød er et stressende og følelsesladet øjeblik for alle andre end de mest useriøse medarbejdere. Det er et øjeblik, hvor følsomhed og forståelse er påkrævet. Så, Jeg ville bestemt finde menneskelig kontakt afgørende, uanset hvor overbevisende AI-chatbotten er.
En afskediget medarbejder kan føle, at de er blevet forurettet, og ønsker måske at anfægte afgørelsen via en domstol. Den situation rejser spørgsmålet om, hvem der var ansvarlig for den oprindelige afgørelse, og hvem der vil forsvare den retligt. Nu er det helt sikkert tidspunktet for at behandle de juridiske og etiske spørgsmål, der stiger ved stigningen i AI, mens den stadig er i sin vorden.
Denne artikel blev oprindeligt publiceret på The Conversation. Læs den originale artikel.
Sidste artikelKinas firma udvikler laserpistol
Næste artikelForklarer:Hvordan computere ser ansigter og andre objekter