Ved du, hvad der sker, når du deler dine data? Kredit:mtkang/shutterstock.com
Hvert aspekt af livet kan styres af kunstige intelligensalgoritmer - fra at vælge hvilken rute du skal tage til din morgenpendling, at beslutte, hvem der skal tage på en date, til komplekse juridiske og retlige spørgsmål som forudsigelig politi.
Store teknologivirksomheder som Google og Facebook bruger AI til at få indsigt i deres gigantiske skare af detaljerede kundedata. Dette giver dem mulighed for at tjene penge på brugernes kollektive præferencer gennem metoder såsom mikromålretning, en strategi, der bruges af annoncører til snævert at målrette mod bestemte sæt brugere.
Parallelt, mange mennesker stoler nu mere på platforme og algoritmer end deres egne regeringer og civilsamfund. En undersøgelse fra oktober 2018 foreslog, at folk demonstrerede "algoritmeværdi, "i det omfang de ville stole mere på råd, når de tror, det er fra en algoritme end fra et menneske.
I fortiden, teknologieksperter har bekymret sig for en "digital kløft" mellem dem, der kunne få adgang til computere og internettet, og dem, der ikke kunne. Husstande med mindre adgang til digitale teknologier har en ulempe i deres evne til at tjene penge og akkumulere færdigheder.
Men, efterhånden som digitale enheder formerer sig, skillet handler ikke længere kun om adgang. Hvordan håndterer mennesker informationsoverbelastning og overflod af algoritmiske beslutninger, der gennemsyrer alle aspekter af deres liv?
De klogere brugere navigerer væk fra enheder og bliver bevidste om, hvordan algoritmer påvirker deres liv. I mellemtiden, forbrugere, der har færre oplysninger, stoler endnu mere på algoritmer til at styre deres beslutninger.
Den hemmelige sauce bag kunstig intelligens
Hovedårsagen til den nye digitale kløft, efter min mening som en, der studerer informationssystemer, er, at så få mennesker forstår, hvordan algoritmer fungerer. For et flertal af brugerne, algoritmer ses som en sort boks.
AI -algoritmer optager data, tilpasse dem til en matematisk model og læg en forudsigelse, lige fra hvilke sange du måske nyder, til hvor mange år nogen skal tilbringe i fængsel. Disse modeller er udviklet og justeret baseret på tidligere data og succesen med tidligere modeller. De fleste mennesker - selv nogle gange algoritmedesignerne selv - ved ikke rigtigt, hvad der er inde i modellen.
Forskere har længe været bekymrede for algoritmisk retfærdighed. For eksempel, Amazons AI-baserede rekrutteringsværktøj viste sig at afvise kvindelige kandidater. Amazons system udvinder selektivt implicit kønsord - ord, som mænd er mere tilbøjelige til at bruge i daglig tale, såsom "henrettet" og "fanget".
Andre undersøgelser har vist, at retsalgoritmer er racistisk forudindtagede, dømme fattige sorte tiltalte længere end andre.
Som en del af den nyligt godkendte generelle databeskyttelsesforordning i EU, mennesker har "en ret til forklaring" af de kriterier, som algoritmer bruger i deres beslutninger. Denne lovgivning behandler processen med algoritmisk beslutningstagning som en opskriftsbog. Tanken går på, at hvis du forstår opskriften, du kan forstå, hvordan algoritmen påvirker dit liv.
I mellemtiden, nogle AI -forskere har skubbet til algoritmer, der er fair, ansvarlig og gennemsigtig, samt fortolkelig, hvilket betyder, at de skal nå frem til deres beslutninger gennem processer, som mennesker kan forstå og stole på.
Skal du forblive tilsluttet - eller tage stikket ud? Kredit:pryzmat/shutterstock.com
Hvilken effekt vil gennemsigtighed have? I en undersøgelse, eleverne blev bedømt med en algoritme og tilbød forskellige forklaringsniveauer om, hvordan deres jævnaldrende score blev justeret til at komme til en endelig karakter. Eleverne med mere gennemsigtige forklaringer stolede faktisk mindre på algoritmen. Det her, igen, tyder på en digital kløft:Algoritmisk bevidsthed fører ikke til mere tillid til systemet.
Men gennemsigtighed er ikke et universalmiddel. Selv når en algoritmes samlede proces skitseres, detaljerne kan stadig være for komplekse til, at brugerne kan forstå. Gennemsigtighed hjælper kun brugere, der er sofistikerede nok til at forstå algoritmernes finurligheder.
For eksempel, i 2014, Ben Bernanke, den tidligere formand for Federal Reserve, blev oprindeligt nægtet en refinansiering af realkreditlån af et automatiseret system. De fleste personer, der ansøger om en sådan refinansiering af realkreditlån, ville ikke forstå, hvordan algoritmer kan bestemme deres kreditværdighed.
Fravalg af det nye informationsøkosystem
Selvom algoritmer påvirker så meget af menneskers liv, kun en lille brøkdel af deltagerne er sofistikerede nok til fuldt ud at engagere sig i, hvordan algoritmer påvirker deres liv.
Der er ikke mange statistikker om antallet af mennesker, der er algoritmebevidste. Undersøgelser har fundet tegn på algoritmisk angst, hvilket fører til en dyb magtbalance mellem platforme, der implementerer algoritmer, og de brugere, der er afhængige af dem.
En undersøgelse af Facebook -brug viste, at da deltagerne blev gjort opmærksom på Facebooks algoritme til kuratering af nyhedsfeeds, omkring 83% af deltagerne ændrede deres adfærd for at prøve at drage fordel af algoritmen, mens omkring 10% reducerede deres brug af Facebook.
En rapport fra Pew Research Center fra november 2018 viste, at et stort flertal af offentligheden havde betydelige bekymringer om brugen af algoritmer til særlige anvendelser. Den fandt ud af, at 66% mente, at det ikke ville være rimeligt for algoritmer at beregne personlige økonomiscore, mens 57% sagde det samme om automatiseret CV -screening.
En lille brøkdel af individer udøver en vis kontrol over, hvordan algoritmer bruger deres personlige data. For eksempel, Hu-Manity-platformen giver brugerne mulighed for at kontrollere, hvor meget af deres data der indsamles. Online encyklopædi Everipedia giver brugerne mulighed for at være en interessent i kurationsprocessen, hvilket betyder, at brugerne også kan kontrollere, hvordan oplysninger aggregeres og præsenteres for dem.
Imidlertid, et langt flertal af platforme giver hverken en sådan fleksibilitet til deres slutbrugere eller retten til at vælge, hvordan algoritmen bruger deres præferencer til at kurere deres nyhedsfeed eller ved at anbefale dem indhold. Hvis der er muligheder, brugere kender muligvis ikke til dem. Omkring 74% af Facebooks brugere sagde i en undersøgelse, at de ikke var klar over, hvordan platformen karakteriserer deres personlige interesser.
Efter min mening, den nye digitale læsefærdighed ikke bruger en computer eller er på internettet, men forstå og vurdere konsekvenserne af en altid tilsluttet livsstil.
Denne livsstil har en meningsfuld indflydelse på, hvordan mennesker interagerer med andre; om deres evne til at være opmærksom på nye oplysninger; og om kompleksiteten i deres beslutningsprocesser.
Stigende algoritmisk angst kan også afspejles af parallelle skift i økonomien. En lille gruppe individer fanger gevinsten ved automatisering, mens mange arbejdere befinder sig i en usikker situation.
At fravælge algoritmisk kurering er en luksus - og kan en dag være et symbol på velstand, der kun er tilgængelig for nogle få udvalgte. Spørgsmålet er så, hvad de målbare skader vil være for dem på den forkerte side af det digitale skel.
Denne artikel er genudgivet fra The Conversation under en Creative Commons -licens. Læs den originale artikel.