Er dette ansigt bare en samling af computerbits? Kredit:Michal Bednarek/Shutterstock.com
Når kunstige intelligenssystemer begynder at blive kreative, de kan skabe store ting – og skræmmende. Tage, for eksempel, et AI-program, der lader webbrugere komponere musik sammen med en virtuel Johann Sebastian Bach ved at indtaste noter i et program, der genererer Bach-lignende harmonier, der matcher dem.
Kørt af Google, appen modtog stor ros for at være banebrydende og sjov at lege med. Det vakte også kritik, og rejste bekymringer om AI's farer.
Min undersøgelse af, hvordan nye teknologier påvirker menneskers liv, har lært mig, at problemerne rækker ud over den ganske vist store bekymring for, om algoritmer virkelig kan skabe musik eller kunst generelt. Nogle klager virkede små, men var virkelig ikke, som observationer af, at Googles AI brød de grundlæggende regler for musikkomposition.
Faktisk, bestræbelser på at få computere til at efterligne faktiske menneskers adfærd kan være forvirrende og potentielt skadeligt.
Efterligningsteknologier
Googles program analyserede noderne i 306 af Bachs musikværker, finde relationer mellem melodien og de toner, der sørgede for harmonien. Fordi Bach fulgte strenge regler for sammensætning, programmet lærte effektivt disse regler, så det kunne anvende dem, når brugerne gav deres egne noter.
Selve Bach-appen er ny, men det er den underliggende teknologi ikke. Algoritmer, der er trænet til at genkende mønstre og træffe sandsynlighedsbeslutninger, har eksisteret i lang tid. Nogle af disse algoritmer er så komplekse, at folk ikke altid forstår, hvordan de træffer beslutninger eller producerer et bestemt resultat.
AI-systemer er ikke perfekte – mange af dem er afhængige af data, der ikke er repræsentative for hele befolkningen, eller som er påvirket af menneskelige skævheder. Det er ikke helt klart, hvem der kan være juridisk ansvarlig, når et AI-system laver en fejl eller forårsager et problem.
Nu, selvom, kunstig intelligens teknologier bliver avancerede nok til at kunne tilnærme individers skrive- eller talestil, og endda ansigtsudtryk. Dette er ikke altid dårligt:En ret simpel AI gav Stephen Hawking muligheden for at kommunikere mere effektivt med andre ved at forudsige de ord, han ville bruge mest.
Mere komplekse programmer, der efterligner menneskestemmer, hjælper mennesker med handicap – men kan også bruges til at bedrage lyttere. For eksempel, skaberne af Lyrebird, et stemmelignende program, har frigivet en simuleret samtale mellem Barack Obama, Donald Trump og Hillary Clinton. Det lyder måske rigtigt, men den udveksling skete aldrig.
Fra godt til dårligt
I februar 2019, nonprofit-virksomheden OpenAI skabte et program, der genererer tekst, der praktisk talt ikke kan skelnes fra tekst skrevet af folk. Det kan "skrive" en tale i stil med John F. Kennedy, J.R.R. Tolkien i "Ringenes Herre" eller en elev, der skriver en skoleopgave om den amerikanske borgerkrig.
Teksten genereret af OpenAIs software er så troværdig, at virksomheden har valgt ikke at udgive selve programmet.
Lignende teknologier kan simulere fotos og videoer. I begyndelsen af 2018 for eksempel, Skuespilleren og filmskaberen Jordan Peele lavede en video, der så ud til at vise den tidligere amerikanske præsident, Barack Obama, sige ting, Obama faktisk aldrig sagde for at advare offentligheden om farerne ved disse teknologier.
I begyndelsen af 2019, et falsk nøgenfoto af den amerikanske rep. Alexandria Ocasio-Cortez cirkulerede online. Fremstillede videoer, ofte kaldet "deepfakes, " forventes i stigende grad at blive brugt i valgkampe.
Medlemmer af Kongressen er begyndt at undersøge dette spørgsmål forud for valget i 2020. Det amerikanske forsvarsministerium underviser offentligheden i, hvordan man kan se behandlede videoer og lyd. Nyhedsorganisationer som Reuters er begyndt at træne journalister til at spotte deepfakes.
Men, efter min mening, Der er stadig en endnu større bekymring:Brugere er muligvis ikke i stand til at lære hurtigt nok til at skelne mellem falsk indhold, efterhånden som AI-teknologien bliver mere sofistikeret. For eksempel, efterhånden som offentligheden begynder at blive opmærksom på deepfakes, AI bliver allerede brugt til endnu mere avancerede bedrag. Der er nu programmer, der kan generere falske ansigter og falske digitale fingeraftryk, effektivt at skabe den information, der er nødvendig for at fremstille en hel person - i det mindste i virksomheders eller offentlige registre.
Maskiner bliver ved med at lære
I øjeblikket, der er nok potentielle fejl i disse teknologier til at give folk en chance for at opdage digitale fremstillinger. Googles Bach-komponist lavede nogle fejl, som en ekspert kunne opdage. For eksempel, da jeg prøvede det, programmet tillod mig at indtaste parallelle femtedele, et musikinterval, som Bach flittigt undgik. Appen brød også musikalske regler for kontrapunkt ved at harmonisere melodier i den forkerte toneart. Tilsvarende OpenAIs tekstgenererende program skrev lejlighedsvis sætninger som "brande, der sker under vand", der ikke gav mening i deres sammenhænge.
Mens udviklere arbejder på deres kreationer, disse fejl bliver sjældnere. Effektivt, AI-teknologier vil udvikle sig og lære. Den forbedrede ydeevne har potentialet til at medføre mange sociale fordele – herunder bedre sundhedspleje, som AI-programmer hjælper med at demokratisere medicinudøvelsen.
Giver forskere og virksomheder frihed til at udforske, for at søge disse positive resultater fra AI-systemer, betyder at åbne op for risikoen for at udvikle mere avancerede måder at skabe bedrag og andre sociale problemer. En alvorlig begrænsning af AI-forskning kan bremse dette fremskridt. Men at give gavnlige teknologier plads til at vokse er uden små omkostninger – og potentialet for misbrug, om man skal lave unøjagtig "Bach-lignende" musik eller at bedrage millioner, vil sandsynligvis vokse på måder, som folk endnu ikke kan forudse.
Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.