AI-assisteret skrivning blomstrer stille og roligt i akademiske tidsskrifter - her er hvorfor det er OK
Hvis du søger i Google Scholar efter udtrykket "som en AI-sprogmodel", vil du finde masser af AI-forskningslitteratur og også nogle ret mistænkelige resultater. For eksempel siger et papir om landbrugsteknologi,
"Som en AI-sprogmodel har jeg ikke direkte adgang til aktuelle forskningsartikler eller undersøgelser. Jeg kan dog give dig et overblik over nogle seneste tendenser og fremskridt ..."
Tydelige fejl som dette er ikke de eneste tegn på, at forskere i stigende grad henvender sig til generative AI-værktøjer, når de skriver deres forskning. En nylig undersøgelse undersøgte hyppigheden af visse ord i akademisk skrivning (såsom "prisværdigt", "omhyggeligt" og "indviklet") og fandt ud af, at de blev langt mere almindelige efter lanceringen af ChatGPT - så meget, at 1 % af alle tidsskrifter artikler udgivet i 2023 kan have indeholdt AI-genereret tekst.
(Hvorfor overbruger AI-modeller disse ord? Der er spekulationer, fordi de er mere almindelige på engelsk som tales i Nigeria, hvor nøgleelementer i modeltræning ofte forekommer.)
Den førnævnte undersøgelse ser også på foreløbige data fra 2024, som indikerer, at AI-skrivehjælp kun bliver mere almindelig. Er dette en krise for moderne videnskab, eller en velsignelse for akademisk produktivitet?
Hvem skal tage æren for AI-skrivning?
Mange mennesker er bekymrede over brugen af kunstig intelligens i akademiske artikler. Faktisk er praksis blevet beskrevet som "forurenende" videnskabelig litteratur.
Nogle hævder, at brug af AI-output svarer til plagiat. Hvis dine ideer er copy-pasted fra ChatGPT, er det tvivlsomt, om du virkelig fortjener kredit for dem.
Men der er vigtige forskelle mellem "plagiaterende" tekst forfattet af mennesker og tekst forfattet af AI. De, der plagierer menneskers arbejde, får ære for ideer, der burde være gået til den oprindelige forfatter.
Derimod kan det diskuteres, om AI-systemer som ChatGPT kan have ideer, endsige fortjener kredit for dem. Et kunstig intelligens-værktøj minder mere om din telefons autofuldførelsesfunktion end en menneskelig forsker.
Spørgsmålet om bias
En anden bekymring er, at AI-output kan være forudindtaget på måder, der kan sive ind i den videnskabelige optegnelse. Berygtet havde ældre sprogmodeller en tendens til at portrættere mennesker, der er kvinder, sorte og/eller homoseksuelle på en udpræget lidet flatterende måde, sammenlignet med mennesker, der er mænd, hvide og/eller hetero.
Denne form for skævhed er mindre udtalt i den nuværende version af ChatGPT.
Men andre undersøgelser har fundet en anden slags skævhed i ChatGPT og andre store sprogmodeller:en tendens til at afspejle en venstreliberal politisk ideologi.
Enhver sådan skævhed kunne subtilt forvrænge videnskabelige skrifter, der er produceret ved hjælp af disse værktøjer.
Hallucinationsproblemet
Den mest alvorlige bekymring vedrører en velkendt begrænsning af generative AI-systemer:at de ofte laver alvorlige fejl.
For eksempel, da jeg bad ChatGPT-4 om at generere et ASCII-billede af en svamp, gav det mig følgende output.