AI-genereret pornografi-kendt som “deepfakes”-bliver mere overbevisende, problemfri og ægte. Kredit:Shutterstock
I januar i år, en ny app blev frigivet, der giver brugerne mulighed for at skifte ansigter ud i en video med et andet ansigt hentet fra et andet foto eller en video - svarende til Snapchats funktion "ansigtsbytte". Det er en daglig version af den slags højteknologiske computergenererede billeder (CGI), vi ser i filmene.
Du genkender det måske fra en ung prinsesse Leias cameo i Star Wars -filmen fra 2016 Rogue one , som brugte liget af en anden skuespiller og optagelser fra den første Star Wars -film, der blev skabt 39 år tidligere.
En Reddit -bruger oprettede en anden version af unge #PrincessLeia fra #RogueOne i #FakeApp, som ser mere realistisk ud. Denne teknik er gal! https://t.co/FftqcepVYp pic.twitter.com/fUOad5k9ft
- 80Level (@EightyLevel) 30. januar 2018
Nu, alle med en kraftfuld computer, en grafikbehandlingsenhed (GPU) og tid på deres hænder kan skabe realistiske falske videoer - kendt som "deepfakes" - ved hjælp af kunstig intelligens (AI).
Lyder sjovt, ret?
Problemet er, at de samme værktøjer er tilgængelige for dem, der søger at skabe ikke-samtykke pornografi af venner, arbejdskolleger, klassekammerater, eks-partnere og helt fremmede-og læg det online.
Udviklingen af deepfakes
I december 2017, Bundkort brød historien om en Reddit -bruger kendt som "deep fakes", der brugte AI til at bytte ansigter på skuespillere i pornografiske videoer med ansigter fra kendte berømtheder. En anden Reddit -bruger oprettede derefter skrivebordsprogrammet kaldet FakeApp.
Det giver alle - også dem uden tekniske færdigheder - mulighed for at oprette deres egne falske videoer ved hjælp af Googles TensorFlow open source -maskinlæringsramme.
Teknologien anvender en AI -metode kendt som "deep learning", hvilket indebærer at fodre en computerdata, som computeren derefter bruger til at træffe beslutninger. I tilfælde af falsk porno, computeren vil vurdere, hvilke ansigtsbilleder af en person, der vil være mest overbevisende som et ansigtsbytte i en pornografisk video.
Kendt som "morph" porno, eller "parasitporno", falske sexvideoer eller fotografier er ikke et nyt fænomen. Men det, der gør deepfakes til et nyt og bekymrende problem, er, at AI-genereret pornografi ser betydeligt mere overbevisende og ægte ud.
En anden form for billedbaseret seksuelt misbrug
Skaber, at distribuere eller true med at distribuere falsk pornografi uden samtykke fra den person, hvis ansigt fremgår af videoen, er en form for "billedbaseret seksuelt misbrug" (IBSA). Også kendt som "ikke-konsensuel pornografi" eller "hævnporno", det er en krænkelse af privatlivets fred og en krænkelse af retten til værdighed, seksuel autonomi og ytringsfrihed.
I et tilfælde af morph porno, en australsk kvindes fotos blev stjålet fra hendes konti på sociale medier, lagt på pornografiske billeder og derefter lagt ud på flere websteder. Hun beskrev oplevelsen som at få hende til at føle sig "fysisk syg, væmmes, vred, forringet, dehumaniseret. "
Alligevel er reaktionerne på denne form for seksuelt misbrug stadig inkonsekvente. Regulering mangler i Australien, og andre steder.
Anfald under australsk straffelov
Syd Australien, NSW, Victoria og ACT har specifikke strafbare handlinger for billedbaserede seksuelle overgreb med straffe på op til fire års fængsel. Syd Australien, NSW og ACT definerer eksplicit et "intimt" eller "invasivt" billede, herunder billeder, der er blevet ændret eller manipuleret.
Jurisdiktioner uden specifikke strafbare handlinger kunne stole på mere generelle straffelove. For eksempel, den føderale telekommunikationsforseelse om "at bruge en transporttjeneste til trussel, chikanere eller forårsage lovovertrædelse ", eller lovovertrædelser fra staten og territoriet, såsom ulovlig optagelse, uanstændighed, stalking, voyeurisme eller afpresning.
Men det er uklart, om sådanne love ville gælde for tilfælde af "falsk porno", hvilket betyder, at pt. straffeloven giver inkonsekvent beskyttelse af billedbaserede ofre for seksuelt misbrug i hele Australien.
Anfald under australsk civilret
Ofre har kun lidt brug af ophavsretsloven, medmindre de kan bevise, at de er ejeren af billedet. Det er uklart, om det betyder ejeren af ansigtsbilledet eller ejeren af den originale video. De kan have bedre held under ærekrænkelseslovgivningen. Her skal sagsøgeren bevise, at tiltalte offentliggjorde falsk og nedsættende materiale, der identificerer dem.
Forfølger civil retssager, imidlertid, is time-consuming and costly. It will do little to stop the spread of non-consensual nude or sexual images on the internet. Også, Australian civil and criminal laws will be ineffective if the perpetrator is located overseas, or if the perpetrator is an anonymous content publisher.
Addressing the gap in legislation
The Australian Parliament is currently debating the Enhancing Online Safety (Non-Consensual Sharing of Intimate Images) Bill 2017. This bill, which is yet to become law, seeks to give the Office of the eSafety Commissioner the power to administer a complaints system and impose formal warnings, removal notices or civil penalties on those posting or hosting non-consensual intimate images.
Civil penalties are up to A$105, 000 for "end-users" (the individuals posting the images) or A$525, 000 for a social media, internet service or hosting service provider.
Vigtigere, the proposed legislation covers images which have been altered, and so could apply to instances of deepfakes or other kinds of fake porn.
Prevention and response beyond the law
While clear and consistent laws are crucial, online platforms also play an important role in preventing and responding to fake porn. Platforms such as Reddit, Twitter and PornHub have already banned deepfakes. Imidlertid, i skrivende stund, the clips continue to be available on some of these sites, as well as being posted and hosted on other websites.
Read more:Facebook wants your nude photos to prevent 'revenge porn' – here's why you should be sceptical
A key challenge is that it is difficult for online platforms to distinguish between what is fake and what is real, unless victims themselves discover their images are online and contact the site to request those images be removed.
Yet victims may only become aware of the fake porn when they start receiving harassing communications, sexual requests, or are otherwise alerted to the images. På det tidspunkt, the harm is often already done. Technical solutions, such as better automated detection of altered imagery, may offer a way forward.
To adequately address the issue of fake porn, it is going to take a combination of better laws, cooperation from online platforms, as well as technical solutions. Like other forms of image-based sexual abuse, support services as well as prevention education are also important.
Denne artikel blev oprindeligt offentliggjort på The Conversation. Læs den originale artikel.
Sidste artikelPas på med at replikere sexisme i AI, eksperter advarer
Næste artikelEt kraftboost til mobile teknologier