S porastom uporabe umetne inteligence se je pojavila tudi temna stran tehnologije – deepfake pornografija, ki postavlja nova pereča etična vprašanja. Lahko tehnologija blockchain pri tem pomaga?
S hitrim razvojem tehnologije umetne inteligence se javnost vse bolj zaveda, da vsebina, ki jo gledamo na zaslonih, ne prikazuje vedno resničnosti. ChatGPT lahko sestavi različne vsebine, od akademskih esejev do domiselnih pesmi. DALL-E je sposoben ustvariti podobe posameznikov in lokacij, ki so popolnoma izmišljene. Podobno lahko programa Stable Diffusion ali Midjourney izdelata vse od ponarejenega oglasa za pivo do eksplicitnih videoposnetkov z obrazi resničnih posameznikov, ki niso nikoli sodelovali.
Pojav, znan kot “deepfake porn” ali deepfake pornografija, je v porastu, saj ustvarjalci deepfakeov prejemajo naročene zahteve za izdelavo eksplicitne vsebine, v kateri nastopa posameznik, ki ga izbere naročnik. Zato na platformah, ki so specializirane za deepfakes, krožijo številni izmišljeni eksplicitni videoposnetki.
Španijo pretresa škandal AI slik mladoletnic
V španskem mestu Almendralejo so več kot 20 dekletom poslali njihove eksplicitne slike, ki jih je ustvarila umetna inteligenca, kar je povzročilo zaskrbljenost glede morebitnih nevarnosti in pravnih posledic deepfakes. Dekleta, med katerimi je najmlajša imela 11 let, so te realistične slike, prirejene na podlagi njihovih fotografij na Instagramu, prejela na svoje mobilne telefone, kar je povzročilo stisko in ogorčenje med starši in skupnostjo. Incident je sprožil razprave o tem, ali je ustvarjanje in deljenje takšnih slik mogoče pravno kaznovati in ali je te globoke ponaredke – »deepfakes« mogoče opredeliti kot otroško pornografijo, pri čemer se postavljajo vprašanja o ustreznosti obstoječih pravnih okvirov za reševanje izzivov, ki jih prinašajo tehnologije umetne inteligence.
Manipulirane slike so bile deljene v skupinah WhatsApp, obstaja pa tudi bojazen, da bodo prišle na spletne strani z eksplicitnimi vsebinami. Nekatera dekleta so bila izsiljena, prizadeti pa so se soočili z žaljivimi komentarji sošolcev. Matere žrtev so se organizirale, da bi podale pritožbe, kar je privedlo do preiskave nacionalne policije, ki je identificirala več domnevno vpletenih mladoletnikov, nekateri so bili sošolci žrtev. Zadevo pregleduje tožilstvo za mladoletnike, lokalne oblasti pa so opozorile, da je treba zadevo obravnavati in preprečiti to v prihodnje.
»10 EUR za 25 golih slik«
Zelo realistične slike, ki so nastale s pomočjo umetne inteligence, so bile izdelane s pomočjo aplikacije ClothOff. Aplikacija, ki se promovira s sloganom »Sleci kogarkoli, sleci punce brezplačno« (Undress anybody, undress girls for free), uporabnikom omogoča, da navidezno odstranijo oblačila vseh, ki so na fotografijah v galeriji njihovega telefona. Aplikacija zaračuna 10 EUR za izdelavo 25 takšnih slik. Čeprav je prikazana golota izmišljena, matere trdijo, da je stiska, ki so jo deklice doživele ob ogledu prirejenih slik, zelo resnična.
“Ne zavedate se obsega škode, povzročene tem deklicam, in ostajate pozabljivi za zločin, ki ste ga zagrešili,” je na svojem Instagramu izjavila Al Adib in naslovila tiste, ki so slike razširili.
Ta dogodek je morda najbolj odmeven v zadnjem času, a še zdaleč ni edini. In z razvojem umetne inteligence se bo razvijala tudi deepfake pornografija.
Kaj je deepfake pornografija?
Nekateri deepfakes so lahko humorni. Tu lahko na primer navedemo primer Elona Muska kot Dava v filmu Stanleyja Kubricka 2001: Vesoljska odiseja. Problem pa nastane, ko se globoki ponaredki pojavljajo tudi v bolj zahrbtnih oblikah. Dejstvo, da ta tehnologija obstaja, pomeni, da jo lahko ljudje uporabijo za diskreditacijo dejansko resničnih in realnih informacij. In tukaj nastene problem deepfake pornografije.
Deepfake pornografija se nanaša na uporabo algoritmov umetne inteligence za ustvarjanje nadrealistične, vendar popolnoma lažne vsebine, pri čemer se obrazi posameznikov, pogosto slavnih osebnosti ali zasebnikov, brez njihovega soglasja prilepijo na eksplicitne slike ali videoposnetke. Ta tehnologija uporablja modele globokega učenja, ki so usposobljeni za analizo neštetih slik osebe, da ustvarijo realistično repliko, s katero je mogoče manipulirati za ustvarjanje prepričljive, a goljufive vizualne vsebine.
Globoki ponaredki so pozornost javnosti pritegnili leta 2017, dve leti pozneje, leta 2019, pa je bilo na spletu že več kot 15.000 deepfake videoposnetkov, od katerih jih je bilo 96% pornografskih. V tem času so v vseh teh posnetkih nastopale ženske, je pokazala raziskava podjetja Deeptrace Labs.
Razmah umetne inteligence v prid deepfake pornografiji
Eksponentno širjenje tehnologij umetne inteligence v zadnjem času je občutno vplivalo na porast globoke lažne pornografije. Napredek na področju strojnega učenja, nevronskih mrež in računalniške moči je omogočil ustvarjanje vse bolj izpopolnjenih in nerazpoznavnih deepfakes. Dostopnost programske opreme in aplikacij za ustvarjanje deepfake, nekatere celo z uporabniku prijaznimi vmesniki, je demokratizirala ustvarjanje deepfake vsebin, kar je privedlo do porasta nehotenega eksplicitnega gradiva.
Pornografija z umetno inteligenco in orodja za njeno ustvarjanje postajajo blago, zato se začenjajo pojavljati zastrašujoči učinki v resničnem svetu. Znana Twitch osebnost na Brandon Ewing, na spletu znan kot Atrioc, je bil pred kratkim ujet, ko si je na Twitchu ogledoval nekonsenzualno globoko prikrojene spolne podobe znanih ženskih streamerjev. Ustvarjalec slik je sčasoma podlegel pritiskom in privolil v njihov izbris. Vendar je bila škoda že storjena. Ustvarjalci, ki so bili tarča napadov, še danes prejemajo kopije slik prek sporočil DM kot obliko nadlegovanja.
Glavno orodje so AI generatorji slik
Ko je podjetje Stability AI objavilo izvorno kodo za model umetne inteligence Stable Diffusion, ki omogoča pretvorbo besedila v sliko, je ta hitro postal orodje za ustvarjanje eksplicitne vsebine na internetu. Skupina z imenom Unstable Diffusion se je hitro uveljavila, sprva na Redditu, nato pa še na Discordu. Sčasoma so koordinatorji skupine začeli raziskovati metode za razvoj svojih modelov za ustvarjanje eksplicitnih vsebin in pridobivanje dobička od njih, pri čemer so izkoristili zmogljivosti Stable Diffusion.
Sistem Stable Diffusion je bil tako kot vsi drugi sistemi umetne inteligence za pretvorbo besedila v sliko usposobljen na naboru podatkov z milijardami slik z napisi, da bi se naučil povezav med zapisanimi pojmi in slikami, na primer, kako se lahko beseda “ptica” poleg veliko bolj abstraktnih pojmov nanaša tudi na modre ptice, papige in planinske orle. Le majhen odstotek nabora podatkov podjetja Stable Diffusion vsebuje gradivo NSFW, zato model nima veliko možnosti za uporabo, ko gre za vsebine za odrasle. Zato so administratorji Unstable Diffusion najeli prostovoljce – večinoma člane strežnika Discord -, da bi ustvarili nabor podatkov o pornografiji za natančno nastavitev modela Stable Diffusion.
Čeprav je naletel na številne ovire, kot so prepovedi s strani Kickstarterja in Patreona, je Unstable Diffusion uspešno zagnal obsežno spletno stran z modeli umetne inteligence, ki ustvarjajo umetnost po meri. Z zbiranjem več kot 26.000 dolarjev od vlagateljev, nabavo potrebne strojne opreme za urjenje generativne umetne inteligence in zbirko podatkov, ki obsega več kot 30 milijonov fotografij, je Unstable Diffusion odprl platformo. Skupina trdi, da to platformo trenutno uporablja več kot 350 000 posameznikov, ki dnevno ustvarijo več kot pol milijona slik.
Rastoča etična vprašanja glede deepfake pornografije
Ustvarjanje in razširjanje deepfake pornografije postavlja globoke etične dileme. Glavna skrb se vrti okoli kršitve privolitve in avtonomije posameznika, saj upodobljeni posamezniki niso privolili v sodelovanje v takšni vsebini. Takšno izkoriščanje brez soglasja povzroča hude čustvene stiske, škodo ugledu in kršitev zasebnosti žrtev, ki se pogosto ne zavedajo obstoja takšne vsebine, dokler ni razširjena. Zato so se pojavili pozivi k regulaciji te niše, toda pravni okvir ni tako enostavno prilagoditi.
Regulacija deepfake pornografije
Razvijajoča se narava tehnologije deepfake predstavlja velik izziv za pravne sisteme po vsem svetu. Obstoječi zakoni, povezani z defamacijo, zasebnostjo in intelektualno lastnino, pogosto ne obravnavajo edinstvenih vidikov deepfakes. Prehodna in brezmejna narava digitalnih vsebin otežuje vprašanja pristojnosti in izvrševanja, zato je potrebno mednarodno sodelovanje in usklajevanje pravnih okvirov.
Več držav preučuje in sprejema zakonodajo, ki je posebej usmerjena proti deepfake pornografiji. Cilj teh zakonodajnih prizadevanj je kriminalizirati ustvarjanje in distribucijo neprostovoljnih deepfakes ter žrtvam zagotoviti možnosti za pravno varstvo. Nekatere zvezne države v ZDA so na primer uvedle zakone, ki žrtvam ponarejene pornografije omogočajo, da zahtevajo odškodnino, Združeno kraljestvo pa razmišlja o spremembah obstoječih zakonov, da bi zajeli zlonamerno ustvarjanje ponaredkov.
Louisiana kot zgled
Zakon v Louisiani, ki velja od 1. avgusta 2023, kriminalizira ustvarjanje, distribucijo in posedovanje deepfakov, ki prikazujejo spolno zlorabo otrok. Zakon SB175, ki ga je podpisal guverner John Bel Edwards, za kršitve določa obvezno zaporno kazen od pet do 20 let in/ali denarno kazen do 10.000 USD. Louisiana se tako pridružuje drugim državam, kot so Kalifornija, Teksas in Virginija, ki urejajo globoke ponaredke. Drugi del zakona SB175 je namenjen »pornografiji iz maščevanja« ali revenge porn in globokim ponaredkom brez privolitve ter določa obvezno kazen od 10 do 30 let in/ali denarno kazen do 50.000 USD.
Kako lahko tehnologija blockchain pomaga pri zajezitvi deepfake pronografije?
Več zagonskih podjetij, kot je Ambervideo.co, razvija rešitve za odkrivanje globokih ponaredkov s pomočjo programske opreme, ki analizira video in zvočne posnetke in išče znake sprememb. Vendar so te metode reaktivne, saj se učijo na podlagi preteklih vzorcev, in lahko zaostajajo za naprednimi metodami ustvarjanja globokih ponaredkov. Da bi se temu zoperstavili, preučujejo tehnologijo veriženja blokov za preverjanje pristnosti videoposnetkov.
Kriptografski prstni odtisi se v videoposnetke vtisnejo med snemanjem, kakršne koli spremembe pa lahko kažejo na prirejanje. Med organizacijami, ki se ukvarjajo z rešitvami na podlagi veriženja blokov za preverjanje pristnosti videoposnetkov, sta Axon Enterprise in Agencija za napredne obrambne raziskovalne projekte (DARPA). Tehnologija pridobiva podpise iz virov vsebine in jih kriptografsko podpisuje, kar omogoča preverjanje izvirnega posnetka. Vendar pa obstajajo izzivi, kot sta kodiranje in ponovno zajemanje videoposnetkov, zato se zdi, da je za učinkovit boj proti širjenju in vplivu globokih ponaredkov potrebna kombinacija rešitev. Boj proti deepfakes zahteva sodelovanje ustvarjalcev, razvijalcev, regulatorjev in javnosti, ki mora biti dobro obveščena in pozorna na porabo informacij.