Vse bo tam nevronska mreža poučena, da razkrije obraze zvezdnikov pornografije

Uporabnik Reddit pod vzdevkom Deepfakes je učil nevronsko omrežje, kako ustvariti lažne porno zvezde s slavnimi osebami. Zdaj, da bi postal pornoakter, nezavedno, kdorkoli.


Vir: matična plošča

Online pornografija se je pojavila s sodelovanjem Gal Gadota. Toda v resnici to ni znana igralka, temveč samo njen obraz. Lažni videoposnetek je bil ustvarjen s pomočjo algoritma strojnega učenja ter knjižnic TensorFlow in Keras. Deepfakes je že objavil posnetke Scarlett Johansson, Macy Williams, Taylor Swift in Aubrey Plaza.

Deepfakes je poročal, da je za ustvarjanje videoposnetka uporabil Googlovo iskanje slik in videoposnetke v YouTubu. Torej ne samo slaven, temveč tudi kolega ali samo naključna oseba postane "žrtev". Umetna inteligenca primerja izvirne fotografije s video posnetkom, tako da slika izgleda čim bolj verjetna. Raziskovalec umetne inteligence Alex Champandar je dejal, da lahko dobra in draga grafična kartica to nalogo reši v nekaj urah, redni računalnik pa bo to storil v nekaj dneh..

Zaskrbljujoče je dejstvo, da v tem primeru ne obstajajo le praktično nobene tehnične ovire, vendar tudi pomanjkanje izvornega gradiva ni. Torej, od leta 2015 do leta 2016 so netizenti objavili več kot 24 milijarde samozavesti. Tako lahko skoraj tako ogrozi vsako osebo..

Porno igralka Grace Evangeline (Grace Evangeline) v pripombah na matično ploščo je dejala, da to prvič vidi. Pred tem je spoznala lažne videoposnetke z zvezdami, vendar ne tako verjetna. Evangeline verjame, da je izdelava takšnih videoposnetkov brez dovoljenja igralk narobe.

Nekdanja pornografska igralka Alia Janine (Alia Janine) je bila prav tako nezadovoljna z lažnimi videoposnetki: "To kaže, da nekateri vidijo le predmete pri ženskah, ki jih je mogoče manipulirati. To je popolno pomanjkanje spoštovanja za pornoaktre in znane igralke".

Alex Champandar meni, da če kdorkoli postane "žrtev" ponarejenega pornografija, potem jo morate objaviti..

"Vsakdo bi moral vedeti, kako enostavno je, da video posnamete v takšni meri, da ne moremo dolgo določiti, da je ponaredek. Seveda bi to bilo mogoče storiti prej, vendar je bilo potrebno veliko sredstev in spretnosti. vsak programer z najnovejšo računalniško strojno opremo. " "Vsaka tehnologija se lahko uporablja s slabimi nameni. V spodnjem vrstnem redu je, kako dostopna in enostavna je uporaba. Ne verjamem, da je vse večje zanimanje za strojno učenje med navadnimi ljudmi slabo," je komentiral Deepfakes o situaciji.