Deepfake aneb Stroj na zábavu i zbraň hromadného ničení

Tomáš Nyč
EDTECH KISK
Published in
7 min readDec 28, 2019

Dvacáté první století se zatím nese v duchu ještě hlubšího, až bezmezného přenášení moderních technologií do života obyčejného člověka, velkého boomu tvorby softwarů pro rozličné, více či méně (a často spíše méně) významné účely, i přes postupně sílící korporátní a národní snahy neutuchajícího růstu svobody internetu a s tím úzce spjaté degenerace Homo Interneticus, která vytváří extrémně hlubokou propast mezi lidmi, kteří umí programovat a jsou velice digitálně gramotní, a těmi, kteří těmito atributy neoplývají. Do toho prostředí přichází nový hráč, který je schopný a více než ochotný zamíchat kartami, hráč, který dá jedněm chléb a hry a druhým mraky nočních můr. Seznamte se, Deepfake.

„Pojem Deepfake má původ na sociální síti Reddit. Jeden z uživatelů tak pojmenoval svůj machine learning algoritmus, který mu umožňoval realisticky umístit obličej jakékoliv celebrity do pornografického snímku.“[1]

Deepfake se narodil!

Stejně jako s každou technologií, původní myšlenka na vytvoření něčeho takového nebyla nikterak zlomyslná, cílem bylo zase o kousek posunout hranice lidského poznání a otestovat kde končí možnosti počítačové inteligence. Výsledek je dnes již evidentní, nekončí. Historie Deepfake se dá stopovat již od roku 1997, kdy skupina vědců, jmenovitě Christoph Bregler, Michele Covell a Malcolm Slaney spustili svůj „Video Rewrite“ program a upravili již existující video, přičemž změnili audio stránku videa tak, aby to vypadlo věrohodně i s pohyby úst osoby na videu mluvící. [2]

Technologický vývoj se v tomto směru samozřejmě dále v rámci univerzit vyvíjel, práce na úpravě videa postupně přešla na samostatně se učící umělou inteligenci, které stačí dát k dispozici velké množství dat v podobě nahrávek pohybu lidí, jejich způsobu řeči a mimiky, kteréžto záznamy si následně tato umělá inteligence rozděl do jednotlivých snímků a snaží se v ní podle zadaných pokynů najít určité typické opakující se vzory, na jejichž základě je poté schopna vytvořit více či méně realisticky vypadající obrázek či video, na kterých je vyobrazen člověk, který je od normálního člověka k nerozeznání v podobě i pohybech, doopravdy však neexistuje.[3]

Velký průlom v používání této technologie však přinesla až amatérská programátorská sféra. V roce 2017 se jeden z uživatelů na otevřené sociální síti Reddit pochlubil jím vytvořeným algoritmem, který byl schopný naučit se vzhled a vystupování jakékoliv celebrity a následně její tváří nahradit tvář libovolné postavy v pornografickém snímku. Tím se povědomí o technologii Deepfake velmi rozšířilo mezi veřejností a bohužel tím bylo položeno na stůl první nebezpečí, které se s Deepfake pojí, tedy vytváření zdánlivě realistický pornografický fotografií a snímků s osobami, které si to vůbec nepřejí.[4]

„Mimikry a manipulace s realitou byly vždy součástí opravdového umění.“ [3]

Zábava pro masy

Deepfake má samozřejmě jak už jsem naznačil velký potenciál v pornografickém průmyslu, jako ostatně každá druhá moderní technologie. Jak se dnes běžně říká, pornografie táhne technologický růst kupředu! Je na tom mnoho pravdy. Krom narušování soukromí a hanění celebrit i obyčejných lidí vytvářením jejich pseudorealistických nahých fotografií a videí je tu i možnost customizace svého dokonalého protějšku tím, že se dá algoritmu pokyn vytvořit novou jedinečnou osobu na základě naučených vzorců a požadovaných parametrů, což by dalo vzniknout zcela novému pornografickému odvětví.

Co však víc, dají se tak natočit i normální filmy, kterým může dát tato technologie nový, avšak občas i velmi morálně pochybný rozměr. Takový uměle vytvořený herec či celá herecká organizace může sebrat práci normálním hercům. Z takového umělého herce může vzniknout celebrita jako z kohokoliv jiného a mnohým by to jistě imponovalo, v západním prostředí to však není momentálně tak pravděpodobné. Co je mnohem aktuálnější je možnost vytváření virtuální realistických podob již zesnulých herců a jejich využívání pro nové snímky. Nemyslím si, že bychom nenechali Franka Sinatru v klidu odpočívat, ale umím si živě představit, jak po tom, co zemřou velcí a především velmi populární herci dnešní doby, například Leonardo Di Caprio, bude stále velký zájem na tom vidět jejich nové snímky, je tedy dost možné, že naše pravnoučata budou chodit do kin na stejné herce jako my dnes. Je však samozřejmě nutné se pozastavit nad morální stránkou takového chování a klást si otázky, zdali je to skutečně ten směr, kterým se chceme vydat.

V čínské státní televizi byl už v roce 2018 představen nový a zcela uměle vytvořený moderátor, který od té doby stále seznamuje občany Čínské lidově demokratické republiky s počasím v nadcházejícím období, v nás bychom řekli, že dělá tzv. ‚rosničku‘, a vypadá to, že je to trend, jemuž je Číná velice nakloněna, neboť je to velmi silně ideologicky zaměřená země, a je mnohem jednodušší kontrolovat ideologickou čistotu algoritmu než člověka. Je proto velmi pravděpodobné, že se pomalu a jistě začnou v čínské televizi objevovat jen a pouze podobní umělí lidé. V západním světě je to ale zatím stále vnímáno spíše jako bizarnost a způsob, jak společnost odlidštit a ovládnout ještě více. Deepfake zde nabírá roli oblíbeného a obávaného politika, který může změnit politickou scénu kterékoliv země k nepoznání.[5]

„Dá se tak formovat zcela nová realita. To co vidíme, vidíme teď, jsme zvyklí vnímat svět především zrakem, na to si budeme muset začít dávat pozor.“[6]

Zvolen prezidentem!

Každého jistě napadne, že taková technologie se dá velice lehce využit, případně zneužít, i v pro některé mnohem závažnějším oboru, než je kultura. Tedy v politice. V dubnu roku 2018 zarezonovalo světem Deepfake video vytvořené americkým digitálním médiem Buzzfeed, ve kterém vystupoval bývalý prezident Barack Obama, samozřejmě to však nebyl on, pouze jeho kopie, a vedl proslov, jehož cílem bylo upozornit právě na to, že on není sám sebou, že Deepfake existuje a do budoucna bude velice těžké podobná videa rozlišit od reálných. Takový je úděl dnešního člověka, realita má čím dál více rovin, i těch nereálných. Podobné video bylo vytvořeno i s podobou našeho prezidenta Miloše Zemana, které ovšem nedosahuje takové kvality a rozeznat ho od reálné předlohy není nikterak složité. Jedním z prvků, který rozlišuje dobrý Deepfake od špatného, je to, zdali je to pouze green screen, nebo prostředí kompletně vytvořené počítačem. Green screen je technicky jednodušší na provedení, ale žádá si precizní práci při překrývání reality nerealitou, na rozdíl od kompletně generovaného obsahu, který si žádá důmyslnější technologické provedení. [7]

V květnu 2019 bylo na internetu zveřejněno video s mluvčí sněmovny spojených států Nancy Pelosi, které bylo upraveno tak, aby řeč této ženy evokovala silné ovlivnění alkoholem, což také se podařilo a toto video bylo sdíleno mnoha politiky, kteří si nebyli vědomi toho, že se nejedná o realitu. To v USA vyvolalo veliký poprask a zájem odborníků i společnosti, najednou začalo být jasné, že je nutné lidi naučit, jak taková videa rozpoznat. Je jasné, že veřejná osoba, která je takto zneužita, si přes média, ať už ta tradiční, nebo ta sociální, rychle najde způsob, jak svět informovat o tom, že takové video není opravdové. I tak se ale najde velké množství lidí, kteří budou raději věřit falešnému videu, ať už z ignorance, nebo z důvodu nenávisti k postižené osobě. To způsobí ještě hlubší utužení sociálních bublin a hluboce to podkopává důvěryhodnost jakýchkoliv médií, je proto pravděpodobné, že Deepfake začne být dříve nebo pozdějí regulován zákony, možná budou i snahy o jeho úplný zákaz.[8]

Pomalu a jistě tedy začíná být zapotřebí reagovat na tento vývoj i v naší zemi. Osobně mi přístup zakazování v tomto případě nepřijde úplně nejvhodnější, protože Evropská společnost začíná být na jakékoliv zákazy velmi citlivá a mohlo by dojít k nepokojům, ale jistě je třeba zasadit se o lepší edukaci v oblasti digitální gramotnosti, a nejen v ní. Někdy je ovšem situace tak složitá a Deepfake tak propracovaný, že v podstatě nelze pouhými lidskými smysly rozlišit jednáli se o skutečnost či nikoliv. To je jistě nelehké v tom, že už lidé nemohou věřit ničemu, čehož ovšem není nikdo schopen, proto bude spíše pro mnohé jednodušší Deepfake vůbec neřešit a zkrátka přijmout fakt, že z médií přijímám mnoho lživých a zavádějících informací, což se však jistě děje i bez Deepfaku. Bude zajímavé sledovat, co nám v tomto směru blízká budoucnost přinese.[9]

Zdroje

[1] GOGGIN, Benjamin. From porn to ‘Game of Thrones’: How deepfakes and realistic-looking fake videos hit it big. Bussiness Insider [online]. 23. 6. 2019 [cit. 2019–12–27]. Dostupné z: https://www.businessinsider.com/deepfakes-explained-the-rise-of-fake-realistic-videos-online-2019-6

[2] NORMAN, Jeremy. Video Rewrite, Origins of Deepfakes. History of Information [online]. [cit. 2019–12–27]. Dostupné z: https://www.historyofinformation.com/detail.php?id=4792

[3] DHILLON, Sunny. An optimistic view of Deepfakes. Tech Crunch [online]. 4. 7. 2019 [cit. 2019–12–27]. Dostupné z: https://techcrunch.com/2019/07/04/an-optimistic-view-of-deepfakes/?guccounter=1&guce_referrer_us=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_cs=ECrby9hi3SYaxV_6DRzSFQ

[4]GOGGIN, Benjamin. From porn to ‘Game of Thrones’: How deepfakes and realistic-looking fake videos hit it big. Bussiness Insider [online]. 23. 6. 2019 [cit. 2019–12–27]. Dostupné z: https://www.businessinsider.com/deepfakes-explained-the-rise-of-fake-realistic-videos-online-2019-6

[5] BARANIUK, Chris. China’s Xinhua agency unveils AI news presenter. BBC [online]. 8. 11. 2018 [cit. 2019–12–27]. Dostupné z: https://www.bbc.com/news/technology-46136504

[6] DHILLON, Sunny. An optimistic view of Deepfakes. Tech Crunch [online]. 4. 7. 2019 [cit. 2019–12–27]. Dostupné z: https://techcrunch.com/2019/07/04/an-optimistic-view-of-deepfakes/?guccounter=1&guce_referrer_us=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_cs=ECrby9hi3SYaxV_6DRzSFQ

[7] VENKATARAMAKRISHNAN, Siddharth. Can you believe your eyes? How deepfakes are coming for politics. Financial Times [online]. 24. 10. 2019 [cit. 2019–12–27]. Dostupné z: https://www.ft.com/content/4bf4277c-f527-11e9-a79c-bc9acae3b654

[8] PORUP, J. M. How and why deepfake videos work — and what is at risk. CSO [online]. 10. 4. 2019 [cit. 2019–12–27]. Dostupné z: https://www.csoonline.com/article/3293002/deepfake-videos-how-and-why-they-work.html

[9] KNIGHT, Will. Even the AI Behind Deepfakes Can’t Save Us From Being Duped. Wired [online]. 2. 10. 2019 [cit. 2019–12–27]. Dostupné z: https://www.wired.com/story/ai-deepfakes-cant-save-us-duped/

--

--