Nástrahy digitálního prostředí: Deepfake

Marek Štvrtňa
EDTECH KISK
Published in
4 min readMay 12, 2022

Nevídané možnosti všech našich milovaných ICT věciček daly kromě sžíravé pohodlnosti vzniknout ledajakým falzifikátům. A jak nám naši lithioví miláčci zrají, tak se stejně tak rozmáhá přesvědčivost naprosto zfalšovaných artefaktů. Dokážeme je odhalit?

Zdroj: Pixabay — BroneArtUlm

Deepfaky jsou vysoce sofistikované falzifikáty. Sám pojem je složeninou sousloví deep learning a fake a odkazuje na využití technologie jako Generated Adversarial Networks (GAN) a Recurrent Neural Networks (RNN) při jejich tvorbě, [1] díky kterým je možné dosáhnout vysoké úrovně přesvědčivosti, což je o to nebezpečnější vzhledem k rozšířenosti na této technologii založených aplikací jako je FaceApp nebo FaceSwap. Co se zdá být neškodnou hrátkou může být využito k manipulacím a útokům.

Proč je to relevantní vzhledem ke kompetencím učitelů? Inu, na straně 62 evropského rámce digitálních kompetencí pro učitele najdeme oddíl 6.4, podle nějž má učitel vést žáka k tomu, aby měl povědomí o možnosti využití digitálních technologií pro rozvoj společnosti a sociální začleňování a aby jej mohl chránit před nástrahami a hrozbami v digitálním prostředí. [2] Jak chránit před deepfakem?

Audio deepfake

Velká pozornost je obvykle věnována fabrikovaným obrázkům a videím, což je vizuální mód. V našem příspěvku se zároveň chceme trochu zmínit i o poněkud opomíjené stránce — té znějící. V souladu s úvodním odstavcem je audio deepfake uměle vytvořený nahrávka za použití deep learning algoritmů. Charakter takové manipulace je o to nebezpečnější, že nahrávky obsahují v podstatě biometrické informace. [3] Naštěstí takové zvukové nahrávky trpí umělými vedlejšími artefakty na časové a spektrální doméně, které lze pomocí frekvenční analýzy na spektrogramu nalézt. Tyto artefakty lze tedy odhalit, k tomu je ovšem zapotřebí aktuálních datasetů. Co ale, když takovou technologii po ruce nemáme? Jak jsme schopni odhalit podvod?

Dokážete rozpoznat deepfake?

Při takové úrovni přesvědčivosti se naskýtá urgentní otázka, zda je třeba, pokud o sobě chceme tvrdit, že umíme kriticky hodnotit zdroje, abychom uměli spolehlivě deepfake odhalit a zda bychom své schopnosti jej detekovat měli věnovat náležitou pozornost a trénink. Umíte odhalit deepfake? Umíte pomoci ostatním jej odhalit? Kdyby vás někdo posadil za obrazovku a dal vám zhlédnout 16 videí, polovina z nichž není pravých, dokázali byste rozpoznat, které z nich jsou fake a které pravé? Přesně takto jednoduše probíhal experiment pod vedením Nils Köbis, Barbory Doležalové a Ivana Soraperra. [4] Výsledky? Tristní!

Výsledky studie ukazují, že lidé mají špatnou schopnost odhalit deepfake, silnou tendenci se přiklánět k pravosti záznamu a navíc přeceňovat svou schopnost deepfake rozpoznat.

Průměrná sensitivita ukazuje, že účastníci nebyli velice dobří v odhalování padělků. Průměrná šance správného odhadu byla 59.6%. Jen u méně než třetiny videí byly šance větší než hod mincí! A co hůře, nezabírají zásahy! Experiment totiž dále zahrnoval dva vstupy ve snaze zvýšit přesnost odhalení: krátké upozornění (v rámci experimentu zamýšleno jakožto akt informačního vzdělávání) podtrhující důležitost a finanční odměnu. Srovnání s kontrolní skupinou ukazují, že ani při takto zvýšené motivaci se úspěšnost odhalení téměř nemění! Dílčím výsledkem je taktéž silná tendence k označení záznamu za pravý a navíc silné přeceňování svých posuzovacích schopností (pouze v průměru u třech z 16 videí byl odhad správný).

Jak tedy trénovat svoje kompetence?

Při zamyšlení se nad problematikou se tedy rozevírá propast a ukazuje se zvyšující se obtížnost nároků na digitální kompetence. Je dost možné, že se i při nejlepší vůli a tréninku nebudeme moci efektivně poprat s novodobými nástrahami internetu. O to větší roli bude hrát synergie mezi jednotlivými kompetencemi. Pro odhalování deepfaků sice vznikají slibné systémy, které se snaží kombinovat oboje modality, obraz i zvuk [5], nicméně jejich rozšíření ve formě aplikací bude trvat a je otázkou jak moc technických dovedností bude vyžadovat.

Stane-li pedagog před takovou zkoušku, bude muset napnout veškeré svaly kritického myšlení, technických znalostí a schopnosti vyhledat kvalifikovanějšího odborníka, aby mohl své svěřence chránit a správně je navést. A možná, že je nakonec největší digitální kompetencí pro tento účel přiznat, že nevím, jak odhalit deepfake, což ovšem není v tomto kontextu příliš uspokojivé.

Zdroje:

[1] KHOCHARE, Janavi, Chaitali JOSHI, Bakul YENARKAR, Shraddha SURATKAR a Faruk KAZI. A Deep Learning Framework for Audio Deepfake Detection. Arabian Journal for Science and Engineering [online]. 2022, 47(3), 3447–3458 [cit. 2022–04–03]. ISSN 2193–567X. Dostupné z: doi:10.1007/s13369–021–06297-w.

[2] REDECKER, Christine et al. Evropský rámec digitálních kompetencí. Praha, 2018. Dostupné z: https://spomocnik.rvp.cz/clanek/21855/EVROPSKY-RAMEC-DIGITALNICH-KOMPETENCI-PEDAGOGU-DIGCOMPEDU.html

[3] GAO, Yang, Tyler VUONG, Mahsa ELYASI, Gaurav BHARAJ a Rita SINGH. Generalized Spoofing Detection Inspired from Audio Generation Artifacts. In: Interspeech 2021 [online]. ISCA: ISCA, 2021, 2021–8–30, s. 4184–4188 [cit. 2022–04–03]. Dostupné z: doi:10.21437/Interspeech.2021–1705.

[4] KÖBIS, Nils C., Barbora DOLEŽALOVÁ a Ivan SORAPERRA. Fooled twice: People cannot detect deepfakes but think they can. IScience [online]. 2021, 24(11) [cit. 2022–04–02]. ISSN 25890042. Dostupné z: doi:10.1016/j.isci.2021.103364.

[5] KONG, Chenqi, Baoliang CHEN, Wenhan YANG, Haoliang LI, Peilin CHEN a Shiqi WANG. Appearance Matters, So Does Audio: Revealing the Hidden Face via Cross-Modality Transfer. IEEE Transactions on Circuits and Systems for Video Technology [online]. 2022, 32(1), 423–436 [cit. 2022–04–02]. ISSN 1051–8215. Dostupné z: doi:10.1109/TCSVT.2021.3057457.

--

--