V posledních letech se čím dál častěji začal objevovat výraz „deepfake“, který lze nalézt především v diskuzích o technologiích a médiích. Výraz je kombinací „deep learning“ – česky hluboké učení, což je součástí strojového učení (machine learning) – a „fake“ (falešný). Deepfake odkazuje na syntetická média, ve kterých je využívána umělá inteligence (AI) k vytváření velmi realistických obrázků, videí nebo audio nahrávek. Tento obsah představuje události nebo lidi v situacích, které se nikdy nestaly. Deepfake se dá aplikovat různými způsoby, může být využíván, ale i zneužíván.
Zneužívání deepfake narůstá
Důvodů pro využívání syntetického obsahu pro kriminální aktivity a neetické jednání je mnoho, protože s technologickým pokrokem na poli AI a strojového učení je proces jednoduchý, zároveň těžko odhalitelný a vytvořené materiály jsou na velmi vysoké úrovni. Softwarová řešení jsou také dostupnější, protože ke zprovoznění aplikace už dnes není třeba vlastnit extrémní výpočetní výkon a vše se dá vytvořit na průměrném počítači.
Mezi nejčastější formy zneužívání patří dezinformace a falešné zprávy, podvody a scamy, krádeže identity (zejména v kyberprostoru), vydírání a poškozování cizí reputace. Mezi nejextrémnější formy vytvoření a zneužití deepfake, patří tvorba falešného sexuálního obsahu bez souhlasu vyobrazené osoby, což následně vede k emoční a reputační újmě.
Aby se předešlo zneužívání, bylo aplikováno několik řešení:
- Detekční technologie: Vývoj dalších algoritmů, které jsou specializované na detekci deepfake obsahu a jejich úkolem je ověřování autentičnosti médií.
- Legislativa a regulace: Vytváření a implementace zákonů a regulací, které penalizují zneužívání deepfake obsahu.
- Povědomí veřejnosti: Vzdělávání veřejnosti ohledně existence a potenciálního nebezpečí, které deepfake přináší, aby veřejnost byla schopna kritického myšlení vůči mediálnímu obsahu.
Vzhledem k tomu, že je tvorba syntetického obsahu velmi jednoduchá a lidé jsou stále velmi ovlivňováni postoji publikovanými na veřejných sítích, často dochází ke zneužívání skrze názory celebrit a politiků. Častým příkladem může být deepfake obsah, který vyobrazuje Elona Muska, ve kterém Musk prezentuje různá investiční doporučení. Dále je zde deepfake politiků, který je používán k poškození reputace, k čemuž dochází hlavně během volebních období. Často může deepfake diskreditovat zneužitou osobu natolik, že se stane předmětem veřejné kritiky a její legitimní výstup již není brán vážně.
Kdo deepfake vytváří a za jakým účelem?
Deepfake má obrovský potenciál k využití i zneužití, proto existuje několik skupin, které se ve tvorbě tohoto obsahu angažují.
- Amatéři a testeři: Mnoho deepfaků je vytvářeno lidmi, kteří experimentují s AI technologiemi, pouze pro zábavu nebo z důvodu osobních projektů. Například youtuber Mike Boyd vytvořil deepfake sebe, který ho ukazuje v různých rolích ve slavných filmech – pouze s použitím open source softwaru.
- Výzkumníci a developeři: V akademické sféře a technologických společnostech je často vytvářen deepfake jako nástroj pro testování a rozšiřování možností umělé inteligence a řešení jejího dalšího využití. To zahrnuje vylepšování algoritmů strojového učení a chápání schopností a omezení AI.
- Zábavní průmysl: Filmaři a tvůrci speciálních efektů využívají deepfake technologie k tvorbě realistických vizuálních efektů, tváří, postav, nebo dokonce k tomu, aby přivedli mrtvé herce zpět k životu.
Motivací k vytvoření deepfake je hned několik a ne všechny jsou eticky korektní, ale mnoho deepfake tvorby se dá využít k dobrým účelům a pomoci v různých sektorech nebo odvětvích. Mezi nejčastější využití a zneužití patří následující:
- Vzdělávání a umění: Deepfake lze využít kreativně – například ve filmech, seriálech nebo uměleckých projektech, aby se vytvořil inovativní obsah, který bude přitahovat audienci.
- Vzdělávání a trénink: Deepfake může vytvořit realistickou simulaci pro účely tréninku. Může se jednat například o cvičení v oblastech, jako jsou simulace zdravotních procedur nebo vojenský výcvik v bezpečném prostředí.
- Manipulace a falešné informace: Naneštěstí jsou zde možnosti zneužití, mezi které patří zejména šíření falešných informací, tvorba falešných zpráv. Deepfake mohou ale využít i podvodníci, kteří se za pomoci této technologie mohou vydávat za jiné osoby – to zahrnuje tvorbu falešných videí politiků, důležitých osob nebo celebrit pro účely manipulace veřejného mínění nebo poškození reputace.
- Osobní využití: Někteří lidé vytvářejí deepfake pro vlastní pobavení, což může být například vyměňování tváří ve videích nebo tvorby humorného obsahu, které následně sdílí na sociálních sítích a s přáteli.
Jak se deepfake vytváří?
Technologie za deepfake je primárně AI, které se říká „generative adversarial networks“ (GANs) – v českém překladu „generativní nepřátelské sítě“. GANs se skládají ze dvou částí: neurální generátor a diskriminátor. Generátor vytváří falešný obsah a diskriminátor zhodnocuje jeho autenticitu. Skrze zpětné vazby diskriminátora dochází k úpravám obsahu generátorem až do doby, kdy generátor nerozpozná reálný obsah od falešného.
Klíčové techniky tvorby deepfake zahrnují:
- Face swapping: Využití cizích tváří pro záměnu obličeje osob ve videu.
- Voice cloning: Upravování hlasu osob, aby nebyly jejich falešné výroky rozeznatelné od pravých.
- Motion transfer: Kopírování pohybu zdrojové osoby a aplikování vzorce na osobu vytvořenou.
Jak poznat deepfake?
Odhalení může být náročné, ale je zde několik náznaků, které pomohou s jeho rozpoznáním. Technologie často zápasí s lidskou mimikou, takže videa mohou vypadat nepřirozeně, především při výrazech ve tváři. Je dobré vnímat i pohyb rtů, sledovat, jestli pohyb odpovídá zvukové stopě, protože špatná synchronizace rtů je častým náznakem deepfake obsahu.
Vyplatí se vnímat i prostředí, především světla a stíny ve tváři, protože pokud vzájemně neodpovídají, je to jasný náznak syntetického obsahu. V dnešní době jsou kamery a zařízení pro natáčení videa na velmi vysoké úrovni – s odhalováním může pomoci i ostrost obsahu. Deepfake technologie také často neumí správně napodobovat pohyb očí, software často při tvorbě neřeší například mrkání a výraz je pak příliš strnulý – což pro změnu bije do očí sledujícího. Nedostatky jsou i v oblasti zvuku, hlasy mohou znít příliš perfektně nebo roboticky, protože AI zatím není na takové úrovni, aby správně vystihla přirozené pauzy během proslovu.
Hlavní body, jak rozpoznat deepfake od reálného videa:
- Nepřirozené pohyby tváře
- Špatná synchronizace rtů
- Nekonzistentní osvětlení a stíny
- Problémy se zaostřením a rozmazávání
- Pohyby očí
- Symetrie tváře
- Nepřirozené audio
- Pohledy z profilu
Druhy deepfake
Deepfake přichází v několika formách, každá z nich využívá AI k tomu, aby vytvořila realistický, ale falešný obsah.
- Text – Tento typ deepfake obsahuje text, který je vytvořený skrze AI, která se snaží simulovat lidskou formu psaní. Příkladem mohou být posty na sociálních sítích, které vytvoří například ChatGPT.
- Videa – Toto je pravděpodobně nejznámější forma deepfake obsahu. AI je využívána k tomu, aby dala tělu cizí tvář ve videu, což vytvoří velmi realistické, ale falešné video.
- Obrázky – Podobně jako u videí, zahrnuje tato forma tvorbu falešného grafického obsahu, často záměnou tváří nebo jiných částí těla. Jejich forma je velmi jednoduchá a stačí k ní základní grafický software.
- Hlasové zprávy – Tento typ zahrnuje tvorbu umělých výroků, které simulují hlas, tón a styl vyjadřování jiné osoby. Mohou být využity pro tvorbu nahrávek, kde osoba říká něco, co nikdy neřekla.
- Real-time – V současné době je tato forma nejdokonalejší deepfake. AI mění video a audio v reálném čase, často se toho využívá při živých streamech nebo video hovorech.
TIP: Pokud vás zajímá více o tvorbě video obsahu, můžete si také přečíst náš návod Jak založit YouTube kanál.
Celebrity deepfake – koho postihly?
Mnoho celebrit bylo cílem deepfake obsahu, mezi nejčastější oběti patří především herci, sportovci a politici. Mezi nejznámější kauzy patří následující:
- Elon Musk: Tvář Elona Muska, jednoho z nejbohatších lidí na světě, majitele společnosti Tesla nebo SpaceX, byla zneužita pro investiční podvody v mnoha falešných reklamách. Nejznámější video byla investiční příležitost, ve které Musk slibuje obrovské zisky z investic. Podvodníci obrali veřejnost o miliony dolarů, přičemž obětmi byli i důchodci, kteří přišli o veškeré své úspory.
- Andrej Babiš a Martin Veselovský: Pro účely falešného marketingu byla zneužita i tvář podnikatele a politika Andreje Babiše, ve kterém slibuje pasivní příjem skrze investiční aplikaci. Pro vyšší důvěryhodnost videa je zneužito i několik dalších známých osobností, včetně moderátora Martina Veselovského.
- Emma Watson: Ženské celebrity jsou častou obětí jedné z nejhorších variant deepfake obsahu, což je pornografie. Tento osud potkal i legendární představitelku Hermiony z knižní a filmové série Harry Potter, která se stala obětí deepfake vyděračů před několika lety. Její kauza není ale ojedinělým případem, ve stejné situaci se ocitla například i Natalie Portman nebo Scarlett Johansson.
V tomto videu Elon Musk demonstruje, jaké úrovně již dosáhl deepfake. Navzdory tomu, že je video více než jeden rok staré, tak je deepfake téměř nerozeznatelný od originálu. Ve videu zároveň zmiňuje, že ještě vyšší kvality deepfake verze by šlo dosáhnout při použití většího výpočetního výkonu.
Slova závěrem
Názory na deepfake se velmi liší a společnost si uvědomuje benefity i výrazná rizika. Ač jsou zde možnosti kreativního využití nebo příležitosti v oblasti vzdělávání, je zde také mnoho negativních aspektů a etických a společenských možností pro zneužití. Odvětví má velký potenciál, ale ve finále hraje největší roli přístup a smysl tvorby. Benefity při zdravotnickém vzdělávání mohou usnadnit životy mnoha, ale zneužívání, například v případech celebrit a politiků, mohou zničit kariéru a důvěryhodnost poškozených.
Reference
- https://www.theguardian.com/technology/2020/jan/13/what-are-deepfakes-and-how-can-you-spot-them
- https://security.virginia.edu/deepfakes
- https://www.pilsfree.net/novinky/272-co-je-to-deepfake-a-jak-ho-poznat