Deepfake je nová forma mediální manipulace. Tato technologie využívá hluboké učení – formu umělé inteligence (AI) – k vytvoření falešných fragmentů obrazu, videa nebo zvuku. Pomocí velkých datových sad obrázků, zvuku a videa napodobuje něčí hlas nebo výraz obličeje. Tímto způsobem mohou podvodníci přimět vlivné lidi říkat nebo dělat věci, které ve skutečnosti neřekli nebo neudělali. Ale pozor, také se používá k finančním podvodům.

Co je Deepfake a koho se to týká?

Rozdíl mezi deepfake a generativní umělou inteligencí spočívá v tom, že u generativní umělé inteligence zadáte výzvu k položení otázky a ta pravděpodobně vrátí odpověď. technologie deepfake využívá AI, ale je navržena tak, aby produkovala video nebo audio obsah na rozdíl od písemných odpovědí, které odesílá jazykový model.

Deepfake videa často transformují existující zdrojový obsah, kde je jedna osoba vyměněna za jinou. Vytvářejí také zcela originální obsah, kde je někdo zastoupen, jak dělá nebo říká něco, co neudělal nebo neřekl.

Největší nebezpečí, které deepfake představuje, je jeho schopnost šířit nepravdivé informace, které vypadají, že pocházejí z důvěryhodných zdrojů. Například v roce 2022 bylo zveřejněno deepfake video, na kterém ukrajinský prezident Volodymyr Zelenskyj žádá své vojáky, aby se vzdali.

Své k tomu mohou říci také klienti Fio banky. Na twitteru se objevilo video, v němž pracovník Fio banky upozorňuje klienta, že nedokončil transakci ve výši 4500 korun a takových pokusů podle vyjádření finanční instituce přibývá.

Videa se však dají ve většině případů po hlubším prozkoumání rozeznat.

Typické znaky v obličejových manipulacích

Viditelné přechody: Při procesu výměny tváří je tvář subjektu vložena do hlavy jiné osoby. To může vést k viditelným artefaktům ve švu kolem obličeje. Je také možné, že se při tomto přechodu změní barva a textura pleti nebo že původní obličej je patrný v některých pixelech na okraji obličeje.
Rozostření ostrých kontur: AI se při výměně obličeje často nenaučí vytvářet ostré kontury, jako jsou ty, které se nacházejí na zubech nebo očích.
Omezená mimika, nekonzistentní osvětlení: Kvůli omezenému datovému toku se může stát, že AI je jen částečně schopna správně zobrazit některé mimiky nebo světelné situace. Profilový pohled na obličej je často nedostatečný, takže otočení hlavy může vést chybám, kdy se obličej například rozmaže.

Fake President

Nejčastější podvod se nazývá „Fake President“. Podvodníci se zde vydávají za vedoucí pracovníky společnosti a používají audio a video deepfake k napodobování generálního ředitele, vrcholového managera nebo jiných klíčových lidí. Poté můžete přimět zaměstnance nebo finanční oddělení, aby uvolnili finanční prostředky nebo odhalili důvěrné informace.

Tento podvod zkusil na vlastní kůži také zakladatel a výkonný ředitel společnosti GymBeam Dalibor Cicman. Jeho kolegovi z firmy přišla na WhatsApp zpráva z Cicmanova účtu, který byl téměř k nerozeznání od originálu. Ve zprávě bylo uvedeno, že si Cicman potřebuje promluvit s kolegou přes komunikační aplikaci Microsoft Teams.

“Na videohovoru byla moje deepfake kopie společně s další osobou. Další osobu moje kopie představila jako našeho externího právníka, většinu moderoval on. Během hovoru se snažili zjistit zůstatky na firemních bankovních účtech.”

Tento případ naštěstí dopadl dobře, ale mnoho ostatních takové štěstí nemělo. V Německu se stále vyšetřuje případ, kdy podvodníci získali dokonce 35 milionů EUR.

Nebezpečí Deefake

Technologie falšování mediální identity se v posledních letech výrazně rozvinula, zejména v důsledku pokroku v oblasti umělé inteligence. Současné výzkumy naznačují, že tento trend bude pokračovat a odhalování padělků bude v budoucnu stále obtížnější. Dá se také předpokládat, že množství dat, která deepfake vyžaduje, bude neustále klesat. Dokonce i pro laiky je již dnes možné vytvořit vysoce kvalitní deepfake.

Na internetu lze najít několik nástrojů, které se běžně používají ke generování deepfake během několika sekund. Mezi tyto nástroje patří Deep Art Effects, Deepswap, Deep Video Portraits, FaceApp, FaceMagic, MyHeritage, Wav2Lip, Wombo a Zao.

Lze předpokládat, že potřebné úsilí při vytváření deepfake videí se bude díky zdokonalování a zvyšování dostupnosti veřejných nástrojů neustále snižovat, takže frekvence útoků pomocí této technologie by se mohla výrazně zvýšit.

Jak se chránit?

Dobře udělaný deepfake je téměř nemožně nebo obtížně zjistitelný, zejména po telefonu. Obecným pravidlem je zachovat klid, zavolat druhou osobu a rychle zavolat údajnému nadřízenému nebo pracovníkovi banky pomocí známého čísla. Pomoci mohou i kódová slova nebo dotazování se na konkrétní místa nebo okolnosti, které zná pouze dotyčná osoba.

Kromě toho, pokud má společnost v minulosti důvěryhodnou, autentickou, spolehlivou a transparentní reputaci, bude pro lidi těžké uvěřit. Doporučujeme dávat si pozor na jakékoliv podezřelé e-maily nebo zprávy, které se chtějí dostat k ověření účtu, ověření totožnosti nebo k odeslání platby.

Nicméně, rozvoj deepfake videí také pohání vývoj technologií pro detekci a ověřování falešných zvukových a video souborů. Výzkumníci a vývojáři pracují na vylepšení algoritmů, které dokážou identifikovat taková videa. Na trhu existují nástroje, které nabízejí ověřování a sledovatelnost k označení toho, že něco není syntetické, jako například FakeCatcher od Intelu. Tento nástroj sleduje průtok krve v pixelech ve videu.

Mnozí jsou mírně pesimističtí, detekční nástroje se vyvíjejí, pak je protivníci obejdou a pak se musí vyvinout upgrade. Je to letitý příběh s kybernetickou bezpečností.

Technologie deepfake se neustále vyvíjí. Před dvěma lety bylo velmi snadné rozpoznat deepfake videa podle trhaných pohybů nebo strašidelných očí, které nikdy nemrkly. Nejnovější generace se však vyvinula a přizpůsobila.

Deepfake videa jsou obecně legální a orgány činné v trestním řízení s nimi mohou dělat jen málo, navzdory vážným hrozbám, které představují. Jsou nezákonná pouze tehdy, pokud porušují stávající zákony, jako je dětská pornografie, pomluva nebo nenávistné projevy.

Deepfake prostě nezmizí, takže firmy musí proaktivně přemýšlet o možnosti, že by se mohly stát cílem a učinit opatření.

Související články: