Deepfake útoky silně na vzestupu. Co to je a jak je poznat?
Petra Javornická
13. 02. 2024
Americká FBI v roce 2021 varovala před novým typem hackerských útoku: deepfakes. A předestřela scénář, ve kterém se tento typ podvodů může do dvou let vyvinout v hlavní hrozbu pro stát, firmy i jednotlivce. A v roce 2023 jsme už skutečně mohli pozorovat deepfakes na mnoha frontách, a to i u nás.
O čem je řeč? Jedná se o technologii umělé inteligence, která umožňuje vytvářet realistická videa nebo audionahrávky, ve kterých osoby zdánlivě říkají nebo dělají něco, co ve skutečnosti nikdy neřekly nebo neudělaly. Je čas i ve firmách začít věnovat pozornost podvodům, které deepfakes využívají. Generativní umělá inteligence zažila totiž díky jednoduchosti a přístupnosti uživatelských rozhraní v roce 2023 boom – a spolu s ní bohužel také deepfake.
Svoji zkušenost s tímto typem útoku má i zakladatel české společnosti GymBeam, která se zabývá prodejem fitness produktů. Zažil situaci, kdy se jeho falešná tvář objevila ve videohovoru s jeho kolegou. Ve videohovoru byla deepfake kopie šéfa GymBeamu s další osobou, kterou představila jako externího právníka, jenž hovor moderoval. Během telefonátu se falešná dvojice snažila zjistit zůstatky na firemních bankovních účtech.
Během parlamentních voleb na Slovensku zase kolovala deepfake videa se změněnými hlasy lídra jedné z kandidujících stran, který v nich hovořil o tom, jak strana plánuje volby zmanipulovat.
A již ani není pravidlem, že využijí hackeři pouze jednoho deepfake videa. Podvodníci nedávno přesvědčili zaměstnance jedné firmy z Hong Kongu, aby na jejich účty převedl přes dvacet milionu dolarů. Útočníci vytvořili deepfake verze několika kolegů zaměstnance, včetně finančního ředitele firmy. Oběť tohoto útoku během videohovoru převedla skrz 15 transakcí celkem 25,6 milionu dolarů na různé bankovní účty.
Co je to deepfake?
Deepfake je typ syntetického média, které využívá generativní umělou inteligenci a strojové učení k tvorbě hyperrealistických obrazů, zvuků či videí. Pomocí pokročilých algoritmů umí vytvářet realistické imitace obličeje, hlasu a pohybu. Generativní modely AI totiž umí generovat obsah, který je podobný existujícím datům. A čím více má deepfake technologie učicích dat, tím přesvědčivější výsledek vytvoří. Proto se často objevují deepfake videa s osobnostmi, jako jsou politici, herci nebo jinak veřejně viditelné osoby. A výsledek? Podvrhy se stávají čím dál přesvědčivější.
Deepfake video může vytvořit kdokoliv
Když do vyhledávače zadáte heslo „AI deepfake generator tools“, rychle zjistíte, jak snadno se člověk dostane k nástrojům, s jejichž pomocí může během několika minut vyrobit těžko rozpoznatelné deepfake video. Pro firmy jsou nebezpečné právě tím, že dokážou vytvářet autentické imitace například vašeho šéfa nebo kolegy. Videa s nimi pak mohou podvodníci využívat ke klamavé komunikaci se zaměstnanci firem a k ještě sofistikovanějším podvodům.
Je vůbec legální deepfake videa vytvářet? Legální status této technologie se liší v závislosti na jurisdikci jednotlivých států a kontextu použití. Obecně ale platí, že vytváření a šíření deepfake materiálů není samo o sobě nezákonné, pokud neporušují osobní nebo autorská práva. Také je zpravidla zakázané vytvářet obsah, který je jinak nelegální (jako například dětská pornografie). V některých zemích byly přijaty zákony zaměřené specificky na deepfake, které se snaží chránit oběti před zneužitím, zejména v kontextu pomluv a šíření nepravdivých informací. Nicméně, vzhledem k rychlému vývoji technologií legislativa často zaostává a nezabývá se všemi aspekty a důsledky možného zneužití.
Deepfake se stává klíčovým prvkem phishingových kampaní a dalších metod sociálního inženýrství. Zmiňovanému podvodu v kauze GymBeam se říká odborně CEO fraud a je jednou z technik tzv. impersonace. Jde o techniku, při které útočník předstírá, že je důvěryhodná osoba nebo entita, aby získal citlivé informace, přístup k systémům nebo ovlivnil oběť k provádění akcí, které jsou v jeho prospěch.
Impersonace jako kybernetický postrach. O co se jedná?
Zobrazit článek
V důsledku podvodného obsahu můžou podniky utrpět další výrazné škody – ať už finanční, nebo na reputaci. Fiktivní výroky a rozhovory ze strany vedení totiž mohou ovlivnit veřejné mínění. Vydávat se za vedoucí představitele firem nebo finanční úředníky a získat přístup do sítí organizace a k citlivým informacím je také čím dál jednodušší.
Podle studie společnosti KPMG přitom firmy na tento typ hrozby reagují pomalu. Až 46 % organizací přiznalo, že zatím nepodniklo žádné specifické kroky k ochraně před deepfakes, a většina lídrů velkých společností ještě nevnímá potenciál zmanipulovaného obsahu jako jednu z hlavních hrozeb pro svou organizaci.
Jak se bránit před deepfake podvody?
Organizace mohou podniknout řadu kroků k identifikaci deepfakes:
- V první řadě by měly zvážit implementaci technologií pro detekci deepfakes a určení původu mediálního obsahu skrze ověřování zdroje informací, názorů odborníků nebo porovnání informací v něm obsažených s informacemi z jiných věrohodných zdrojů.
- Důležité jsou také nástroje pro verifikaci v reálném čase nebo techniky pasivní detekce, mezi které patří třeba kontrola metadat spojených s podezřelým mediálním souborem.
- Nezbytná je ochrana vysoce postavených manažerů a jejich komunikace. AI a strojové učení lze totiž použít ke sledování odchylek v datech a odhalování anomálií spojených s deepfake obsahem.
Například Deepware Scanner, nástroj vyvinutý společností Deepware, se zaměřuje na detekci deepfakes s využitím umělé inteligence a konvolučních neuronových sítí k analýze obličejů a pohybů v obrazech a videích. Microsoft Video Authenticator zase využívá umělou inteligenci pro analýzu a hodnocení videí s cílem identifikovat, jestli obsah vykazuje známky manipulace. Nástroj je součástí iniciativ Microsoftu zaměřených na boj proti dezinformacím. V rámci ověřování identity uživatele je pak nezbytným nástrojem také biometrie.
Co je behaviorální biometrika a k čemu slouží?
Zobrazit článek
Organizace mohou také podniknout kroky k minimalizaci dopadu škodlivých technik deepfake. Od sdílení informací o nejčastěji se objevujících podvodech přes teoretickou edukaci až po nácvik reakcí na pokusy o zneužití důvěry zaměstnanců. Odborná školení jsou v rámci prevence klíčová, především z hlediska rozpoznání deepfakes.
Podívejte se sami – poznali byste v tomto videu deepfake od reality?
Jak poznat deepfake obličej nebo falešného člověka?
- Zaměřte se na obličej.
- Věnujte pozornost tvářím a čelu. Zdá se vám pokožka příliš hladká nebo naopak moc vrásčitá? Odpovídá stáří pleti stáří vlasů a očí?
- Zkontrolujte také rozměry obličeje. Deepfake může být v některých rozměrech nesourodé.
- Podívejte se na oči a obočí. Objevují se stíny na místech, kde byste je očekávali?
- Věnujte pozornost brýlím. Dochází k oslnění? Není odlesků příliš mnoho? Mění se úhel světla, když se osoba pohybuje? Opět platí, že deepfake nemusí plně napodobit přirozené osvětlení.
- U mužských postav prozkoumejte vousy. Vypadají vousy skutečně? Technologie deepfake dokáže přidat nebo odebrat knír, kotlety nebo vousy. Ani ty ale nemusí vypadat přirozeně.
- Působí znaménka na obličeji realisticky?
- Mrká osoba normálně, málo, nebo příliš?
- Soustřeďte se také na pohyb rtů. Některé deepfakes jsou založeny na synchronizaci rtů. Vypadají pohyby rtů přirozeně?
- Pokud máte podezření na to, že s vámi mluví (ať už přes telefon, nebo videokonferenci) uměle vytvořená postava nebo někdo, kdo se za někoho vydává, zeptejte se na něco, co víte jen vy dva.
Kromě technologických nástrojů a zvyšování osobní ostražitosti je také důležité zavést v organizaci pevná procesní a organizační opatření. Například v případě finančních transakcí je nezbytné mít jasně definovaný proces ověřování identity a striktně ho dodržovat. Stejně důrazná pravidla by měla platit pro žádosti o sdělení hesel nebo přístupových kódů.
Důležitá je také implementace jasně definovaných komunikačních kanálů, které zaručují, že žádná kritická komunikace nevychází mimo oficiálně stanovené platformy. V případě jakýchkoliv pochybností či nejasností by měly být také zavedené postupy pro detekci odchylek, například prostřednictvím ověřovacích otázek nebo dvojitého ověření identity.
Závěrem lze říci, že s rychlým rozvojem technologie deepfake a generativní umělé inteligence čelíme nové výzvě v oblasti kybernetické bezpečnosti. Jak ukazují případy podvodů, jako je kauza GymBeam nebo zneužití deepfakes ve volební kampani na Slovensku, je zřejmé, že deepfakes představují reálnou a narůstající hrozbu. Rozpoznávání a ochrana před deepfakes jsou přitom nezbytné pro zachování firemní integrity a ochranu osobních údajů.
Co si z článku odnést?
- Deepfakes zvyšují riziko finančních ztrát nebo reputace firmy a představují sofistikovanější metodu sociálního inženýrství.
- Prostřednictvím deepfakes se můžou podvodníci vydávat za falešné vedoucí představitele firem, politiky, celebrity, nebo dokonce každého z nás.
- Deepfake útoky cílí na manipulaci s veřejným míněním nebo vedou k podvodům ve snaze dostat se k citlivým informacím.
- Klíčovou prevencí pro firmy je trénink zaměstnanců v rozpoznávání deepfake a implementace nástrojů pro jejich detekci a zjištění původu mediálního obsahu.
Petra Javornická
Marketingový specialista pro B2B
Byl pro vás článek užitečný?