Deepfake
Co je deepfake?
Podvody označované jako deepfake jsou založeny na technologii umělé inteligence, která umožňuje vytvářet velmi realistické falešné obrazy, hlasové záznamy nebo videa. Název vznikl spojením pojmů „deep learning“, který označuje technologii hlubokého učení, která je základem umělé inteligence, a „fake“, tedy podvod. Deepfake je typickou ukázku zneužití moderních technologií k podvodům, šíření dezinformací, manipulaci s veřejným míněním nebo k vydírání.
Známým příkladem jsou například falešné fotografie a videa celebrit, politiků či jiných známých osobností v choulostivých nebo kompromitujících situacích, které mají za cíl je zesměšnit nebo jim zničit dobrou pověst.
Například v únoru roku 2024 se na Facebooku objevilo více než 100 deepfake videoreklam, ve kterých byl podvržený videozáznam britského premiéra Rishiho Sunaka. Reklamy, které oslovily až 400 000 lidí, obsahovaly falešné informace o finančním skandálu Sunaka a propagovaly podvodnou investiční platformu, kterou údajně podporoval i Elon Musk.
Ve stejné době narušil deepfake podvod prezidentské primárky v New Hampshire. Telefonické hovory generované umělou inteligencí s hlasem prezidenta Joea Bidena vyzývaly americké voliče, aby se zdrželi hlasování, protože jejich hlasy nebudou započítány.
Deepfake jako nástroj kyberzločinců
Stále častěji se setkáváme také s podvrženými videozáznamy nebo telefonními hovory, kdy vysoce postavení manažeři firem dávají svým podřízeným pokyny k urgentním finančním převodům ve prospěch účtů kybernetických zločinců. Přesně takový trik využili kyberzločinci například i proti britské firmě ARUP v únoru roku 2024. Přesvědčivý hlas finančního ředitele
společnosti, vygenerovaný umělou inteligencí, oklamal zaměstnance finančního oddělení, který na účet podvodníků převedl 25 milionů dolarů. V jednom z dalších zaznamenaných případů kyberzločinci vygenerovali falešné nahrávky dětí, aby předstírali jejich únos a vydírali jejich rodiče.
Ochrana proti deepfake je složitá
Technologie umělé inteligence se zlepšuje, takže je stále obtížnější podvržené obrázky, videa nebo hlasové záznamy rozpoznat. Jakákoli pravidla či omezení, která by měla zabránit zneužívání umělé inteligence k deepfake podvodům, samozřejmě nebudou kyberzločinci respektovat.
Proto se do boje proti deepfake rovněž nasazuje umělá inteligence, která by měla falešný obsah podle lidmi běžně nevnímaných detailů rozpoznat a upozornit na něj. To ale jen podpoří závody ve zlepšování technologií na obou stranách.
Základní obranou je tedy vlastní kritické myšlení a ověřování informací v případě jakéhokoli podezření, že to, co vidíme a slyšíme, nemusí být autentické.
Přehledy a statistiky kyber hrozeb
Více o ooo2 Security0 mil.
POČET HROZEB ZA ROK 20220 mil.
POČET HROZEB ZA ROK 2023-
256 Led
-
226 úno
-
403 Bře
-
379 Dub
-
455 Kvě
-
442 čer
-
289 čer
-
99 Srp
-
273 Zář
-
227 říj
-
247 Lis
-
253 Pro