V lednu 2024 dostal finanční manažer hongkongské pobočky inženýrské firmy Arup e-mail od CFO. Žádost o urgentní převod peněz. Podezřelé? Ano. Proto si vyžádal videohovor.
Na obrazovce viděl CFO a několik dalších kolegů. Všichni vypadali normálně, mluvili normálně, reagovali na dotazy. Transakci schválil.
Výsledek? 25 milionů dolarů nenávratně pryč. Všichni účastníci hovoru byli deepfake – umělou inteligencí vygenerované napodobeniny skutečných lidí.
Tohle není sci-fi. Tohle je realita kybernetických hrozeb.
Čísla, která nedají spát
Než se podíváme na to, jak se bránit, pojďme si uvědomit rozsah problému:
- 87 % organizací celosvětově zažilo v posledním roce útok s využitím AI
- 82,6 % phishingových e-mailů v roce 2025 využívá nějakou formu generativní AI
- Deepfake incidenty vzrostly o 680 % meziročně (první čtvrtletí 2025 překonalo celý rok 2024)
- AI-generovaný phishing má 54% úspěšnost prokliků – tradiční phishing jen 12 %
- CEO podvody cílí na 400 firem denně
A nejhorší? Vytvoření přesvědčivého deepfake dnes stojí méně než 2 dolary a zabere pár minut.
Jak AI nahrává útočníkům
Konec gramatických chyb
Pamatujete, jak jste poznali phishing podle kostrbatého překladu a pravopisných chyb? To je minulost. Velké jazykové modely (LLM) jako ChatGPT generují bezchybné texty v jakémkoli jazyce, včetně češtiny. A nejen to – dokážou napodobit styl komunikace konkrétního člověka, pokud mají přístup k jeho e-mailům nebo sociálním sítím.
32 % phishingových e-mailů v první polovině 2025 obsahovalo nadprůměrně dlouhý text – jasný indikátor použití AI, protože lidští útočníci jsou obvykle struční.
Deepfake na telefonu i ve videu
V roce 2019 přišla britská energetická firma o 220 000 eur, když útočníci naklonovali hlas jejího CEO a zavolali finančnímu řediteli s žádostí o převod. Tehdy to byla rarita. Dnes?
- 1 ze 4 dospělých zažil pokus o AI hlasový podvod
- Naklonovat hlas trvá méně než 60 sekund – stačí pár veřejných nahrávek z konferencí nebo sociálních sítí
- Video deepfaky už zvládají multi-person hovory v reálném čase
Případ Arup nebyl ojedinělý. V březnu 2025 podobný útok v Singapuru připravil další firmu o téměř půl milionu dolarů. A v Itálii se na začátku roku 2025 stal obětí deepfake podvodu dokonce Giorgio Armani.
Personalizace jako zbraň
AI dokáže zpracovat obrovské množství veřejně dostupných dat – LinkedIn profily, firemní weby, tiskové zprávy, sociální sítě. Z toho vytvoří detailní profil oběti a přizpůsobí útok přesně jí.
Útočník ví, na jakém projektu pracujete, kdo je váš šéf, s jakými dodavateli komunikujete. E-mail pak nepřijde od "nigerijského prince", ale od vašeho skutečného kolegy s odkazem na skutečný projekt.
Collaboration tools jako nové bojiště
Slack, Teams, Zoom – nástroje, bez kterých si už neumíme představit práci. A právě ty se stávají terčem:
- Útočníci kompromitují účty a pak AI pomáhá "napasovat se" do probíhajících konverzací
- Video hovory už nejsou důkazem identity – deepfake technologie je real-time
- Sdílené dokumenty mohou obsahovat škodlivý kód maskovaný jako legitimní firemní materiál
Problém? V těchto nástrojích jsme zvyklí důvěřovat. Když vám kolega pošle na Slacku odkaz, nekontrolujete ho tak pečlivě jako e-mail od neznámého odesílatele.
AI v obraně: Jak obrátit zbraň proti útočníkům
Dobrá zpráva? Ta samá technologie, která posiluje útočníky, může dramaticky zlepšit vaši obranu.
Detekce anomálií místo hledání podpisů
Tradiční antivirové systémy hledají známé vzory – "podpisy" malwaru. Problém: polymorfní malware generovaný AI mění svůj kód tak rychle, že podpisová detekce nestíhá.
AI-powered systémy fungují jinak. Učí se, jak vypadá "normální" chování ve vaší síti, a pak detekují anomálie – i ty, které nikdy předtím neviděly. Uživatel se najednou přihlašuje ve tři ráno z jiné země? AI to zachytí, i když to není známý typ útoku.
Firmy používající AI-driven bezpečnostní platformy:
- Detekují hrozby o 60 % rychleji
- Dosahují 95% přesnosti detekce (oproti 85 % u tradičních nástrojů)
- Ušetří v průměru 2,2 milionu dolarů na nákladech spojených s úniky dat
Automatizovaná reakce
Když AI detekuje hrozbu, může okamžitě reagovat – izolovat kompromitovaný účet, zablokovat podezřelou komunikaci, spustit forenzní analýzu. Bez čekání na lidského analytika.
To je významné, protože:
- Průměrný čas detekce úniku dat je stále kolem 200 dní
- Firmy, které zvládly úniku zabránit do 200 dní, ušetřily v průměru milion dolarů
Prediktivní analýza
Nejpokročilejší AI systémy nejen reagují – předvídají. Analyzují historická data, globální threat intelligence a vzorce chování útočníků. Dokážou identifikovat zranitelnosti dřív, než je útočníci zneužijí.
Praktické kroky: Co udělat hned
1. Zavedení verifikačních protokolů
Pro jakýkoli finanční transfer nebo citlivou akci nastavte dvoufaktorové ověření mimo digitální kanály:
- Callback na ověřené telefonní číslo (ne to z e-mailu!)
- Předem domluvené kódové slovo pro urgentní situace
- Potvrzení od druhé osoby z vedení
Firma Wiz (ano, ta co se zabývá cloud bezpečností) odrazila deepfake útok právě proto, že zaměstnanci poznali, že naklonovaný hlas CEO zněl "jinak než obvykle".
2. Školení zaměstnanců na AI hrozby
Klasické roční školení už nestačí. Potřebujete:
- Simulace phishingu včetně AI-generovaných útoků
- Praktické ukázky deepfake technologie (ať lidé vidí, jak přesvědčivé to je)
- Důraz na verifikaci, ne jen na "rozpoznání podezřelých znaků"
Firmy s průběžným security awareness programem zaznamenávají o 50 % méně skutečných incidentů.
3. Implementace AI-powered bezpečnostních nástrojů
69 % podniků věří, že AI je pro kybernetickou bezpečnost nezbytná. Zvažte:
- UEBA (User and Entity Behavior Analytics) – detekce anomálií v chování
- AI-enhanced e-mail filtering – nejen na základě pravidel, ale kontextu
- Deepfake detection tools – pro ověření video a audio obsahu
4. Zero Trust přístup
"Důvěřuj, ale prověřuj" nahraďte heslem "Nikdy nedůvěřuj, vždy prověřuj":
- Segmentace sítě
- Nejmenší možná oprávnění
- Kontinuální ověřování identity
5. Ochrana veřejně dostupných dat
Čím méně materiálu o vás útočníci najdou, tím těžší je personalizovaný útok:
- Omezte veřejné výstupy vedení (videa, podcasty, rozhovory)
- Školte zaměstnance o sdílení na sociálních sítích
- Auditujte, co o firmě najdete jednoduché Google vyhledávání
Co říká zákon?
Zákon o kybernetické bezpečnosti 264/2025 Sb. a vyhláška 410/2025 Sb. požadují:
- Detekci kybernetických bezpečnostních událostí (§ 9)
- Školení zaměstnanců včetně bezpečnostního povědomí (§ 5)
- Řízení přístupu a vícefaktorovou autentizaci (§ 7)
- Zaznamenávání a uchovávání bezpečnostních událostí
AI hrozby nejsou výslovně zmíněny – ale opatření, která zákon požaduje, jsou přesně ta, která proti nim chrání.
Závěr: Závod ve zbrojení, který nemůžete ignorovat
AI v kybernetické bezpečnosti je klasický příklad dvousečné zbraně. Útočníci ji používají k vytváření dokonalejších podvodů. Obránci ji používají k rychlejší detekci a reakci.
Rozdíl mezi firmou, která přijde o miliony, a firmou, která útok odrazí? Není to štěstí. Je to kombinace:
- Chytrých procesů (verifikace, Zero Trust)
- Vzdělaných lidí (průběžné školení)
- Moderních nástrojů (AI-powered detekce)
Kraita Cyber One vám pomůže s GAP analýzou – zjistíte, kde máte mezery v zabezpečení a co prioritně řešit. AI hrozby budou sílit. Otázka není jestli, ale kdy se zaměří na vás.
Vyzkoušejte demo na kraita.io nebo nás kontaktujte na nezávaznou konzultaci.


