Závody ve zbrojení umělou inteligencí v kybernetické bezpečnosti

Prostředí kybernetické bezpečnosti v roce 2025 je definováno soubojem mezi útoky poháněnými umělou inteligencí (AI) a obranou poháněnou AI. Vzhledem k tomu, že aktéři hrozeb využívají generativní umělou inteligenci (Gen AI) k vytváření hyperrealistických phishingových kampaní, polymorfního malwaru a sociálního inženýrství založeného na deepfake, obránci se naopak předhánějí v zavádění adaptivních bezpečnostních rámců. Pojďme se podívat, jak AI mění podobu kybernetické války a čemu by měli profesionálové dát přednost, aby si udrželi náskok.
Kyberzločinci a aktéři z národních států využívají v současné době AI k automatizaci a zdokonalování útoků v nebývalém rozsahu. Například Gen AI umožňuje aktérům hrozeb vytvářet phishingové e-maily k nerozeznání od legitimní komunikace a obcházet tak tradiční e-mailové filtry. Technologie Deepfake již byla úspěšně použita k ukradení identity přes online meeting a vydávání se za vedoucí pracovníky. Zaměstnanci nepoznali, že se za ukradenou tváří skrývá hacker, který je úspěšně oklamal, a oni v dobré víře uposlechli pokyny a převedli miliony – jak bylo vidět v případě finančního podvodu v Hongkongu za 25 milionů dolarů ze začátku loňského roku.
Polymorfní malware, který dynamicky mění svůj kód, aby se vyhnul detekci, je další hrozbou založenou na umělé inteligenci. Tyto nástroje využívají zranitelnosti rychleji, než je dokáží identifikovat a opravit lidští analytici, přičemž skupiny ransomwaru používají taktiku „trojího vydírání“: šifrují data, kradou citlivé informace a hrozí fyzickým narušením infrastruktury.
Na druhé straně AI přináší revoluci v odhalování hrozeb a reakci na ně. Bezpečnostní operační centra (SOC) nyní využívají AI k analýze petabajtů dat a identifikují anomálie, jako jsou jemné vzorce síťového provozu nebo neoprávněné postranní a na první pohled nenápadné změny. Platformy řízené umělou inteligencí mohou například simulovat scénáře útoků pro zátěžové testování systémů a pomáhat tak organizacím proaktivně řešit slabá místa.
Kvantově odolná kryptografie také získává na popularitě jako obrana proti budoucím útokům s využitím AI. Jak NIST postupně dokončuje standardy postkvantového šifrování, firmy se posouvají a upřednostňují modernizaci kryptografie, aby ochránily svá citlivá data před hrozbami kvantového dešifrování.
Navzdory schopnostem umělé inteligence zůstává lidská odbornost nenahraditelná. Modely AI mají stále potíže s novými vektory útoků a vyžadují, aby bezpečnostní týmy interpretovaly kontextové nuance – například rozlišovaly mezi legitimním chováním uživatelů a sofistikovanými pokusy o vydávání se za ně.
Zvyšování kvalifikace je zcela zásadní. Po odbornících na kybernetickou bezpečnost střední úrovně je vysoká poptávka, aby mohli spravovat nástroje umělé inteligence, řešit rizika konvergence OT/IT (např. zabezpečení průmyslových řídicích systémů) a orientovat se v regulačním prostředí, jako je směrnice EU NIS2 a nově přijímaný zákon o kybernetické bezpečnosti. Architektura nulové důvěryhodnosti (Zero Trust Architecture, ZTA) se mezitím rozšiřuje nad rámec technických zařízení a prosazuje průběžné ověřování identit a pracovních postupů, čímž zmírňuje vnitřní hrozby. S tím také souvisí nutnost zvyšování znalosti organizace o vlastních procesech.
Státem sponzorované útoky se stále častěji zaměřují na kritickou infrastrukturu, přičemž skupiny jako čínský „Salt Typhoon“ zneužívají zejména zranitelnosti v telekomunikacích. Útoky na dodavatelský řetězec, jako byl incident s ransomwarem společnosti CDK Global, který ochromil prodejce automobilů, poukazují na kaskádovitá rizika vyplývající ze závislosti na třetích stranách. Organizace nyní čím dále, tím častěji zavádějí strategie „discovery-first“, aby identifikovaly nedostatečně spravovaná aktiva a prosadily přísnější hodnocení rizik dodavatelů. Po pravdě se příliš nelze NÚKIBU divit, že tak tlačí na bezpečnost dodavatelského řetězce. Současný odpor podniků a firem vůči návrhům NÚKIBu je dána spíše nezkušeností a neznalostí než čímkoliv jiným.
Vzestup hrozeb založených na umělé inteligenci vyžaduje mezioborovou spolupráci. Iniciativy, jako je bezpečnostní rámec AI společnosti MITRE, a regulační úsilí o standardizaci správy dat AI jsou kroky správným směrem. Na organizační úrovni přecházejí CISO stále častěji z technických rolí na pozice strategických poradců a vyvažují inovace vůči rizikům v oblasti dodržování předpisů a odpovědnosti, tedy compliance.
Závody ve zbrojení AI nejsou vzdálenou budoucností – jsou tady. Odborníci na kybernetickou bezpečnost musí přijmout dvojí způsob myšlení: přijmout obranný potenciál AI a zároveň předvídat zneužití umělé inteligence. Integrací lidské intuice s efektivitou strojů, podporou transparentnosti systémů AI a upřednostňováním odolnosti před pouhým dodržováním předpisů může být tím správným lékem na současný boom hackerských útoků.
Zůstaňte ostražití a pamatujte, bezpečnost není pohodlná ani levná.