top of page

Kybernetická hrozba umělé inteligence Google LaMDA



Umělá inteligence (AI), výraz používaný od 50. let 20. století, je definována jako inteligence, kterou projevují stroje, na rozdíl od přirozené inteligence, kterou projevují lidé. Zatímco stroje jsou stále inteligentnější (umělá inteligence se dnes běžně používá k rozpoznávání řeči, rozhodování a vizuálnímu vnímání) revoluce robotů zůstala pouze součástí vědeckofantastických příběhů.


To platilo až do začátku letošního roku, kdy jeden inženýr společnosti Google odvážně prohlásil, že LaMDA, dosud nezveřejněný chatbot poháněný strojovým učením a navržený společností Google k vytváření přirozeného dialogu, dosáhl úrovně vědomí.


Mnozí z komunity umělé inteligence se proti tvrzení tohoto inženýra ohradili. Kontroverzní příspěvek na blogu - v němž podrobně popsal své přesvědčení, že umělá inteligence společnosti Google dosáhla vnímání a schopnosti prožívat pocity a myšlenky - však znovu vyvolal obavy a očekávání ohledně toho, čeho je tato technologie schopna. Koneckonců, pokud umělá inteligence dokáže oklamat lidi, aby si mysleli, že je skutečná, co dalšího může tato technologie lidem namluvit?


Útoky umělé inteligence: dnes, nikoliv zítra

Obavy se zvýšily zejména v odvětví kybernetické bezpečnosti, kde se odborníci stále více obávají útoků umělé inteligence, a to jak nyní, tak v blízké budoucnosti. Nedávná zpráva společnosti Forrester Consulting zjistila, že 88 % osob s rozhodovací pravomocí v bezpečnostním průmyslu se domnívá, že útočná AI je na obzoru, a téměř dvě třetiny z nich očekávají, že AI povede nové útoky.


Tyto obavy nejsou neopodstatněné, protože protivníci již využívají technologie AI a strojového učení (ML) k automatizovanějším, agresivnějším a koordinovanějším útokům.


Využitím AI a ML mohou hackeři efektivněji dosáhnout hlubšího porozumění tomu, jak se jim organizace snaží zabránit v průniku do jejich prostředí. Tyto technologie také umožňují útočníkům, aby byli s každým dalším úspěchem a každým dalším neúspěchem chytřejší, což ztěžuje jejich predikování a zastavení.


Napodobování AI a deepfakes na vzestupu

Nejvíce znepokojující je, že útočníci mohou tyto technologie využívat k napodobování důvěryhodných subjektů, což jim umožňuje zjistit si informace o skutečné osobě, a poté pomocí botů kopírovat její jednání a vyjadřování.


Znepokojivým příkladem jsou tzv. deep fake phishingové útoky. Hackeři nejenže využívají umělou inteligenci k tomu, aby byli rafinovanější při vytváření phishingových e-mailů, ale vytvářejí také deep fake audio a video, které je tak sofistikované, že oklame oběť a přesvědčí ji, že osoba na druhém konci hovoru je tím, za koho se vydává - kolegou nebo klientem.


V jednom známém příkladu z roku 2019 kyberzločinci podle deníku The Wall Street Journal použili deepfake phishing, aby oklamali generálního ředitele britské energetické firmy, a přiměli ho převést jim 243 000 dolarů. Pomocí softwaru pro falšování hlasu, založeného na umělé inteligenci, se pachatelé úspěšně vydávali za šéfa mateřské společnosti firmy, takže generální ředitel uvěřil, že mluví se svým šéfem.


"Ačkoli je v současné době obtížné vytvořit deepfake videa, která vyžadují zdroje a sofistikované postupy, jsou stále dostupnější," varoval na začátku tohoto roku Bryan A. Vorndran, zástupce ředitele kybernetického oddělení FBI.


"Kyberzločinci mohou vytvářet vysoce personalizovaný obsah pro cílené sociální inženýrství, spear phishing, kompromitaci firemních e-mailů, další podvodná schémata a k okrádání zneužitelných osob. Tyto techniky by mohli využívat ke zneužívání zahraničního vlivu a šíření dezinformací i jednotlivé státy"


Ransomware poháněný umělou inteligencí: otázka kdy, ne jestli

Dalším velkým problémem jsou útoky ransomwaru založené na umělé inteligenci. Ačkoli se naštěstí jedná o koncept, který se zatím nedostal na titulní stránky novin, mnozí odborníci se domnívají, že je jen otázkou času, kdy kyberzločinci začnou využívat automatizaci ke kompromitaci mnoha slabých cílů v krátkém čase.


Existují obavy, že malware řízený umělou inteligencí by mohl být schopen se sám šířit prostřednictvím řady autonomních rozhodnutí, inteligentně přizpůsobených parametrům napadeného systému.


Tento typ malwaru bude schopen učit se kontextu tím, že bude tiše sedět v infikovaném prostředí a pozorovat běžné podnikové operace: interní zařízení, se kterými infikovaný stroj komunikuje, porty a protokoly, které používá, a účty, které ho používají, což mu umožní útočit na objevená slabá místa nebo napodobovat důvěryhodné prvky systému.


Vzhledem ke zdrojům, které by byly k provedení takových útoků zapotřebí, je podle odborníků pravděpodobné, že by takový nástroj jako první vyvinul některý z národních států.


Není však příliš divoké představit si svět, v němž by k vývoji útočné kybernetické umělé inteligence byli motivováni samotní původci hrozeb. Koneckonců, tato technologie by jim přinesla značné finanční zisky. Schopnost automatizovat některé z dovednostně nejnáročnějších částí těchto operací, povede k vyšší návratnosti investic pro útočníky.


Jak porazit škodlivou AI

Kybernetické hrozby založené na umělé inteligenci sice zatím nejsou rozšířené, ale měly by být pro organizace důvodem k obavám, zejména pro ty, které již selhávají v boji proti pokročilým hrozbám pomocí starších nástrojů a zastaralého softwaru. Umělá inteligence ještě více ztíží obráncům odhalení konkrétního bota nebo útoku, a mohla by dokonce pomoci útočníkům navrhovat útoky, které vytvářejí nové mutace na základě typu obrany spuštěné při útoku.


Je jasné, že AI by útočníkům poskytla převahu. Jakmile se tak stane, bude pro obránce náročné - ne-li nemožné - získat zpět kontrolu.


Přesto lze AI použít i jako zbraň proti škodlivé AI, říká Daniel O'Neill, ředitel řízené detekce a reakce na bezpečnostní operace ve společnosti Bitdefender. "Rozpoznávání, učení a modelování hrozeb vzorců chování zvýší schopnosti specialistů na kybernetickou bezpečnost reagovat na indikátory útoku na základě anomálií, nikoliv pouze známých indikátorů kompromitace."


"Automatizace založená na umělé inteligenci poskytne hlubší přehled o chování koncových bodů, čímž se dále sníží závislost na detekci statických výstrah na základě známých signatur hrozeb. Díky učení a evidenci toho, co je normální, se zvýší pravděpodobnost identifikace abnormálního chování v prostředí, což umožní analytikům rychleji třídit hrozby a útoky."
39 zobrazení0 komentářů

Nejnovější příspěvky

Zobrazit vše
bottom of page