top of page

Kybernetická hrozba umelej inteligencie Google LaMDA



Umelá inteligencia (AI), výraz používaný od 50. rokov 20. storočia, je definovaná ako inteligencia, ktorú prejavujú stroje, na rozdiel od prirodzenej inteligencie, ktorú prejavujú ľudia. Zatiaľ čo stroje sú stále inteligentnejšie (umelá inteligencia sa dnes bežne používa na rozpoznávanie reči, rozhodovanie a vizuálne vnímanie) revolúcia robotov zostala iba súčasťou vedecko-fantastických príbehov.


To platilo až do začiatku tohto roka, keď jeden inžinier spoločnosti Google odvážne vyhlásil, že LaMDA, zatiaľ nezverejnený chatbot poháňaný strojovým učením a navrhnutý spoločnosťou Google na vytváranie prirodzeného dialógu, dosiahol úroveň vedomia.


Mnohí z komunity umelej inteligencie sa proti tvrdeniu tohto inžiniera ohradili. Kontroverzný príspevok na blogu - v ktorom podrobne popísal svoje presvedčenie, že umelá inteligencia spoločnosti Google dosiahla vnímanie a schopnosti prežívať pocity a myšlienky - však znovu vyvolal obavy a očakávania ohľadom toho, čoho je táto technológia schopná. Koniec koncov, ak umelá inteligencia dokáže oklamať ľudí, aby si mysleli, že je skutočná, čo ďalšie môže táto technológia ľuďom nahovoriť?


Útoky umelej inteligencie: dnes, nie zajtra

Obavy sa zvýšili najmä v odvetví kybernetickej bezpečnosti, kde sa odborníci stále viac obávajú útokov umelej inteligencie, a to ako teraz, tak v blízkej budúcnosti. Nedávna správa spoločnosti Forrester Consulting zistila, že 88 % osôb s rozhodovacou právomocou v bezpečnostnom priemysle sa domnieva, že útočná AI je na obzore a takmer dve tretiny z nich očakávajú, že AI povedie nové útoky.


Tieto obavy nie sú neopodstatnené, pretože protivníci už využívajú technológie AI a strojového učenia (ML) k automatizovanejším, agresívnejším a koordinovanejším útokom.


Využitím AI a ML môžu hackeri efektívnejšie dosiahnuť hlbšie porozumenie tomu, ako sa im organizácia snaží zabrániť v prieniku do ich prostredia. Tieto technológie tiež umožňujú útočníkom, aby boli s každým ďalším úspechom a každým ďalším neúspechom múdrejší, čo sťažuje ich predikovanie a zastavenie.


Napodobňovanie AI a deepfakes na vzostupe

Najviac znepokojujúce je, že útočníci môžu tieto technológie využívať na napodobňovanie dôveryhodných subjektov, čo im umožňuje zistiť si informácie o skutočnej osobe, a potom pomocou topánok kopírovať jej konanie a vyjadrovanie.


Znepokojivým príkladom sú tzv. deep fake phishingové útoky. Hackeri nielenže využívajú umelú inteligenciu na to, aby boli rafinovanejší pri vytváraní phishingových e-mailov, ale vytvárajú aj deep fake audio a video, ktoré je tak sofistikované, že oklame obeť a presvedčí ju, že osoba na druhom konci hovoru je tým, za koho sa vydáva - kolegom alebo klientom.


V jednom známom príklade z roku 2019 kyberzločinci podľa denníka The Wall Street Journal použili deepfake phishing, aby oklamali generálneho riaditeľa britskej energetickej firmy, a prinútili ho previesť im 243 000 dolárov. Pomocou softvéru na falšovanie hlasu, založeného na umelej inteligencii, sa páchatelia úspešne vydávali za šéfa materskej spoločnosti firmy, takže generálny riaditeľ uveril, že hovorí so svojim šéfom.


"Hoci je v súčasnosti ťažké vytvoriť deepfake videá, ktoré vyžadujú zdroje a sofistikované postupy, sú stále dostupnejšie," varoval na začiatku tohto roka Bryan A. Vorndran, zástupca riaditeľa kybernetického oddelenia FBI.


"Kyberzločinci môžu vytvárať vysoko personalizovaný obsah pre cielené sociálne inžinierstvo, spear phishing, kompromitáciu firemných e-mailov, ďalšie podvodné schémy a na okrádanie zneužiteľných osôb. Tieto techniky by mohli využívať na zneužívanie zahraničného vplyvu a šírenie dezinformácií aj jednotlivé štáty"


Ransomware poháňaný umelou inteligenciou: otázka kedy, nie či

Ďalším veľkým problémom sú útoky ransomwaru založené na umelej inteligencii. Hoci sa našťastie jedná o koncept, ktorý sa zatiaľ nedostal na titulné stránky novín, mnohí odborníci sa domnievajú, že je len otázkou času, kedy kyberzločinci začnú využívať automatizáciu na kompromitáciu mnohých slabých cieľov v krátkom čase.


Existujú obavy, že malware riadený umelou inteligenciou by mohol byť schopný sa sám šíriť prostredníctvom radu autonómnych rozhodnutí, inteligentne prispôsobených parametrom napadnutého systému.


Tento typ malwaru bude schopný učiť sa kontextu tým, že bude ticho sedieť v infikovanom prostredí a pozorovať bežné podnikové operácie: interné zariadenia, s ktorými infikovaný stroj komunikuje, porty a protokoly, ktoré používa, a účty, ktoré ho používajú, čo mu umožní útočiť na objavené slabé miesta alebo napodobňovať dôveryhodné prvky systému.


Vzhľadom k zdrojom, ktoré by boli na vykonanie takýchto útokov potrebné, je podľa odborníkov pravdepodobné, že by takýto nástroj ako prvý vyvinul niektorý z národných štátov.


Nie je však príliš divoké predstaviť si svet, v ktorom by k vývoju útočnej kybernetickej umelej inteligencie boli motivovaní samotní pôvodcovia hrozieb. Konieckoncov, táto technológia by im priniesla značné finančné zisky. Schopnosť automatizovať niektoré z najnáročnejších schopností týchto operácií povedie k vyššej návratnosti investícií pre útočníkov.


Ako poraziť škodlivú AI

Kybernetické hrozby založené na umelej inteligencii síce zatiaľ nie sú rozšírené, ale mali by byť pre organizácie dôvodom na obavy, najmä pre tie, ktoré už zlyhávajú v boji proti pokročilým hrozbám pomocou starších nástrojov a zastaraného softvéru. Umelá inteligencia ešte viac sťaží obrancom odhalenie konkrétneho topánka alebo útoku, a mohla by dokonca pomôcť útočníkom navrhovať útoky, ktoré vytvárajú nové mutácie na základe typu obrany spustenej pri útoku.


Je jasné, že AI by útočníkom poskytla prevahu. Akonáhle sa tak stane, bude pre obrancu náročné - ak nie nemožné - získať späť kontrolu.


Napriek tomu možno AI použiť aj ako zbraň proti škodlivej AI, hovorí Daniel O'Neill, riaditeľ riadenej detekcie a reakcie na bezpečnostné operácie v spoločnosti Bitdefender. "Rozpoznávanie, učenie a modelovanie hrozieb vzorcov správania zvýši schopnosti špecialistov na kybernetickú bezpečnosť reagovať na indikátory útoku na základe anomálií, nie iba známych indikátorov kompromitácie."


"Automatizácia založená na umelej inteligencii poskytne hlbší prehľad o správaní koncových bodov, čím sa ďalej zníži závislosť na detekcii statických výstrah na základe známych signatúr hrozieb. Vďaka učeniu a evidencii toho, čo je normálne, sa zvýši pravdepodobnosť identifikácie abnormálneho správania v prostredí, čo umožní analytikom rýchlejšie triediť hrozby a útoky."
2 views0 comments
bottom of page