PORAZNA STATISTIKA

Čak 20 posto hakerskih napada na generativne AI modele uspije

U nekim slučajevima, napadi se dogode za samo četiri sekunde.

Čak 20 posto hakerskih napada na generativne AI modele uspije
Depositphotos

Istraživanje je pokazalo da napadi na generativne AI modele, gdje se modeli instruiraju da zanemare svoje sigurnosne mjere, uspijevaju u 20 posto slučajeva. Napadačima u prosjeku treba samo 42 sekunde i pet interakcija kako bi probili zaštitu.

U nekim slučajevima, napadi se dogode za samo četiri sekunde. Ovi rezultati ističu značajne ranjivosti u trenutnim GenAI algoritmima i poteškoće u sprečavanju eksploatacija u stvarnom vremenu. Od uspješnih napada, 90 posto dovodi do curenja osjetljivih podataka, prema izvješću "State of Attacks on GenAI" koje je objavila tvrtka za AI sigurnost, Pillar Security. Istraživači su analizirali napade "u divljini" na više od 2000 AI aplikacija u produkciji tijekom protekla tri mjeseca.

Najviše napadane AI aplikacije - koje čine četvrtinu svih napada - su one koje koriste timovi korisničke podrške zbog njihove široke upotrebe i ključne uloge u angažmanu s korisnicima. Međutim, AI modeli korišteni u drugim sektorima kritične infrastrukture, poput energetike i softvera za inženjering, također su suočeni s najvišim učestalostima napada.

Kompromitiranje kritične infrastrukture može dovesti do široko rasprostranjenih poremećaja, čime postaje glavni cilj kibernetičkih napada. Nedavno izvješće Malwarebytesa pokazalo je da je sektor usluga najviše pogođen ransomware napadima, čineći gotovo četvrtinu globalnih napada. Najviše napadan komercijalni model je OpenAI-ev GPT-4, vjerojatno zbog njegove široke primjene i vrhunskih mogućnosti koje privlače napadače. Meta-in Llama-3 je najnapadaniji open-source model.

Svatko može pokrenuti napad bez specijaliziranih alata ili stručnosti. I kako malware postaje sve opasniji, njihova će se učestalost neizbježno povećavati. Takvi napadi trenutno su navedeni kao glavna sigurnosna ranjivost na OWASP-ovoj Top 10 listi za LLM aplikacije.

Uočeno je da se često pokušavaju jailbreakati GenAI aplikacije, a neki koriste specijalizirane alate koji bombardiraju modele velikim količinama napada. Ranjivosti su također bile eksploatirane na svakoj razini životnog ciklusa interakcije s LLM-om, uključujući promptove, generiranje uz pomoć pretraživanja (Retrieval-Augmented Generation), izlaz alata i odgovor modela.