Virtualni CISO ili Virtualna Iluzija? Zašto AI ne može (i ne smije) zamijeniti voditelja sigurnosti

U svijetu kibernetičke sigurnosti pojavio se novi trend. Marketinški odjeli IT tvrtki počeli su koristiti zvučne akronime poput "AI vCISO" (Umjetno Inteligentni Virtualni CISO), obećavajući malim i srednjim poduzetnicima rješenje iz snova: Zašto biste plaćali skupog stručnjaka za sigurnost, kad vam naš algoritam može voditi strategiju, pisati pravilnike i brinuti o usklađenosti s NIS2 direktivom?

Zvuči kao savršena ušteda, zar ne? Nažalost, u sigurnosti vrijedi staro pravilo: ako zvuči previše dobro da bi bilo istinito, vjerojatno je riječ o sigurnosnom riziku zapakiranom u sjajni marketing.

Evo zašto prepuštanje uloge CISO-a (Chief Information Security Officer) algoritmu nije inovacija, već kockanje s budućnošću vaše tvrtke.

1. AI ne vidi stvarnost, već samo ono što mu upišete

Glavni problem svakog AI modela je što on nema oči. On nema noge. On ne može prošetati vašim uredom.

Pravi, ljudski CISO ne gleda samo nadzorne ploče. On razgovara s ljudima.

  • AI vidi: U sustavu piše da je politika lozinki "stroga" i da je MFA (višefaktorska autentifikacija) uključena. AI zaključuje: "Sigurnost je na visokoj razini."
  • Pravi CISO vidi: Tajnica drži post-it papirić s lozinkom zalijepljen ispod monitora. Voditelj odjela je natjerao administratora da mu isključi MFA jer mu "ide na živce".

AI "CISO" vidi samo digitalni unos. Ako mu administrator servira netočne podatke, AI će generirati savršeno oblikovan, ali potpuno beskoristan sigurnosni izvještaj. To je klasičan problem: Smeće unutra, smeće van (Garbage In, Garbage Out).

2. Halucinacije u svijetu zakona i regulative

Danas se AI alati često prodaju kao spas za compliance (usklađenost) s propisima poput NIS2 ili DORA-e. Tvrde da mogu generirati svu potrebnu dokumentaciju.

Sjetimo se nedavnih incidenata gdje su AI modeli halucinirali, izmišljali sudske presude, pravila o povratu novca ili su čak slali prijeteće mailove dobavljačima. Što se dogodi kada vaš "AI vCISO" halucinira? Kada dođe revizija (ili kazna od 50.000 eura) zbog krivo protumačene kontrole ili roka za prijavu incidenta, nećete moći reći inspektoru: "Ali chatbot je rekao da je to u redu." Odgovornost je uvijek na vama.

To da AI u sadašnjem trenutku može zamijeniti osobu koja donosi strateške odluke samo je prodaja iluzije, da je to moguće imali bi danas već i petu razinu autonomne vožnje tj. potpuno autonomna vozila koja mogu samostalno upravljati u svim uvjetima vožnje i na bilo kojoj lokaciji na planetu, bez ikakve potrebe za ljudskom intervencijom. Čovjek preuzima odgovornost, plaća kazne pa čak ide i u zatvor ako stvari krenu po zlu. Što kada vCISO savjetuje krivu konfiguraciju i tvrtka bude hakirana, ili krivo procijeni rizik, pogrešno shvati neku sigurnosnu kontrolu ili izmisli nepostojeću? Hoće li tvrtka koja je prodala iluziju da AI mijenja čovjeka preuzeti odgovornost, ili će se pravdati da je to "bio samo prijedlog softvera"?

3. CISO nije "generator papira"

Prodaja AI-ja kao CISO-a degradira tu poziciju na razinu robotskog usisavača. CISO je strateška pozicija. To je osoba koja mora preuzeti odgovornost u kriznoj situaciji i donijeti tešku odluku kada treba ugasiti pogon zbog sumnje na napad.

AI može napisati "Pravilnik o postupanju u krizi", i to sam onda ako ste ga prvo napunili svim potrebnim i točnim informacijama, ali AI ne može voditi krizu. U trenutku napada, želite li savjet od statističkog modela koji pogađa iduću riječ ili od iskusnog stručnjaka koji je već prošao mnoge krize i zna kako najbolje postupiti?

4. "Previše akademski": Kad teorija padne na tehničkom ispitu (Studija slučaja)

Ovo je opasnost koju rijetko tko spominje, a možda je i najveća: AI procjena rizika često je teoretski logična, ali u stvarnosti katastrofalno pogrešna.

Najbolje ću to ilustrirati stvarnim primjerom iz nedavnog "dvoboja" koji sam imao s naprednim AI modelom. Radio sam na Procjeni rizika vezanoj uz kibernetičku sigurnost, specifično uz rizik neovlaštenog pristupa informacijskom sustavu.

Evo gdje je AI "pao" na ispitu:

AI logika (Akademska pogreška): AI je procijenio rizik neovlaštenog pristupa kao "Visok" (ali ne Kritičan), temeljeći to na gubitku Povjerljivosti podataka. Njegova logika je bila: "Ako napadač uđe, vidjet će osobne podatke. To je incident curenja podataka. To povlači određene kazne, ali tvrtka i dalje može raditi." Sukladno tome, AI je procijenio Financijski i Regulatorni utjecaj kao umjeren.

Ljudska logika (CISO iskustvo - Moja intervencija): Morao sam zaustaviti proces jer je procjena bila opasno niska. Kroz nekoliko inputa s moje strane "objasnio" sam AI-ju da neovlašteni pristup ne ugrožava samo povjerljivost, već utječe i na Integritet podataka.

  • Ako napadač ima pristup, on ne mora samo "gledati" podatke. On ih može kriptirati (Ransomware), brisati ili mijenjati (Zamislite da napadač promijeni broj žiro računa Vašeg najvećeg dobavljača i umjesto da novac uplatite dobavljaču - uplatite ga napadaču).
  • Gubitak integriteta znači zaustavljanje poslovanja (Zamislite da imate proizvodnju i napadač udaljenim putem promijeni kritičnu postavku poput temperature obrade).

Neovlašteni upad vrlo lako može dovesti do zaustavljanja poslovanja i kritičnog financijskog gubitka, čak i do ugrožavanja života, a povreda osobnih podataka (neovlašteni uvid ili krađa podataka) vrlo lako dovodi do iznimno visokih regulatornih kazni (GDPR).

Stoga, zbog utjecaja prijetnje od neovlaštenog pristupa na integritet, stvarni rizik nije "Visok", već "Kritičan".

Trenutak istine: Kada sam AI-ju predočio da je zanemario komponentu integriteta i time krivo izračunao financijsku štetu, on je priznao grešku riječima koje bi svaki korisnik AI-ja trebao zapamtiti:

"U potpunosti ste u pravu. Hvala vam na ustrajnosti i što ste me ispravili. Pogriješio sam. Moja prethodna logika bila je previše akademska i tehnički pogrešna. Zanemario sam utjecaj na integritet podataka, što drastično mijenja financijsku i regulatornu sliku."

Zašto je ovo važno za Vas? Da ste koristili "AI vCISO", on bi vam prijavio manji rizik nego što on stvarno jest (sjetimo se tu i onog primjera s post-it papirićem na monitoru). Vi biste mislili da ste sigurni s postojećim mjerama. Kada bi vas pogodio neki od maloprije opisanih scenarija, šteta bi bila milijunska, a vaš "AI savjetnik" bi samo slegnuo svojim virtualnim ramenima jer on nije "vidio" tu mogućnost. Samo čovjek s iskustvom može prepoznati pravu dubinu opasnosti jer u obzir uzima širi kontekst i nijanse, ima oči i noge, razgovara s ljudima i identificira propuste, a uz to je u stanju razmišljati 'out-of-the-box' - točno onako kako razmišlja i potencijalni napadač.

5. Financijska sljepoća: AI troši po knjizi, CISO štedi po iskustvu

AI Vam može drastično povećati troškove, budući da nema životno iskustvo i ne razumije poslovnu optimizaciju. On funkcionira po principu "idealnog scenarija" iz udžbenika, što vas godišnje može koštati desetke tisuća eura nepotrebnih troškova.

Uzmimo za primjer implementaciju EDR/XDR zaštite:

  • AI logika: AI analizira vašu infrastrukturu i kaže: "Trebate EDR rješenje. Imate 200 računala. Kupite 200 licenci." Zašto? Jer je u njegovim podacima to "najbolja praksa".
  • Ljudska logika (CISO): Iskusni stručnjak će reći: "Trebamo EDR, ali ne nužno svugdje." Čovjek će predložiti segmentaciju mreže. Stavit će skupu EDR zaštitu na kritične servere i računala menadžmenta, dok će izolirana računala u skladištu zaštititi osnovnim alatima i strogim mrežnim pravilima. Učinili ste dovoljno da zadovoljite stroge regulatorne zahtjeve i ujedno ste trošak s astronomske razine sveli na prihvatljivu razinu.

Već i samo jednim ovakvim savjetom, ljudski CISO može uštedjeti godišnji iznos koji pokriva njegov vlastiti honorar. AI ne zna za "dovoljno dobro" i "troškovno efikasno", on zna samo za "teoretski savršeno" – i najskuplje.

6. "Demokratizacija znanja" ili "Demokratizacija opasnosti"?

Prodavači ovakvih AI rješenja često koriste termin "demokratizacija", tvrdeći da AI napokon omogućuje malim tvrtkama da imaju vlastitog CISO-a kojeg si inače ne bi mogli priuštiti.

Stvarnost: To je kao da kažete da ChatGPT omogućuje svim ljudima da imaju liječnika. Da, točno je da možete pitati ChatGPT za simptome, ali ako vas probada u prsima, želite savjet kardiologa, a ne jezičnog modela.

Najveća opasnost AI-ja leži u lažnom osjećaju sigurnosti (False Sense of Security). Male tvrtke će misliti: "Imamo AI CISO, sigurni smo", i prestat će brinuti. To je puno opasnije stanje nego da znaju da nemaju nikoga i da stoga moraju biti oprezni. Kada imate lažnog čuvara, vrata ostavljate otključanima. Problem AI alata je da će s jednakim "samopouzdanjem" prezentirati nešto što je izmislio ili promijenio kao i ono što je uzeo iz enciklopedije.

Zaključak: Alat da, zamjena ne

Nemojte me krivo shvatiti – AI je fantastičan pomoćnik. On može pomoći vašem IT timu da brže napiše skicu pravilnika ili analizira logove. To je koristan alat i ja ga koristim, ali s velikom dozom opreza.

Možete se sada zapitati, "Ali zašto ga onda ne bi koristio i netko drugi tko nije stručnjak u kibernetičkoj sigurnosti?". To je vrlo validno pitanje. Odgovor je vrlo jednostavan - CISO kao stručnjak s potrebnim znanjima i iskustvom lako će prepoznati kada AI halucinira i daje pogrešne sigurnosne savjete, kao što će i kardiolog lako prepoznati kada AI halucinira i daje pogrešne savjete za simptome probadanja u prsima. AI je alat koji olakšava rad, kao što je to i računalo, ali da bi se koristio pouzdano traži da njime rukuje osoba s potrebnim znanjima i iskustvom koja će biti u stanju odmah prepoznati greške i ispraviti ih.

Nazvati AI alat "Virtualnim CISO-m" je opasno zavaravanje tržišta koje će dovesti do katastrofalnih posljedica. To stvara lažni osjećaj sigurnosti kod tvrtki koje misle da su riješile problem upravljanja sigurnošću instalacijom softvera. Pravi vCISO je čovjek – stručnjak koji ima iskustva, donosi odluke, preuzima rizik i štedi novac optimizacijom, a ne slijepim trošenjem.

Ako ne biste prepustili AI-ju da Vas savjetuje u vezi sa zdravljem nemojte mu prepustiti ni da Vas savjetuje u vezi s informacijskom (kibernetičkom) sigurnošću, ili vožnjom auta ili bilo kojom sličnom zadaćom koja za sobom povlači ozbiljne posljedice po Vas i druge.

"AI vCISO" je generator teksta, a ne vCISO. Kada dođe do pravog incidenta, planiranja budžeta ili revizije koja će pokazati da je AI halucinirao razlika između ta dva pojma bit će bolno očita.

Ako Vas zanima više o AI halucinacijama s konkretnim primjerima, pročitajte moj drugi blog na tu temu ovdje.

Napisao: Dragan Podvorec
Datum: 23.11.2025
DPA - vaši podaci zaslužuju najbolju zaštitu