Prema studiji TOTVS-a, 36% brazilskih tvrtki još uvijek oklijeva ulagati u umjetnu inteligenciju zbog straha od kibernetičkih napada i kršenja podataka. Međutim, napredak inherentno sigurnih platformi, poput Googleovog Geminija, smještenog na jednoj od najrobustnijih cloud infrastruktura na svijetu, mijenja ovu paradigmu. Za stručnjake iz L8 Grupe, vodeće tehnološke i kibernetičke tvrtke, ključ za sigurne inovacije leži u poznavanju načina korištenja zaštitnih mogućnosti koje te platforme već nude.
„Strah od izlaganja osjetljivih podataka i otvaranja novih vrata prijetnjama glavna je prepreka prihvaćanju umjetne inteligencije; međutim, izbor tehnološke platforme odlučujući je faktor u ublažavanju tih rizika. Strah tvrtki je razumljiv, ali proizlazi iz percepcije da je umjetna inteligencija ranjiva crna kutija. To nije istina kada govorimo o modelima poput Geminija. To nije samostalni alat; djeluje unutar ekosustava Google Clouda, koji već ima sigurnosne slojeve svjetske klase“, objašnjava Guilherme Franco, tehnički direktor tvrtke L8.
To znači da su podaci korisnika zaštićeni naprednom enkripcijom, strogim pravilima o privatnosti koja sprječavaju njihovu upotrebu za obuku javnih modela i arsenalom alata za kontrolu. Prema Francu, sigurnost nije dodatak; to je temelj koji se može dodatno prilagoditi kada tvrtke već koriste Google Workspace, integrirajući ga s pravilima o zadržavanju podataka Vaulta, na primjer.
Za tvrtke koje žele sigurno ulagati u umjetnu inteligenciju koristeći Gemini, L8 Group naglašava da uspjeh ovisi o pravilnoj konfiguraciji i maksimiziranju sigurnosnih značajki dostupnih na platformi Google Cloud. Evo nekoliko točaka koje je istaknuo stručnjak za kibernetičku sigurnost Guilherme Franco:
- Sigurna infrastruktura prema zadanim postavkama: Gemini koristi istu infrastrukturu koja štiti Gmail, Pretraživanje i YouTube. To uključuje zaštitu od uskraćivanja usluge (DDoS), otkrivanje upada i privatnu, šifriranu globalnu mrežu.
- Kontrola podataka i pristupa (IAM i VPC-SC): Google Cloud Identity and Access Management (IAM) omogućuje vam precizno definiranje tko može pristupiti AI modelima i podacima. Osim toga, uz VPC Service Controls, tvrtke mogu stvoriti virtualni sigurnosni perimetar kako bi spriječile curenje podataka, osiguravajući da osjetljive informacije ne napuštaju kontrolirano okruženje.
- Za korisnike Google Workspacea, Gemini poštuje iste razine pristupa koje su prethodno definirane za pristup sadržaju tvrtke, kao što je Google Drive, bez potrebe za dodatnom konfiguracijom.
- Isto se može proširiti i na korisnike koji koriste platforme koje nisu Google Workspace, kao što je Microsoft, kada se koristi Google Agentspace s naprednim IAM-om.
- Privatnost i povjerljivost: Google ugovorno jamči da se korporativni podaci uneseni u Gemini putem Google Clouda neće koristiti za obuku javno dostupnih modela. Kontrola i vlasništvo nad podacima u potpunosti ostaju kod tvrtke klijenta.
- Odgovorna umjetna inteligencija, sigurnost i filteri: Sama platforma Gemini ima ugrađene sigurnosne filtere za ublažavanje generiranja neprikladnog, opasnog ili pristranog sadržaja, štiteći ne samo podatke već i ugled robne marke.
- „Lokalni“ podaci: Moguće je koristiti alate poput NotebookLM-a, između ostalih, koji zaključuju sadržaj jednostavnim čitanjem datoteka koje korisnik odabere, bez korištenja vanjske baze podataka za pretraživanje, poput interneta, smanjujući halucinacije i osiguravajući veću privatnost.
Konačno, stručnjak upozorava: „Pitanje više nije 'hoćemo li' usvojiti umjetnu inteligenciju, već 'kako' ćemo to učiniti sigurno i skalabilno. Platforme poput Geminija rješavaju velik dio sigurnosne složenosti u srži. Naš posao u L8, na primjer, jest djelovati kao strateški partner koji prilagođava i implementira ove slojeve zaštite: IAM, VPC, upravljanje podacima; prema stvarnosti i potrebama svakog poslovanja. Pretvaramo sirovu snagu umjetne inteligencije u sigurnu i konkurentsku prednost spremnu za budućnost. Najvažnije je da gradimo projekte koji zaista funkcioniraju, jer je nedavna MIT-ova studija otkrila da 95% projekata umjetne inteligencije propadne“, dodaje Franco.
Također upozorava da, što se tiče kibernetičke sigurnosti, uz već dobro poznati pojam ShadowIT, postoji i ShadowAI, u kojem korisnici koriste neodobrene i nesigurne AI alate. „Druge platforme obučavaju svoje AI-je na temelju korisničkog unosa, uključujući osjetljive podatke, kršeći LGPD. Razmotrite nedavni slučaj Grok, u kojem je procurilo više od 370 000 privatnih razgovora. Kako bi pomogla u otkrivanju i blokiranju korištenja ShadowIT-a i ShadowAI-a, L8 Group nudi rješenja koja pružaju vidljivost i kontrolu nad onim što se pristupa, u skladu s politikama kibernetičke sigurnosti“, zaključuje.