Ifølge en TOTVS-studie er 36 % av brasilianske selskaper fortsatt nølende med å investere i kunstig intelligens av frykt for cyberangrep og datainnbrudd. Utviklingen av iboende sikre plattformer, som Googles Gemini, som ligger på en av de mest robuste skyinfrastrukturene i verden, endrer imidlertid dette paradigmet. For eksperter hos L8 Group, et ledende teknologi- og cybersikkerhetsselskap, ligger nøkkelen til sikker innovasjon i å vite hvordan man utnytter beskyttelsesfunksjonene disse plattformene allerede tilbyr.
«Frykten for å eksponere sensitive data og åpne nye dører for trusler er den største barrieren for bruk av kunstig intelligens. Valget av teknologiplattform er imidlertid en avgjørende faktor for å redusere disse risikoene. Bedriftenes frykt er forståelig, men den stammer fra en oppfatning om at kunstig intelligens er en sårbar svart boks. Dette stemmer ikke når vi snakker om modeller som Gemini. Det er ikke et frittstående verktøy; det opererer innenfor Google Cloud-økosystemet, som allerede har sikkerhetslag i verdensklasse», forklarer Guilherme Franco, teknisk direktør i L8.
Dette betyr at kundedata er beskyttet av avansert kryptering, strenge personvernregler som forhindrer bruk av dem til trening av offentlige modeller, og et arsenal av kontrollverktøy. Ifølge Franco er ikke sikkerhet et tillegg; det er grunnlaget, som kan tilpasses ytterligere når bedrifter allerede bruker Google Workspace, for eksempel ved å integrere det med Vaults retningslinjer for datalagring.
For selskaper som ønsker å investere i AI sikkert ved hjelp av Gemini, understreker L8 Group at suksess avhenger av riktig konfigurasjon og maksimering av sikkerhetsfunksjonene som er tilgjengelige på Google Cloud-plattformen. Her er noen punkter som ble tatt opp av cybersikkerhetsekspert Guilherme Franco:
- Sikker infrastruktur som standard: Gemini drar nytte av den samme infrastrukturen som beskytter Gmail, Søk og YouTube. Dette inkluderer beskyttelse mot tjenestenekt (DDoS), inntrengingsdeteksjon og et privat, kryptert globalt nettverk.
- Data- og tilgangskontroll (IAM og VPC-SC): Med Google Cloud Identity and Access Management (IAM) kan du presist definere hvem som har tilgang til AI-modeller og data. I tillegg kan bedrifter med VPC Service Controls opprette en virtuell sikkerhetsperimeter for å forhindre datalekkasjer, og sikre at sensitiv informasjon ikke forlater det kontrollerte miljøet.
- For Google Workspace-brukere respekterer Gemini de samme tilgangsnivåene som tidligere ble definert for tilgang til bedriftsinnhold, for eksempel Google Drive, uten behov for ytterligere konfigurasjon.
- Det samme kan utvides til brukere som bruker andre plattformer enn Google Workspace, for eksempel Microsoft, når de bruker Google Agentspaces med avansert IAM.
- Personvern og konfidensialitet: Google garanterer kontraktsmessig at bedriftsdata som legges inn i Gemini via Google Cloud ikke vil bli brukt til å trene offentlig tilgjengelige modeller. Kontroll og eierskap av dataene forblir utelukkende hos klientselskapet.
- Ansvarlig AI-sikkerhet og -filtre: Gemini-plattformen har innebygde sikkerhetsfiltre for å redusere generering av upassende, farlig eller partisk innhold, og beskytter ikke bare data, men også merkevareomdømme.
- «Lokale» data: Det er mulig å bruke verktøy som blant annet NotebookLM, som utleder innhold ganske enkelt ved å lese filene brukeren velger, uten å bruke en ekstern søkedatabase, for eksempel internett, noe som reduserer hallusinasjoner og sikrer større personvern.
Til slutt advarer eksperten: «Spørsmålet er ikke lenger 'om' vi vil ta i bruk AI, men 'hvordan' vi vil gjøre det sikkert og skalerbart. Plattformer som Gemini løser mye av sikkerhetskompleksiteten i kjernen. Vår jobb hos L8 er for eksempel å fungere som den strategiske partneren som tilpasser og implementerer disse lagene med beskyttelse: IAM, VPC, datastyring; i henhold til virkeligheten og behovene til hver enkelt bedrift. Vi forvandler den rå kraften til AI til et sikkert og fremtidsrettet konkurransefortrinn. Viktigst av alt, vi bygger prosjekter som virkelig fungerer, fordi en fersk MIT-studie viste at 95 % av AI-prosjekter mislykkes», legger Franco til.
Han advarer også om at når det gjelder cybersikkerhet, finnes det i tillegg til det allerede velkjente begrepet ShadowIT, også ShadowAI, der brukere bruker ikke-godkjente og usikre AI-verktøy. «Andre plattformer trener AI-ene sine basert på brukerinndata, inkludert sensitive data, som bryter med LGPD. Tenk på den nylige Grok-saken, som lekket mer enn 370 000 private samtaler. For å bidra til å oppdage og blokkere bruken av ShadowIT og ShadowAI, tilbyr L8 Group løsninger som gir synlighet og kontroll over hva som blir åpnet, i samsvar med retningslinjer for cybersikkerhet», avslutter han.