Enligt en TOTVS-studie tvekar fortfarande 36 % av brasilianska företag att investera i artificiell intelligens av rädsla för cyberattacker och dataintrång. Utvecklingen av iboende säkra plattformar, som Googles Gemini, som ligger på en av världens mest robusta molninfrastrukturer, förändrar dock detta paradigm. För experter på L8 Group, ett ledande teknik- och cybersäkerhetsföretag, ligger nyckeln till säker innovation i att veta hur man utnyttjar de skyddsfunktioner som dessa plattformar redan erbjuder.
”Rädslan för att exponera känsliga data och öppna nya dörrar för hot är det största hindret för AI-användning. Valet av teknikplattform är dock en avgörande faktor för att minska dessa risker. Företagens rädsla är förståelig, men den härrör från en uppfattning att AI är en sårbar svart låda. Detta är inte sant när vi pratar om modeller som Gemini. Det är inte ett fristående verktyg; det fungerar inom Google Cloud-ekosystemet, som redan har säkerhetslager i världsklass”, förklarar Guilherme Franco, CTO på L8.
Det här innebär att kunddata skyddas av avancerad kryptering, strikta integritetspolicyer som förhindrar användning för att träna offentliga modeller och en arsenal av kontrollverktyg. Enligt Franco är säkerhet inte ett tillägg; det är grunden, som kan anpassas ytterligare när företag redan använder Google Workspace, till exempel genom att integrera det med Vaults policyer för datalagring.
För företag som vill investera i AI säkert med hjälp av Gemini betonar L8 Group att framgång beror på korrekt konfiguration och att maximera säkerhetsfunktionerna som finns tillgängliga på Google Cloud-plattformen. Här är några punkter som cybersäkerhetsexperten Guilherme Franco tar upp:
- Säker infrastruktur som standard: Gemini drar nytta av samma infrastruktur som skyddar Gmail, Sök och YouTube. Detta inkluderar denial-of-service (DDoS)-skydd, intrångsdetektering och ett privat, krypterat globalt nätverk.
- Data- och åtkomstkontroll (IAM och VPC-SC): Med Google Cloud Identity and Access Management (IAM) kan du exakt definiera vem som har åtkomst till AI-modeller och data. Dessutom kan företag med VPC Service Controls skapa en virtuell säkerhetsperimeter för att förhindra dataläckor och säkerställa att känslig information inte lämnar den kontrollerade miljön.
- För Google Workspace-användare respekterar Gemini samma åtkomstnivåer som tidigare definierades för åtkomst till företagsinnehåll, till exempel Google Drive, utan behov av ytterligare konfiguration.
- Detsamma kan utökas till användare som använder andra plattformar än Google Workspace, till exempel Microsoft, när de använder Google Agentspaces med avancerad IAM.
- Sekretess och konfidentialitet: Google garanterar kontraktuellt att företagsdata som matas in i Gemini via Google Cloud inte kommer att användas för att träna offentligt tillgängliga modeller. Kontroll och ägande av informationen ligger helt och hållet hos kundföretaget.
- Ansvarsfull AI-säkerhet och filter: Gemini-plattformen har inbyggda säkerhetsfilter för att minska genereringen av olämpligt, farligt eller partiskt innehåll, vilket skyddar inte bara data utan även varumärkets rykte.
- ”Lokal” data: Det är möjligt att använda verktyg som NotebookLM, bland annat, som härleder innehåll genom att helt enkelt läsa de filer som användaren väljer, utan att använda en extern sökdatabas, såsom internet, vilket minskar hallucinationer och säkerställer större integritet.
Slutligen varnar experten: ”Frågan är inte längre ’om’ vi kommer att använda AI, utan ’hur’ vi ska göra det säkert och skalbart. Plattformar som Gemini löser mycket av säkerhetskomplexiteten i grunden. Vårt jobb på L8 är till exempel att agera som den strategiska partnern som anpassar och implementerar dessa skyddslager: IAM, VPC, datastyrning; i enlighet med verkligheten och behoven hos varje företag. Vi omvandlar AI:s råa kraft till en säker och framtidsklar konkurrensfördel. Viktigast av allt är att vi bygger projekt som verkligen fungerar, eftersom en nyligen genomförd MIT-studie visade att 95 % av AI-projekt misslyckas”, tillägger Franco.
Han varnar också för att det, när det gäller cybersäkerhet, utöver den redan välkända termen ShadowIT, även finns ShadowAI, där användare använder icke-godkända och osäkra AI-verktyg. "Andra plattformar tränar sina AI:er baserat på användarinmatning, inklusive känsliga uppgifter, vilket bryter mot LGPD. Tänk på det senaste Grok-fallet, som läckte mer än 370 000 privata konversationer. För att hjälpa till att upptäcka och blockera användningen av ShadowIT och ShadowAI erbjuder L8 Group lösningar som ger insyn och kontroll över vad som nås, i enlighet med cybersäkerhetspolicyer", avslutar han.