Według badania TOTVS, 36% brazylijskich firm wciąż waha się przed inwestowaniem w sztuczną inteligencję z obawy przed cyberatakami i wyciekami danych. Jednak rozwój wrodzonych, bezpiecznych platform, takich jak Gemini firmy Google, hostowanych w jednej z najsolidniejszych infrastruktur chmurowych na świecie, zmienia ten paradygmat. Dla ekspertów z L8 Group, wiodącej firmy technologicznej i zajmującej się cyberbezpieczeństwem, kluczem do bezpiecznych innowacji jest wiedza o tym, jak wykorzystać możliwości ochrony, jakie oferują te platformy.
„Strach przed ujawnieniem wrażliwych danych i otwarciem nowych drzwi dla zagrożeń stanowi główną barierę dla wdrażania sztucznej inteligencji; jednak wybór platformy technologicznej jest decydującym czynnikiem w ograniczaniu tych zagrożeń. Obawy firm są zrozumiałe, ale wynikają z przekonania, że sztuczna inteligencja to podatna na ataki czarna skrzynka. Nie jest to prawdą w przypadku modeli takich jak Gemini. Nie jest to samodzielne narzędzie; działa w ramach ekosystemu Google Cloud, który już teraz oferuje światowej klasy warstwy bezpieczeństwa” – wyjaśnia Guilherme Franco, dyrektor ds. technologii w L8.
Oznacza to, że dane klientów są chronione zaawansowanym szyfrowaniem, rygorystycznymi zasadami prywatności, które uniemożliwiają ich wykorzystanie do trenowania modeli publicznych, oraz całym arsenałem narzędzi kontrolnych. Według Franco, bezpieczeństwo to nie dodatek, lecz fundament, który można dodatkowo dostosować, gdy firmy już korzystają z Google Workspace, integrując go na przykład z zasadami przechowywania danych Vault.
Dla firm, które chcą bezpiecznie inwestować w sztuczną inteligencję, korzystając z platformy Gemini, L8 Group podkreśla, że sukces zależy od prawidłowej konfiguracji i maksymalizacji funkcji bezpieczeństwa dostępnych na platformie Google Cloud. Oto kilka kwestii poruszonych przez eksperta ds. cyberbezpieczeństwa Guilherme Franco:
- Bezpieczna infrastruktura w standardzie: Gemini korzysta z tej samej infrastruktury, która chroni Gmaila, wyszukiwarkę i YouTube. Obejmuje to ochronę przed atakami typu „odmowa usługi” (DDoS), wykrywanie włamań oraz prywatną, szyfrowaną sieć globalną.
- Kontrola danych i dostępu (IAM i VPC-SC): Google Cloud Identity and Access Management (IAM) pozwala precyzyjnie określić, kto ma dostęp do modeli i danych AI. Dodatkowo, dzięki kontroli usług VPC, firmy mogą stworzyć wirtualny obwód bezpieczeństwa, aby zapobiec wyciekom danych, gwarantując, że poufne informacje nie opuszczą kontrolowanego środowiska.
- W przypadku użytkowników Google Workspace usługa Gemini respektuje te same poziomy dostępu, które zostały wcześniej zdefiniowane w celu dostępu do treści firmowych, np. Dysku Google, bez konieczności dodatkowej konfiguracji.
- To samo można zastosować w przypadku użytkowników korzystających z platform innych niż Google Workspace, np. Microsoft, podczas korzystania z Google Agentspaces z zaawansowanym IAM.
- Prywatność i poufność: Google gwarantuje umownie, że dane firmowe wprowadzone do Gemini za pośrednictwem Google Cloud nie będą wykorzystywane do trenowania publicznie dostępnych modeli. Kontrola i własność danych pozostają w pełni w gestii firmy klienta.
- Odpowiedzialne bezpieczeństwo i filtry sztucznej inteligencji: Platforma Gemini ma wbudowane filtry bezpieczeństwa, które ograniczają generowanie niewłaściwych, niebezpiecznych lub stronniczych treści, chroniąc nie tylko dane, ale także reputację marki.
- Dane „lokalne”: Możliwe jest korzystanie z narzędzi takich jak NotebookLM i innych, które wnioskują o zawartości, po prostu odczytując pliki wybrane przez użytkownika, bez korzystania z zewnętrznej bazy danych wyszukiwania, takiej jak internet, co ogranicza halucynacje i zapewnia większą prywatność.
Na koniec ekspert ostrzega: „Pytanie nie brzmi już „czy” wdrożymy sztuczną inteligencję, ale „jak” zrobimy to bezpiecznie i skalowalnie. Platformy takie jak Gemini rozwiązują wiele złożoności bezpieczeństwa u podstaw. Na przykład naszym zadaniem w L8 jest działanie jako strategiczny partner, który dostosowuje i wdraża następujące warstwy ochrony: IAM, VPC, zarządzanie danymi; zgodnie z realiami i potrzebami każdej firmy. Przekształcamy surową moc sztucznej inteligencji w bezpieczną i przygotowaną na przyszłość przewagę konkurencyjną. Co najważniejsze, budujemy projekty, które naprawdę działają, ponieważ niedawne badanie MIT wykazało, że 95% projektów z zakresu sztucznej inteligencji kończy się porażką” – dodaje Franco.
Ostrzega również, że w kontekście cyberbezpieczeństwa, oprócz dobrze znanego już terminu ShadowIT, istnieje również ShadowAI, w którym użytkownicy korzystają z niezatwierdzonych i niezabezpieczonych narzędzi AI. „Inne platformy szkolą swoje AI na podstawie danych wprowadzanych przez użytkownika, w tym danych wrażliwych, co narusza ustawę LGPD. Weźmy na przykład niedawną sprawę Grok, w wyniku której wyciekło ponad 370 000 prywatnych rozmów. Aby pomóc w wykrywaniu i blokowaniu korzystania z ShadowIT i ShadowAI, L8 Group oferuje rozwiązania zapewniające widoczność i kontrolę nad tym, do czego uzyskuje się dostęp, zgodnie z polityką cyberbezpieczeństwa” – podsumowuje.