Згодна з даследаваннем TOTVS, 36% бразільскіх кампаній усё яшчэ не вырашаюцца інвеставаць у штучны інтэлект, баючыся кібератак і ўцечак дадзеных. Аднак развіццё бяспечных платформаў, такіх як Gemini ад Google, размешчанай на адной з самых надзейных воблачных інфраструктур у свеце, змяняе гэтую парадыгму. Для экспертаў L8 Group, вядучай тэхналагічнай і кібербяспечнай кампаніі, ключ да бяспекі інавацый заключаецца ў тым, каб ведаць, як выкарыстоўваць магчымасці абароны, якія гэтыя платформы ўжо прапануюць.
«Страх раскрыцця канфідэнцыйных дадзеных і адкрыцця новых дзвярэй для пагроз з'яўляецца галоўнай перашкодай для ўкаранення штучнага інтэлекту; аднак выбар тэхналагічнай платформы з'яўляецца вырашальным фактарам у змякчэнні гэтых рызык. Страх кампаній зразумелы, але ён вынікае з успрымання штучнага інтэлекту як уразлівай чорнай скрынкі. Гэта няпраўда, калі мы гаворым пра такія мадэлі, як Gemini. Гэта не асобны інструмент; ён працуе ў экасістэме Google Cloud, якая ўжо мае ўзроўні бяспекі сусветнага класа», — тлумачыць Гільерме Франка, тэхнічны дырэктар L8.
Гэта азначае, што даныя кліентаў абаронены пашыраным шыфраваннем, строгай палітыкай прыватнасці, якая забараняе іх выкарыстанне для навучання публічных мадэляў, і цэлым арсеналам інструментаў кантролю. Паводле слоў Франка, бяспека — гэта не дадатак; гэта аснова, якую можна далей наладзіць, калі кампаніі ўжо выкарыстоўваюць Google Workspace, напрыклад, інтэгруючы яе з палітыкай захоўвання даных Vault.
Для кампаній, якія жадаюць бяспечна інвеставаць у штучны інтэлект з выкарыстаннем Gemini, L8 Group падкрэслівае, што поспех залежыць ад правільнай канфігурацыі і максімальнага выкарыстання функцый бяспекі, даступных на платформе Google Cloud. Вось некаторыя моманты, узнятыя экспертам па кібербяспецы Гільерме Франка:
- Бяспечная інфраструктура па змаўчанні: Gemini мае тую ж інфраструктуру, што і Gmail, Пошук і YouTube. Гэта ўключае абарону ад адмовы ў абслугоўванні (DDoS), выяўленне ўварванняў і прыватную, зашыфраваную глабальную сетку.
- Кантроль дадзеных і доступу (IAM і VPC-SC): Кіраванне ідэнтыфікацыяй і доступам Google Cloud (IAM) дазваляе дакладна вызначыць, хто мае доступ да мадэляў і дадзеных штучнага інтэлекту. Акрамя таго, з дапамогай VPC Service Controls кампаніі могуць стварыць віртуальны перыметр бяспекі, каб прадухіліць уцечку дадзеных, гарантуючы, што канфідэнцыйная інфармацыя не пакіне кантраляванае асяроддзе.
- Для карыстальнікаў Google Workspace Gemini захоўвае тыя ж узроўні доступу, якія раней былі вызначаны для доступу да карпаратыўнага кантэнту, напрыклад, Google Drive, без неабходнасці дадатковай канфігурацыі.
- Гэтае ж правіла можна распаўсюдзіць і на карыстальнікаў платформаў, якія не з'яўляюцца Google Workspace, напрыклад, Microsoft, пры выкарыстанні Google Agentspaces з пашыранай падтрымкай IAM.
- Прыватнасць і канфідэнцыяльнасць: Google гарантуе па кантракце, што карпаратыўныя дадзеныя, уведзеныя ў Gemini праз Google Cloud, не будуць выкарыстоўвацца для навучання агульнадаступных мадэляў. Кантроль і ўласнасць над дадзенымі цалкам застаюцца ў кампаніі-кліента.
- Адказная бяспека і фільтры штучнага інтэлекту: сама платформа Gemini мае ўбудаваныя фільтры бяспекі для прадухілення стварэння неадпаведнага, небяспечнага або прадузятага кантэнту, абараняючы не толькі дадзеныя, але і рэпутацыю брэнда.
- «Лакальныя» дадзеныя: можна выкарыстоўваць такія інструменты, як NotebookLM і іншыя, якія вылічваюць змест, проста чытаючы файлы, якія выбірае карыстальнік, без выкарыстання знешняй базы дадзеных пошуку, напрыклад, Інтэрнэту, што памяншае галюцынацыі і забяспечвае большую прыватнасць.
Нарэшце, эксперт папярэджвае: «Пытанне ўжо не ў тым, «ці» мы ўкаранім штучны інтэлект, а ў тым, «як» мы зробім гэта бяспечна і маштабавана. Такія платформы, як Gemini, вырашаюць значную частку складанасцей бяспекі ў аснове. Наша задача ў L8, напрыклад, заключаецца ў тым, каб выступаць у якасці стратэгічнага партнёра, які наладжвае і ўкараняе гэтыя ўзроўні абароны: IAM, VPC, кіраванне дадзенымі; у адпаведнасці з рэальнасцю і патрэбамі кожнага бізнесу. Мы пераўтвараем сырую моц штучнага інтэлекту ў бяспечную і гатовую да будучыні канкурэнтную перавагу. Самае галоўнае, што мы ствараем праекты, якія сапраўды працуюць, таму што нядаўняе даследаванне MIT паказала, што 95% праектаў са штучным інтэлектам церпяць няўдачу», — дадае Франка.
Ён таксама папярэджвае, што ў дачыненні да кібербяспекі, акрамя ўжо вядомага тэрміна ShadowIT, існуе таксама ShadowAI, пры якім карыстальнікі выкарыстоўваюць несанкцыянаваныя і небяспечныя інструменты штучнага інтэлекту. «Іншыя платформы навучаюць свае штучныя інтэлекты на аснове ўводу карыстальніка, у тым ліку канфідэнцыйных дадзеных, што парушае LGPD. Разгледзім нядаўнюю справу Grok, у выніку якой стала вядома больш за 370 000 прыватных размоў. Каб дапамагчы выявіць і блакаваць выкарыстанне ShadowIT і ShadowAI, L8 Group прапануе рашэнні, якія забяспечваюць бачнасць і кантроль над тым, да чаго атрымліваецца доступ, у адпаведнасці з палітыкай кібербяспекі», — падсумоўвае ён.