Szybkie przyjęcie Generative Artificial Intelligence (Gen AI) w firmach redefiniuje procesy, umożliwiając innowacje i napędzając automatyzację Według niedawnego badania przeprowadzonego przez Bloomberg Intelligence, tempo wzrostu AI w następnej dekadzie powinno wynieść 421 TP3 T rocznie 4 prawie podwajając jej zasięg, Jednak sukces tych rozwiązań zależy od ostrożnego zarządzania danymi, które zasilają te modele, Tutaj pojawia się cyberbezpieczeństwo, istotny element ochrony prywatności i integralności informacji.
Generacyjna sztuczna inteligencja wykracza poza tradycyjne modele sztucznej inteligencji, które jedynie klasyfikują lub przewidują zachowania, ponieważ tworzy nowe treści, takie jak teksty, obrazy i kody Ta zdolność innowacyjna otwiera nowe możliwości w kilku sektorach, ale wymaga ostrożnego podejścia do wykorzystania i bezpieczeństwa danych i jest to uznawane przez osoby, które na co dzień korzystają z technologii Według badań z ankiety Developer Survey 2024 firmy Stack OverFlow, jednym z głównych wyzwań (31.51 TP3 T) pracy z AI nie jest posiadanie właściwej polityki w celu ograniczenia zagrożeń bezpieczeństwa.
W tym sensie Menedżer produktu technicznego John Batista, odpowiedzialny za platformę Zup StackSpot AI, wyjaśnia, że aby ograniczyć te zagrożenia, firmy muszą wdrożyć rygorystyczne środki bezpieczeństwa, biorąc pod uwagę, że cyberprzestępczość jest coraz bardziej wyrafinowana i według Cyber Security Almanac do 2025 roku może kosztować 10,5 biliona dolarów.
“ Zapewnienie bezpiecznego i etycznego działania modeli sztucznej inteligencji wymaga wieloaspektowego podejścia, które łączy w sobie solidne szyfrowanie, skuteczne zarządzanie danymi, rygorystyczne praktyki w zakresie prywatności i ścisłą kontrolę dostępu podczas szkolenia modelowego. Jeśli zrobimy wycinek dla firm budujących technologię, posiadanie asystenta ds. rozwoju oprogramowania opartego na sztucznej inteligencji przeszkolonego w zakresie bezpieczeństwa może wesprzeć zespół w zapewnieniu, że kod jest zgodny z najlepszymi praktykami bezpiecznego kodowania. Jest to na przykład mechanizm predykcyjnej identyfikacji podatności. Coraz częściej sposobem jest myślenie o wspólnej strategii, która uwzględnia innowacje, bezpieczeństwo i ochronę danych jako niezbędny statyw do stosowania tego typu technologii.
Jeśli chodzi o ustawodawstwo, Henrique Flores, współzałożyciel Contractor i lider rozwoju CK Reader, IA startupu, wyjaśnia, że podczas gdy czekamy na ustawodawstwo, aby lepiej uregulować wykorzystanie Generative AI, to do specjalistów technologicznych należy zapewnienie stosowania dobrych praktyk szyfrowania, anonimizacji danych i polityki zarządzania ti, które mogą zapewnić równowagę interesów handlowych stron, przejrzystość mechanizmów szkolenia algorytmów i etyczne wykorzystanie w manipulacji danymi".
Uznając, że wprowadzanie innowacji za pomocą nowych technologii, takich jak sztuczna inteligencja generatywna, stanowi wyjątkową okazję do transformacji, Giovanna Rossi, CPO z Rethink, doradztwa technologicznego, projektowania i strategii, utwierdza w przekonaniu, że nie można zaprzeczyć, że towarzyszą jej znaczące ryzyka, takie jak ujawnienie wrażliwych informacji i możliwość wyrafinowanych cyberataków. “As odpowiedzialny za obszar produktów cyfrowych, widzę, jak fundamentalne dla przywództwa jest priorytetowe traktowanie strategicznego podejścia w wykorzystaniu sztucznej inteligencji do łagodzenia takich zagrożeń Mamy obowiązek kształtować tę technologię w sposób etyczny i bezpieczny, zapewniając, że jej wpływ będzie pozytywny i trwały dla wszystkich" - mówi dyrektor.
Brazylia ma dużą ilość danych krążących w internecie i przyspieszony proces digitalizacji Jeśli chodzi o ochronę marki, Diego Daminelli, CEO BrandMonitor, pioniera i eksperta w zwalczaniu nieuczciwej konkurencji w środowisku cyfrowym, ostrzega, że brazylijska infrastruktura bezpieczeństwa wciąż porusza się powoli, czyniąc kraj jednym z największych celów cyberataków na świecie, z większym wyrafinowaniem ataków przestępców. “Kultura bezpieczeństwa jest nadal tematem mało cenionym przez kilka firm, które nie wykorzystują AI, ale przestarzałe technologie, które mogą narazić je na ataki i nie są w stanie monitorować cyfrowej obecności marki w całym jej zasięgu.
Ekspert podaje przykład phishing, grande problema para segmentos como o varejo e prestação de serviços. “Os anúncios são veiculados em plataformas digitais utilizando toda a identidade de uma marca e prometendo descontos impraticáveis. Esse anúncio leva a uma pagina que imita o layout oficial da empresa, mas com um endereço diferente. Nessa página são oferecidos produtos ou serviços com um preço extremamente baixo, induzindo o cliente a compra”, finaliza