Согласно исследованию TOTVS, 36% бразильских компаний по-прежнему не решаются инвестировать в искусственный интеллект, опасаясь кибератак и утечек данных. Однако развитие изначально безопасных платформ, таких как Google Gemini, размещенных на одной из самых надежных облачных инфраструктур в мире, меняет эту парадигму. Эксперты L8 Group, ведущей компании в сфере технологий и кибербезопасности, считают, что ключ к безопасным инновациям заключается в умении использовать уже имеющиеся возможности защиты, предоставляемые этими платформами.
«Страх раскрытия конфиденциальных данных и открытия новых дверей для угроз — главное препятствие для внедрения ИИ; однако выбор технологической платформы играет решающую роль в снижении этих рисков. Страх компаний понятен, но он проистекает из восприятия ИИ как уязвимого «чёрного ящика». Это неверно, когда речь идёт о таких моделях, как Gemini. Это не автономный инструмент; он работает в рамках экосистемы Google Cloud, которая уже имеет уровни безопасности мирового класса», — объясняет Гильерме Франко, технический директор L8.
Это означает, что данные клиентов защищены передовым шифрованием, строгими политиками конфиденциальности, которые запрещают их использование для обучения общедоступных моделей, и целым арсеналом инструментов контроля. По словам Франко, безопасность — это не просто надстройка, а основа, которую можно дополнительно настраивать, например, интегрируя Google Workspace с политиками хранения данных Vault.
Компаниям, стремящимся безопасно инвестировать в ИИ с помощью Gemini, L8 Group подчёркивает, что успех зависит от правильной настройки и максимального использования функций безопасности, доступных на платформе Google Cloud. Вот несколько моментов, поднятых экспертом по кибербезопасности Гильерме Франко:
- Безопасная инфраструктура по умолчанию: Gemini использует ту же инфраструктуру, что и Gmail, Поиск и YouTube. Она включает защиту от DDoS-атак, обнаружение вторжений и частную зашифрованную глобальную сеть.
- Данные и контроль доступа (IAM и VPC-SC): Google Cloud Identity and Access Management (IAM) позволяет точно определить, кто может получить доступ к моделям и данным ИИ. Кроме того, с помощью VPC Service Controls компании могут создать виртуальный периметр безопасности для предотвращения утечек данных, гарантируя, что конфиденциальная информация не покинет контролируемую среду.
- Для пользователей Google Workspace Gemini поддерживает те же уровни доступа, которые были ранее определены для доступа к корпоративному контенту, например Google Диску, без необходимости дополнительной настройки.
- То же самое можно распространить на пользователей, использующих платформы, отличные от Google Workspace, например Microsoft, при использовании Google Agentspaces с расширенным IAM.
- Конфиденциальность: Google гарантирует, что корпоративные данные, внесённые в Gemini через Google Cloud, не будут использоваться для обучения общедоступных моделей. Контроль и право собственности на данные полностью принадлежат компании-клиенту.
- Ответственная безопасность ИИ и фильтры: платформа Gemini имеет встроенные фильтры безопасности, которые препятствуют созданию нежелательного, опасного или предвзятого контента, защищая не только данные, но и репутацию бренда.
- «Локальные» данные: можно использовать такие инструменты, как NotebookLM и другие, которые выводят контент, просто считывая выбранные пользователем файлы, без использования внешней поисковой базы данных, например, Интернета, что снижает галлюцинации и обеспечивает большую конфиденциальность.
Наконец, эксперт предупреждает: «Вопрос уже не в том, «будем ли» мы внедрять ИИ, а в том, «как» мы сделаем это безопасно и масштабируемо. Такие платформы, как Gemini, решают большую часть проблем безопасности на самом деле. Наша задача в L8, например, — выступать стратегическим партнёром, который настраивает и внедряет следующие уровни защиты: IAM, VPC, управление данными, в соответствии с реалиями и потребностями каждого бизнеса. Мы преобразуем первозданную мощь ИИ в надёжное и готовое к будущему конкурентное преимущество. Самое главное, что мы создаём действительно работающие проекты, ведь недавнее исследование Массачусетского технологического института показало, что 95% проектов ИИ терпят неудачу», — добавляет Франко.
Он также предупреждает, что в сфере кибербезопасности, помимо уже известного термина ShadowIT, существует также ShadowAI, когда пользователи используют несертифицированные и небезопасные инструменты искусственного интеллекта. «Другие платформы обучают свои ИИ на основе пользовательского ввода, включая конфиденциальные данные, нарушая LGPD. Вспомните недавний случай с Grok, в результате которого было раскрыто более 370 000 личных разговоров. Для обнаружения и блокировки использования ShadowIT и ShadowAI L8 Group предлагает решения, обеспечивающие прозрачность и контроль за доступом к данным в соответствии с политиками кибербезопасности», — заключает он.