Быстрое внедрение генеративного искусственного интеллекта (Gen AI) в компаниях переопределяет процессы, позволяя внедрять инновации и стимулировать автоматизацию Согласно недавнему исследованию Bloomberg Intelligence, темпы роста ИИ в следующем десятилетии должны составить 42% в год 4, что почти вдвое увеличивает его охват. Однако успех этих решений зависит от тщательного управления данными, которые питают эти модели. именно здесь появляется кибербезопасность, жизненно важный элемент для защиты конфиденциальности и целостности информации.
Генеративный ИИ выходит за рамки традиционных моделей искусственного интеллекта, которые только классифицируют или предсказывают поведение, потому что он создает новый контент, такой как тексты, изображения и коды. Этот инновационный потенциал открывает новые возможности в нескольких секторах, но требует тщательного подхода к использованию и безопасности данных, и это признается людьми, которые ежедневно используют технологии. Согласно исследованию Stack OverFlow, проведенному в ходе исследования разработчиков 2024 года, одна из основных проблем (31.5%) работы с ИИ заключается в отсутствии правильной политики для снижения рисков безопасности.
В этом смысле Технический менеджер по продукту Джон Батиста, ответственный за платформу искусственного интеллекта Zup StackSpot, объясняет, что для смягчения этих рисков компании должны применять строгие меры безопасности, учитывая, что киберпреступность становится все более изощренной и к 2025 году может стоить 10,5 триллионов долларов, согласно данным Cyber Security Almanac.
“ Обеспечение безопасной и этичной работы моделей ИИ требует многогранного подхода, который сочетает в себе надежное шифрование, эффективное управление данными, строгие методы конфиденциальности и строгий контроль доступа во время обучения модели. Если мы делаем клиппинг для компаний, создающих технологии, наличие обученного безопасности помощника по разработке программного обеспечения на основе искусственного интеллекта может поддержать команду, чтобы гарантировать, что код соответствует лучшим практикам безопасного кодирования. Это, например, механизм идентификации прогнозирующих уязвимостей. Все чаще, способ думать о совместной стратегии, которая рассматривает инновации, безопасность и защиту данных как важный штатив для применения этого типа технологии.
Что касается законодательства, Энрике Флорес, соучредитель Contractor и руководитель разработки CK Reader, IA стартапа, объясняет, что, пока мы ждем принятия закона, который лучше регулирует использование генеративного искусственного интеллекта, именно профессионалы в области технологий должны обеспечить применение надлежащей практики шифрования, политики анонимизации данных и управления ti, которая может обеспечить баланс коммерческих интересов сторон, прозрачность механизмов обучения алгоритмам и этическое использование при манипулировании data”.
Признавая, что инновации с новыми технологиями, такими как генеративный искусственный интеллект, являются уникальной возможностью для трансформации, Джованна Росси, CPO компании Rethink, технологического консультирования, проектирования и стратегии, подкрепляет, что нельзя отрицать, что они сопровождаются значительными рисками, такими как раскрытие конфиденциальной информации и возможность сложных кибератак. “As ответственный за область цифровых продуктов, я вижу, насколько фундаментально для руководства уделять приоритетное внимание стратегическому подходу в использовании ИИ для смягчения таких рисков. Мы обязаны формировать эту технологию этичным и безопасным способом, гарантируя, что ее влияние будет положительным и устойчивым для всех, - говорит руководитель.
Бразилия имеет большой объем данных, циркулирующих в интернете, и ускоренный процесс оцифровки Что касается защиты бренда, Диего Даминелли, генеральный директор BrandMonitor, пионер и эксперт в борьбе с недобросовестной конкуренцией в цифровой среде, предупреждает, что бразильская инфраструктура безопасности все еще движется медленно, что делает страну одной из крупнейших целей кибератак в мире, с большей изощренностью атак преступников. “Культура безопасности по-прежнему является темой, мало ценимой несколькими компаниями, которые используют не ИИ, а устаревшие технологии, что может сделать их уязвимыми для атак и не в состоянии отслеживать цифровое присутствие бренда во всем его ассортименте.
Эксперт приводит пример фишинг, большая проблема для таких сегментов, как розничная торговля и предоставление услуг. “Рекламные объявления обслуживаются на цифровых платформах, используя всю идентичность бренда и обещая непрактичные скидки. это объявление приводит к странице, которая имитирует официальный макет компании, но с другим адресом. на этой странице продукты или услуги предлагаются по чрезвычайно низкой цене, побуждая клиента к покупке”, заключает он