Главная Статьи Развитие искусственного интеллекта требует стратегии управления

Развитие ИИ требует стратегии управления

Факт: компании в Бразилии внедрили искусственный интеллект в свои бизнес-стратегии — по крайней мере, 98% из них, согласно исследованию, проведённому в конце 2024 года. Проблема, однако, в том, что только 25% организаций заявили о готовности внедрить ИИ. Остальные страдают от ограничений инфраструктуры, управления данными и нехватки специалистов. Но это не означает, что оставшиеся 75% ждут идеальных условий для продвижения своих проектов: напротив, эти компании продолжают внедрять технологию.

Проблема в том, что, согласно недавно опубликованному глобальному отчёту, подготовленному Qlik совместно с ESG, лишь каждая пятая компания способна интегрировать ИИ в свой бизнес. Более того, лишь 47% компаний сообщили о внедрении политик управления данными. Эти цифры глобальные, и неудивительно, если бы бразильская статистика была ещё выше. И хотя ИИ в настоящее время применяется разрозненно, а «точкой входа» технологии обычно является обслуживание клиентов, финансовые, нормативные и репутационные риски всё ещё существуют.

Компании, решившие внедрить ИИ без надлежащей подготовки, сталкиваются со множеством препятствий. Практические примеры показали, что неэффективное управление алгоритмами может способствовать сохранению предвзятости или нарушению конфиденциальности, что приводит к репутационному и финансовому ущербу. Управление ИИ — это не только технологический вопрос, но и вопрос реализации и должной осмотрительности: без четко определенной стратегии риски растут вместе с возможностями — от нарушений конфиденциальности и неправомерного использования данных до непрозрачных или предвзятых автоматизированных решений, порождающих недоверие.

Нормативное давление и соблюдение требований: основы управления ИИ

Необходимость внедрения системы управления на основе ИИ возникла не только в бизнесе: появляются новые правила, и прогресс в этом направлении идет быстрыми темпами, в том числе в Бразилии.  

В декабре 2024 года Федеральный сенат одобрил законопроект 2338/2023 , предлагающий нормативную базу для ИИ с рекомендациями по ответственному использованию. Законопроект основан на подходе, основанном на оценке риска , аналогичном подходу Европейского союза, классифицирующему системы ИИ в зависимости от их потенциальной угрозы основным правам. Приложения, представляющие чрезмерный риск, такие как алгоритмы автономного оружия или средства массовой слежки, будут запрещены , генеративные и универсальные системы должны будут пройти предварительную оценку риска перед выходом на рынок.

Существуют также требования прозрачности, например, обязывающие разработчиков раскрывать, использовали ли они контент, защищённый авторским правом, при обучении моделей. В то же время обсуждается возможность возложения на Национальный орган по защите данных (ANPD) центральной роли в координации управления ИИ в стране с использованием существующей системы защиты данных. Эти законодательные инициативы свидетельствуют о том, что вскоре у компаний появятся чёткие обязательства в отношении разработки и использования ИИ — от практики отчётности и снижения рисков до учёта влияния алгоритмов.

В США и Европе регулирующие органы усилили контроль над алгоритмами, особенно после популяризации инструментов генеративного ИИ, вызвавшей публичные дебаты. Закон о ИИ ACT уже вступил в силу в ЕС, а его реализация должна завершиться 2 августа 2026 года, когда вступит в силу большинство требований стандарта, включая требования к высокорискованным системам ИИ и универсальным моделям ИИ.  

Прозрачность, этика и алгоритмическая подотчетность

Помимо юридического аспекта, управление ИИ включает в себя этические и ответственные принципы, выходящие за рамки простого «соблюдения закона». Компании понимают, что для завоевания доверия клиентов, инвесторов и общества в целом необходима прозрачность в отношении использования ИИ. Это подразумевает внедрение ряда внутренних практик, таких как предварительная оценка влияния алгоритмов, строгое управление качеством данных и независимый аудит моделей.  

Также крайне важно внедрить политику управления данными, которая тщательно фильтрует и отбирает обучающие данные, избегая дискриминационных предубеждений, которые могут присутствовать в собранной информации.  

После запуска модели ИИ в эксплуатацию компания должна проводить периодическое тестирование, валидацию и аудит своих алгоритмов, документируя принятые решения и использованные критерии. Эта документация имеет два преимущества: она помогает объяснить, как работает система, и обеспечивает ответственность в случае сбоя или ненадлежащего результата.

Управление: инновации с конкурентоспособной ценностью

Распространенное заблуждение заключается в том, что управление ИИ ограничивает инновации. Напротив, хорошая стратегия управления обеспечивает безопасные инновации, позволяя ответственно раскрывать весь потенциал ИИ. Компании, которые структурируют свои системы управления на ранней стадии, могут снизить риски до того, как они превратятся в проблемы, избегая переделок или скандалов, которые могли бы задержать реализацию проектов.  

В результате эти организации быстрее получают большую отдачу от своих инициатив. Рыночные данные подтверждают эту корреляцию: глобальный опрос показал, что компании, где руководство активно контролирует управление ИИ, сообщают о более значительных финансовых эффектах от использования передовых технологий ИИ.

Более того, мы живем в то время, когда потребители и инвесторы все больше осознают важность этичного использования технологий, и демонстрация такой приверженности управлению может выделить компанию среди конкурентов.  

На практике организации со зрелым управлением отмечают улучшения не только в плане безопасности, но и в плане эффективности разработки: руководители отмечают сокращение времени цикла проектов ИИ благодаря чётким стандартам с самого начала. То есть, когда требования к конфиденциальности, объяснимости и качеству учитываются на ранних этапах проектирования, это позволяет избежать дорогостоящих корректировок в дальнейшем.  

Таким образом, управление выступает в качестве ориентира для устойчивых инноваций, подсказывая, куда инвестировать и как ответственно масштабировать решения. Согласуя инициативы в области ИИ с корпоративной стратегией и ценностями компании, управление гарантирует, что инновации всегда служат общим целям бизнеса и репутации, а не следуют изолированным или потенциально опасным путём.  

Разработка стратегии управления ИИ — это, прежде всего, стратегический шаг для повышения конкурентоспособности. В современной экосистеме, где страны и компании вовлечены в технологическую гонку, лидерами становятся те, кто внедряет инновации уверенно и авторитетно. Крупные компании, создающие эффективные системы управления, способны найти баланс между снижением рисков и максимизацией преимуществ ИИ, не жертвуя одним ради другого.  

Наконец, управление ИИ больше не является факультативом, а стратегическим императивом. Для крупных компаний создание стратегии управления теперь означает определение стандартов, механизмов контроля и ценностей, которые будут определять использование искусственного интеллекта в ближайшие годы. Это включает в себя всё: от соблюдения новых нормативных требований до создания внутренних этических норм и механизмов обеспечения прозрачности, направленных на минимизацию рисков и максимизацию ценности сбалансированным образом. Те, кто действуют быстро, получат награду в виде постоянных инноваций и прочной репутации, занимая лидирующие позиции на рынке, всё больше ориентированном на ИИ.

Клаудио Коста
Клаудио Коста
Клаудио Коста — руководитель отдела бизнес-консалтинга в компании Selbetti.
СВЯЗАННЫЕ СТАТЬИ

ОСТАВИТЬ ОТВЕТ

Пожалуйста, введите ваш комментарий!
Пожалуйста, введите здесь свое имя

НЕДАВНИЙ

САМЫЕ ПОПУЛЯРНЫЕ

[elfsight_cookie_consent id="1"]