Искусственный интеллект (ИИ) часто рассматривается как революционная технология, способная обеспечить эффективность, точность и открыть новые стратегические возможности. Однако, по мере того, как компании используют преимущества ИИ, возникает важнейшая и часто упускаемая из виду проблема: алгоритмическая справедливость. Скрытые предубеждения в этих системах могут не только снижать эффективность бизнес-решений, но и приводить к серьёзным правовым, этическим и социальным последствиям.
Наличие алгоритмических предубеждений можно объяснить природой самого искусственного интеллекта, особенно в машинном обучении. Модели обучаются на исторических данных, и когда эти данные отражают предубеждения или социальные предубеждения, алгоритмы естественным образом закрепляют эти предубеждения. Помимо предубеждений в информации, сам алгоритм может вносить дисбаланс в весовые коэффициенты факторов или в данные, используемые в качестве прокси, то есть данные, которые заменяют исходную информацию, но не подходят для данного анализа.
Ярким примером этого явления является использование распознавания лиц, особенно в таких деликатных ситуациях, как обеспечение общественной безопасности. В нескольких бразильских городах были внедрены автоматизированные системы для повышения эффективности действий полиции, но анализ показывает, что эти алгоритмы часто допускают значительные ошибки, особенно при идентификации лиц из определённых этнических групп, например, чернокожих. Исследования, проведённые исследователем Массачусетского технологического института Джой Буоламвини, показали, что коммерческие алгоритмы имеют уровень ошибок более 30% для чернокожих женщин, в то время как для белых мужчин этот показатель резко падает до менее 1%.
Бразильское законодательство: в будущем ожидается большая жесткость
В Бразилии, помимо Общего закона о защите данных (LGPD), также разрабатывается Законопроект № 2338/2023 об ИИ, который устанавливает общие руководящие принципы разработки и применения ИИ в стране.
Хотя законопроект еще не одобрен, он уже определяет права, которые компании обязаны уважать, например: право на предварительную информацию (информирование о том, когда пользователь взаимодействует с системой искусственного интеллекта), право на объяснение автоматизированных решений, право оспаривать алгоритмические решения и право на недискриминацию из-за алгоритмических предубеждений.
Для решения этих задач компаниям потребуется обеспечить прозрачность систем генеративного ИИ (например, четко указать, был ли текст или ответ сгенерирован машиной), а также механизмы аудита, объясняющие, как модель пришла к заданному результату.
Алгоритмическое управление: решение проблемы предвзятости
Для компаний алгоритмические предубеждения выходят за рамки этической сферы и становятся серьёзными стратегическими проблемами. Предвзятые алгоритмы могут искажать важные решения во внутренних процессах, таких как подбор персонала, выдача кредитов и анализ рынка. Например, алгоритм анализа эффективности филиалов, который систематически переоценивает городские регионы в ущерб периферийным (из-за неполных данных или предвзятости), может привести к нецелевым инвестициям. Таким образом, скрытые предубеждения подрывают эффективность стратегий, основанных на данных, заставляя руководителей принимать решения, основанные на частично неверной информации.
Эти предубеждения можно устранить, но они будут зависеть от алгоритмической структуры управления, ориентированной на разнообразие используемых данных, прозрачность процессов и вовлечение разнообразных и многопрофильных команд в процесс технологического развития. Например, инвестируя в разнообразие в технических командах, компании могут быстрее выявлять потенциальные источники предубеждений, обеспечивая учет различных точек зрения и раннее выявление недостатков.
Кроме того, крайне важно использовать инструменты непрерывного мониторинга. Эти системы помогают выявлять ошибки алгоритмов в режиме реального времени, обеспечивая быструю корректировку и минимизируя негативные последствия.
Прозрачность — ещё один важный фактор, снижающий предвзятость. Алгоритмы должны функционировать не как «чёрные ящики», а как понятные и объяснимые системы. Когда компании стремятся к прозрачности, они завоёвывают доверие клиентов, инвесторов и регулирующих органов. Прозрачность упрощает проведение внешних аудитов, способствуя формированию культуры совместной ответственности в управлении ИИ.
Другие инициативы включают соблюдение фреймворков и сертификацию ответственного управления ИИ. Это включает в себя создание внутренних комитетов по этике ИИ, определение корпоративных политик его использования и принятие международных стандартов. Например, такие фреймворки, как ISO/IEC 42001 (управление искусственным интеллектом), ISO/IEC 27001 (информационная безопасность) и ISO/IEC 27701 (конфиденциальность), помогают структурировать контроль в процессах обработки данных, используемых генеративным ИИ. Другим примером является набор рекомендуемых практик Национального института стандартов и технологий США (NIST), определяющих алгоритмическое управление рисками, включая выявление смещений, проверку качества данных и непрерывный мониторинг моделей.
Специализированные консалтинговые компании играют стратегическую роль в этом сценарии. Обладая опытом в области ответственного искусственного интеллекта, алгоритмического управления и соблюдения нормативных требований, эти компании помогают организациям не только избегать рисков, но и превращать собственный капитал в конкурентное преимущество. Работа этих консалтинговых компаний варьируется от детальной оценки рисков до разработки внутренних политик и корпоративного обучения по этике ИИ, обеспечивая готовность команд выявлять и минимизировать потенциальные ошибки алгоритмов.
Таким образом, снижение влияния алгоритмических предубеждений — это не просто превентивная мера, а стратегический подход. Компании, уделяющие особое внимание алгоритмической справедливости, демонстрируют социальную ответственность, укрепляют свою репутацию и защищают себя от правовых санкций и общественных кризисов. Непредвзятые алгоритмы, как правило, предлагают более точные и сбалансированные аналитические данные, повышая эффективность бизнес-решений и укрепляя конкурентоспособность организаций на рынке.
Сильвио Собрейра Виейра, генеральный директор и руководитель отдела консалтинга SVX Consultoria