Изкуственият интелект (ИИ) често се разглежда като революционна технология, способна да осигури ефективност, точност и да отвори нови стратегически възможности. Въпреки това, тъй като компаниите се възползват от предимствата на ИИ, възниква и едно критично и често пренебрегвано предизвикателство: алгоритмичната справедливост. Скритите предубеждения в тези системи могат да компрометират не само ефективността на бизнес решенията, но и да генерират значителни правни, етични и социални последици.
Наличието на алгоритмични отклонения може да се обясни с природата на самия изкуствен интелект, особено в машинното обучение. Моделите се обучават с исторически данни и когато тези данни отразяват предразсъдъци или социални пристрастия, алгоритмите естествено в крайна сметка увековечават тези отклонения. В допълнение към отклоненията в информацията, самият алгоритъм може да въведе дисбаланси в претеглянето на извършените фактори или в данните, използвани като заместител – т.е. данни, които заместват оригиналната информация, но не са идеални за този анализ.
Емблематичен пример за това явление е използването на лицево разпознаване, особено в чувствителни контексти като обществената безопасност. Няколко бразилски града са въвели автоматизирани системи за повишаване на ефективността на полицейските действия, но анализите показват, че тези алгоритми често допускат значителни грешки, особено при идентифициране на лица от специфични етнически групи, като например чернокожи. Проучвания на изследователя от MIT Джой Буоламуини показват, че търговските алгоритми имат процент на грешки над 30% за чернокожи жени, докато за белите мъже процентът спада драстично до по-малко от 1%.
Бразилско законодателство: повече твърдост в бъдеще
В Бразилия, в допълнение към Общия закон за защита на данните (LGPD), в процес на разработка е и Правната рамка за изкуствения интелект (Законопроект № 2338/2023), която установява общи насоки за разработването и прилагането на изкуствен интелект в страната.
Въпреки че все още не е одобрен, този законопроект вече очертава права, които компаниите трябва да спазват, като например: правото на предварителна информация (информиране кога потребителят взаимодейства със система с изкуствен интелект), правото на обяснение на автоматизирани решения, правото на оспорване на алгоритмични решения и правото на недискриминация поради алгоритмични пристрастия.
Тези точки ще изискват от компаниите да въведат прозрачност в генеративните системи с изкуствен интелект (например, като изяснят кога даден текст или отговор е генериран от машина) и механизми за одит, за да обяснят как моделът е стигнал до даден резултат.
Алгоритмично управление: Решението на предразсъдъците
За компаниите алгоритмичните отклонения надхвърлят етичната сфера и се превръщат в значителни стратегически проблеми. Предубедените алгоритми имат потенциала да изкривят важни решения във вътрешни процеси, като например набиране на персонал, отпускане на кредити и пазарен анализ. Например, алгоритъм за анализ на ефективността на клоновете, който систематично надценява градските региони в ущърб на периферните региони (поради непълни данни или отклонения), може да доведе до неправилно насочени инвестиции. По този начин скритите отклонения подкопават ефективността на стратегиите, основани на данни, карайки ръководителите да вземат решения въз основа на частично невярна информация.
Тези отклонения могат да бъдат коригирани, но те ще зависят от алгоритмична структура на управление, фокусирана върху разнообразието на използваните данни, прозрачността на процесите и включването на разнообразни и мултидисциплинарни екипи в технологичното развитие. Чрез инвестиране в разнообразие в техническите екипи, например, компаниите могат по-бързо да идентифицират потенциални източници на отклонения, като гарантират, че се вземат предвид различните гледни точки и че недостатъците се откриват рано.
Освен това, използването на инструменти за непрекъснато наблюдение е от съществено значение. Тези системи помагат за откриване на алгоритмични отклонения в реално време, което позволява бързи корекции и минимизиране на отрицателното въздействие.
Прозрачността е друга важна практика за смекчаване на пристрастията. Алгоритмите не трябва да функционират като черни кутии, а по-скоро като ясни и обясними системи. Когато компаниите изберат прозрачност, те печелят доверието на клиенти, инвеститори и регулаторни органи. Прозрачността улеснява външните одити, насърчавайки култура на споделена отговорност в управлението на ИИ.
Други инициативи включват спазване на рамки и сертификати за отговорно управление на ИИ. Това включва създаване на вътрешни етични комитети за ИИ, определяне на корпоративни политики за неговото използване и приемане на международни стандарти. Например, рамки като ISO/IEC 42001 (управление на изкуствения интелект), ISO/IEC 27001 (информационна сигурност) и ISO/IEC 27701 (поверителност) помагат за структурирането на контрола в процесите на данни, използвани от генеративния ИИ. Друг пример е наборът от препоръчителни практики от Националния институт за стандарти и технологии на САЩ (NIST), който ръководи алгоритмичното управление на риска, обхващайки откриване на пристрастия, проверки на качеството на данните и непрекъснато наблюдение на модела.
Специализираните консултантски компании играят стратегическа роля в този сценарий. С експертиза в отговорния изкуствен интелект, алгоритмичното управление и регулаторното съответствие, тези компании помагат на организациите не само да избягват рискове, но и да трансформират собствения капитал в конкурентно предимство. Работата на тези консултанти варира от подробни оценки на риска до разработването на вътрешни политики и корпоративно обучение по етика на изкуствения интелект, като гарантират, че екипите са подготвени да идентифицират и смекчат потенциални алгоритмични отклонения.
Следователно, смекчаването на алгоритмичните отклонения не е просто превантивна мярка, а стратегически подход. Компаниите, които се фокусират върху алгоритмичната справедливост, демонстрират социална отговорност, укрепват репутацията си и се защитават от правни санкции и обществени кризи. Непредубедените алгоритми са склонни да предлагат по-точни и балансирани прозрения, повишавайки ефективността на бизнес решенията и укрепвайки конкурентната позиция на организациите на пазара.
От Силвио Собрейра Виейра, главен изпълнителен директор и главен консултант в SVX Consultoria