Начало Статии Алгоритмичните отклонения са предизвикателство за компаниите при внедряването на изкуствен интелект

Алгоритмичните отклонения представляват предизвикателство за компаниите при внедряването на изкуствен интелект.

Изкуственият интелект (ИИ) често се разглежда като революционна технология, способна да осигури ефективност, прецизност и да отвори нови стратегически възможности. Въпреки че компаниите се възползват от предимствата на ИИ, възниква и едно критично и понякога пренебрегвано предизвикателство: алгоритмичната справедливост. Скритите предубеждения в тези системи могат да компрометират не само ефективността на бизнес решенията, но и да генерират значителни правни, етични и социални последици. 

Наличието на алгоритмични отклонения може да се обясни с природата на самия изкуствен интелект, особено в машинното обучение. Моделите се обучават с исторически данни и когато тези данни отразяват социални отклонения или изкривявания, алгоритмите естествено в крайна сметка увековечават тези отклонения. В допълнение към отклоненията в информацията, самият алгоритъм може да въведе дисбаланси в претеглянето на извършените фактори или в данните, използвани като заместител – т.е. данни, които заместват оригиналната информация, но не са идеални за този анализ. 

Отличен пример за това явление е използването на лицево разпознаване, особено в чувствителни контексти като обществената безопасност. Няколко бразилски града са въвели автоматизирани системи за повишаване на ефективността на полицейските действия, но анализите показват, че тези алгоритми често допускат значителни грешки, особено при идентифициране на лица от специфични етнически групи, като например чернокожи. Проучвания на изследователката Джой Буоламуини от Масачузетския технологичен институт (MIT) показват, че търговските алгоритми имат процент на грешки над 30% за чернокожи жени, докато за белите мъже процентът спада драстично до по-малко от 1%.

Бразилското законодателство: по-строго в бъдеще

В Бразилия, в допълнение към Общия закон за защита на данните (LGPD), се разглежда и Правната рамка за изкуствения интелект (PL nº 2338/2023), която установява общи насоки за разработването и прилагането на изкуствен интелект в страната. 

Въпреки че все още не е одобрен, този законопроект вече сигнализира за права, които компаниите ще трябва да спазват, като например: правото на предварителна информация (информиране кога потребителят взаимодейства със система с изкуствен интелект), правото на обяснение на автоматизирани решения, правото на оспорване на алгоритмични решения и правото на недискриминация поради алгоритмични пристрастия. 

Тези точки ще изискват от компаниите да въведат прозрачност в генеративните системи с изкуствен интелект (например, като ясно посочат кога даден текст или отговор е генериран от машина) и механизми за одит, за да обяснят как моделът е стигнал до определен резултат.

Алгоритмично управление: решението на предразсъдъците

За компаниите алгоритмичните отклонения надхвърлят етичната сфера, превръщайки се в релевантни стратегически проблеми. Предубедените алгоритми имат потенциала да изкривят важни решения във вътрешни процеси, като например набиране на персонал, отпускане на кредити и пазарен анализ. Например, алгоритъм за анализ на ефективността на клоновете, който систематично надценява градските райони за сметка на периферните региони (поради непълни данни или отклонения), може да доведе до неправилно насочени инвестиции. По този начин скритите отклонения подкопават ефективността на стратегиите, основани на данни, карайки ръководителите да вземат решения въз основа на частично невярна информация.

Тези отклонения могат да бъдат коригирани, но това ще зависи от алгоритмична структура на управление, фокусирана върху разнообразието на използваните данни, прозрачността на процесите и включването на разнообразни и мултидисциплинарни екипи в технологичното развитие. Чрез инвестиране в разнообразие в техническите екипи, например, компаниите могат по-бързо да идентифицират потенциални източници на отклонения, като гарантират, че се вземат предвид различните гледни точки и че недостатъците се откриват рано.

Освен това, използването на инструменти за непрекъснато наблюдение е от решаващо значение. Тези системи помагат за откриване на отклонения в алгоритмичното отклонение в реално време, което позволява бързи корекции и минимизиране на отрицателното въздействие. 

Прозрачността е друга важна практика за смекчаване на предразсъдъците. Алгоритмите не трябва да функционират като черни кутии, а по-скоро като ясни и обясними системи. Когато компаниите изберат прозрачност, те печелят доверието на клиенти, инвеститори и регулаторни органи. Прозрачността улеснява външните одити, насърчавайки култура на споделена отговорност в управлението на ИИ.

Други инициативи включват спазване на рамки и сертификати за отговорно управление на ИИ. Това включва създаване на вътрешни етични комитети за ИИ, определяне на корпоративни политики за неговото използване и приемане на международни стандарти. Например, рамки като ISO/IEC 42001 (управление на изкуствения интелект), ISO/IEC 27001 (информационна сигурност) и ISO/IEC 27701 (поверителност) помагат за структурирането на контрола в процесите на данни, използвани от генеративния ИИ. Друг пример е наборът от препоръчителни практики от американския NIST (Национален институт за стандарти и технологии), който ръководи алгоритмичното управление на риска, обхващайки откриване на пристрастия, проверки на качеството на данните и непрекъснато наблюдение на модела.

Специализираните консултантски фирми играят стратегическа роля в този сценарий. С експертиза в отговорния изкуствен интелект, алгоритмичното управление и регулаторното съответствие, тези компании помагат на организациите не само да избягват рискове, но и да трансформират справедливостта в конкурентно предимство. Тяхната работа варира от подробни оценки на риска до разработването на вътрешни политики, включително корпоративно обучение по етика на изкуствения интелект, гарантирайки, че екипите са подготвени да идентифицират и смекчат потенциални алгоритмични отклонения.

Следователно, смекчаването на алгоритмичните отклонения не е просто превантивна мярка, а стратегически подход. Компаниите, които дават приоритет на алгоритмичната справедливост, демонстрират социална отговорност, укрепват репутацията си и се защитават от правни санкции и обществени кризи. Непредубедените алгоритми са склонни да предлагат по-точни и балансирани прозрения, повишавайки ефективността на бизнес решенията и укрепвайки конкурентната позиция на организациите на пазара.

От Силвио Собрейра Виейра, главен изпълнителен директор и ръководител на консултациите в SVX Consultoria

Актуализация на електронната търговия
Актуализация на електронната търговияhttps://www.ecommerceupdate.org
E-Commerce Update е водеща компания на бразилския пазар, специализирана в създаването и разпространението на висококачествено съдържание за сектора на електронната търговия.
СВЪРЗАНИ СТАТИИ

Оставете отговор

Моля, напишете коментара си!
Моля, въведете името си тук.

ПОСЛЕДНИ

НАЙ-ПОПУЛЯРНИ

[elfsight_cookie_consent id="1"]