Домашни статии Алгоритамските пристрасности се предизвик за компаниите што вклучуваат вештачка интелигенција

Алгоритамските пристрасности се предизвик за компаниите што вклучуваат вештачка интелигенција

Вештачката интелигенција (ВИ) често се смета за револуционерна технологија, способна да испорача ефикасност, точност и да отвори нови стратешки можности. Сепак, како што компаниите имаат корист од предностите на ВИ, се појавува и еден критичен и често занемарен предизвик: алгоритамска праведност. Скриените пристрасности во овие системи можат да ја компромитираат не само ефикасноста на деловните одлуки, туку и да генерираат значајни правни, етички и социјални последици. 

Присуството на алгоритамски пристрасности може да се објасни со самата природа на вештачката интелигенција, особено во машинското учење. Моделите се обучуваат со историски податоци, и кога овие податоци одразуваат предрасуди или социјални пристрасности, алгоритмите природно завршуваат со продолжување на овие пристрасности. Покрај пристрасностите во информациите, самиот алгоритам може да внесе нерамнотежа во пондерирањето на извршените фактори или во податоците што се користат како замена - односно податоци што ги заменуваат оригиналните информации, но не се идеални за таа анализа. 

Емблематски пример за овој феномен се наоѓа во употребата на препознавање на лица, особено во чувствителни контексти како што е јавната безбедност. Неколку бразилски градови усвоија автоматизирани системи за да ја зголемат ефикасноста на полициските акции, но анализите покажуваат дека овие алгоритми често прават значителни грешки, особено при идентификување на лица од одредени етнички групи, како што се црнците. Студиите на истражувачката од МИТ, Џој Буоламвини, покажаа дека комерцијалните алгоритми имаат стапки на грешки над 30% кај црнките, додека кај белите мажи, стапката драматично паѓа на помалку од 1%.

Бразилско законодавство: поголема ригидност во иднина

Во Бразил, покрај Општиот закон за заштита на податоците (LGPD), во тек е и донесување на Правна рамка за вештачка интелигенција (Закон бр. 2338/2023), која утврдува општи насоки за развој и примена на вештачката интелигенција во земјата. 

Иако сè уште не е одобрен, овој закон веќе ги дефинира правата што компаниите мора да ги почитуваат, како што се: правото на претходни информации (информирање кога корисникот комуницира со систем со вештачка интелигенција), правото на објаснување на автоматизираните одлуки, правото на оспорување на алгоритамските одлуки и правото на недискриминација поради алгоритамски пристрасности. 

Овие точки ќе бараат од компаниите да имплементираат транспарентност во генеративните системи со вештачка интелигенција (на пр., јасно да разјаснат кога текст или одговор е генериран од машина) и механизми за ревизија за да објаснат како моделот стигнал до даден резултат.

Алгоритамско управување: Решение за пристрасностите

За компаниите, алгоритамските пристрасности одат подалеку од етичката сфера и стануваат значајни стратешки прашања. Пристрасните алгоритми имаат потенцијал да ги нарушат суштинските одлуки во внатрешните процеси како што се регрутирањето, доделувањето кредити и анализата на пазарот. На пример, алгоритам за анализа на перформансите на филијалата кој систематски ги преценува урбаните региони на штета на периферните региони (поради нецелосни податоци или пристрасност) може да доведе до погрешно насочени инвестиции. Така, скриените пристрасности ја поткопуваат ефикасноста на стратегиите базирани на податоци, предизвикувајќи раководителите да донесуваат одлуки врз основа на делумно неточни информации.

Овие пристрасности можат да се коригираат, но тие ќе зависат од алгоритамска структура на управување, фокусирана на разновидноста на користените податоци, транспарентноста на процесите и вклучувањето на разновидни и мултидисциплинарни тимови во технолошкиот развој. Со инвестирање во разновидност во техничките тимови, на пример, компаниите можат побрзо да ги идентификуваат потенцијалните извори на пристрасност, осигурувајќи се дека се разгледуваат различните перспективи и дека недостатоците се откриваат рано.

Понатаму, употребата на алатки за континуирано следење е од суштинско значење. Овие системи помагаат во откривање на алгоритамски пристрасности во реално време, овозможувајќи брзи прилагодувања и минимизирање на негативното влијание. 

Транспарентноста е уште една суштинска практика за ублажување на пристрасноста. Алгоритмите не треба да функционираат како црни кутии, туку како јасни и објаснети системи. Кога компаниите се одлучуваат за транспарентност, тие ја добиваат довербата на клиентите, инвеститорите и регулаторите. Транспарентноста ги олеснува надворешните ревизии, поттикнувајќи култура на споделена одговорност во управувањето со вештачката интелигенција.

Други иницијативи вклучуваат придржување кон рамките и сертификатите за одговорно управување со вештачката интелигенција. Ова вклучува создавање внатрешни етички комитети за вештачка интелигенција, дефинирање на корпоративни политики за нејзина употреба и усвојување на меѓународни стандарди. На пример, рамки како што се ISO/IEC 42001 (управување со вештачка интелигенција), ISO/IEC 27001 (безбедност на информациите) и ISO/IEC 27701 (приватност) помагаат во структурирање на контролите во процесите на податоци што ги користи генеративната вештачка интелигенција. Друг пример е збирот препорачани практики од Националниот институт за стандарди и технологија на САД (NIST) што го води управувањето со алгоритамскиот ризик, опфаќајќи откривање на пристрасност, проверки на квалитетот на податоците и континуирано следење на моделите.

Специјализираните консултантски компании играат стратешка улога во ова сценарио. Со експертиза во одговорна вештачка интелигенција, алгоритамско управување и усогласеност со регулативите, овие компании им помагаат на организациите не само да ги избегнат ризиците, туку и да ја трансформираат капиталот во конкурентска предност. Работата на овие консултантски компании се движи од детални проценки на ризикот до развој на внатрешни политики и корпоративна обука за етика во вештачката интелигенција, осигурувајќи дека тимовите се подготвени да идентификуваат и ублажат потенцијални алгоритамски пристрасности.

Затоа, ублажувањето на алгоритамските пристрасности не е само превентивна мерка, туку стратешки пристап. Компаниите кои се фокусираат на алгоритамска праведност покажуваат општествена одговорност, го зајакнуваат својот углед и се заштитуваат од законски санкции и јавни кризи. Непристрасните алгоритми имаат тенденција да понудат поточни и избалансирани сознанија, зголемувајќи ја ефикасноста на деловните одлуки и зајакнувајќи ја конкурентската позиција на организациите на пазарот.

Од Силвио Собреира Виеира, извршен директор и главен консалтинг во SVX Consultoria

Ажурирање за е-трговија
Ажурирање за е-трговијаhttps://www.ecommerceupdate.org
E-Commerce Update е водечка компанија на бразилскиот пазар, специјализирана за производство и дистрибуција на висококвалитетна содржина за секторот за е-трговија.
ПОВРЗАНИ СТАТИИ

ОСТАВЕТЕ ОДГОВОР

Внесете го вашиот коментар!
Внесете го вашето име овде

НЕОДАМНЕШНО

НАЈПОПУЛАРНО

[elfsight_cookie_consent id="1"]