કૃત્રિમ બુદ્ધિ (AI) ને ઘણીવાર એક ક્રાંતિકારી ટેકનોલોજી તરીકે જોવામાં આવે છે, જે કાર્યક્ષમતા, ચોકસાઈ અને નવી વ્યૂહાત્મક તકો ખોલવામાં સક્ષમ છે. જોકે, જેમ જેમ કંપનીઓ AI ના ફાયદાઓથી લાભ મેળવે છે, તેમ તેમ એક મહત્વપૂર્ણ અને ઘણીવાર અવગણવામાં આવતો પડકાર પણ ઉભરી આવે છે: અલ્ગોરિધમિક ન્યાયીતા. આ સિસ્ટમોમાં છુપાયેલા પૂર્વગ્રહો ફક્ત વ્યવસાયિક નિર્ણયોની કાર્યક્ષમતાને જ નહીં પરંતુ નોંધપાત્ર કાનૂની, નૈતિક અને સામાજિક પરિણામો પણ પેદા કરી શકે છે.
અલ્ગોરિધમિક પૂર્વગ્રહોની હાજરી AI ની પ્રકૃતિ દ્વારા સમજાવી શકાય છે, ખાસ કરીને મશીન લર્નિંગમાં. મોડેલોને ઐતિહાસિક ડેટા સાથે તાલીમ આપવામાં આવે છે, અને જ્યારે આ ડેટા પૂર્વગ્રહો અથવા સામાજિક પૂર્વગ્રહોને પ્રતિબિંબિત કરે છે, ત્યારે અલ્ગોરિધમ્સ કુદરતી રીતે આ પૂર્વગ્રહોને કાયમી બનાવે છે. માહિતીમાં પૂર્વગ્રહો ઉપરાંત, અલ્ગોરિધમ પોતે કરવામાં આવેલા પરિબળોના વજનમાં અથવા પ્રોક્સી તરીકે ઉપયોગમાં લેવાતા ડેટામાં અસંતુલન રજૂ કરી શકે છે - એટલે કે, ડેટા જે મૂળ માહિતીને બદલે છે પરંતુ તે વિશ્લેષણ માટે આદર્શ નથી.
આ ઘટનાનું એક પ્રતીકાત્મક ઉદાહરણ ચહેરાની ઓળખના ઉપયોગમાં જોવા મળે છે, ખાસ કરીને જાહેર સલામતી જેવા સંવેદનશીલ સંદર્ભોમાં. બ્રાઝિલના ઘણા શહેરોએ પોલીસ કાર્યવાહીની અસરકારકતા વધારવા માટે સ્વચાલિત પ્રણાલીઓ અપનાવી છે, પરંતુ વિશ્લેષણ દર્શાવે છે કે આ અલ્ગોરિધમ્સ ઘણીવાર નોંધપાત્ર ભૂલો કરે છે, ખાસ કરીને કાળા લોકો જેવા ચોક્કસ વંશીય જૂથોના વ્યક્તિઓને ઓળખતી વખતે. MIT સંશોધક જોય બુઓલામવિની દ્વારા કરવામાં આવેલા અભ્યાસોએ દર્શાવ્યું છે કે વાણિજ્યિક અલ્ગોરિધમ્સમાં કાળી સ્ત્રીઓ માટે ભૂલ દર 30% થી વધુ છે, જ્યારે શ્વેત પુરુષો માટે, દર નાટકીય રીતે ઘટીને 1% કરતા ઓછો થઈ જાય છે.
બ્રાઝિલના કાયદા: ભવિષ્યમાં વધુ કઠોરતા
બ્રાઝિલમાં, જનરલ ડેટા પ્રોટેક્શન લો (LGPD) ઉપરાંત, AI લીગલ ફ્રેમવર્ક (બિલ નં. 2338/2023) પણ પ્રગતિમાં છે, જે દેશમાં AI ના વિકાસ અને ઉપયોગ માટે સામાન્ય માર્ગદર્શિકા સ્થાપિત કરે છે.
હજુ સુધી મંજૂર ન થયું હોવા છતાં, આ બિલ પહેલાથી જ એવા અધિકારોની રૂપરેખા આપે છે જેનો કંપનીઓએ આદર કરવો જોઈએ, જેમ કે: પૂર્વ માહિતીનો અધિકાર (જ્યારે વપરાશકર્તા AI સિસ્ટમ સાથે ક્રિયાપ્રતિક્રિયા કરી રહ્યો હોય ત્યારે માહિતી આપવી), સ્વચાલિત નિર્ણયોના સમજૂતીનો અધિકાર, અલ્ગોરિધમિક નિર્ણયોને પડકારવાનો અધિકાર અને અલ્ગોરિધમિક પૂર્વગ્રહોને કારણે ભેદભાવ ન કરવાનો અધિકાર.
આ મુદ્દાઓ માટે કંપનીઓને જનરેટિવ AI સિસ્ટમ્સમાં પારદર્શિતા લાગુ કરવાની જરૂર પડશે (દા.ત., ટેક્સ્ટ અથવા પ્રતિભાવ ક્યારે મશીન-જનરેટ થયો તે સ્પષ્ટ કરવું) અને મોડેલ આપેલ આઉટપુટ પર કેવી રીતે પહોંચ્યું તે સમજાવવા માટે ઓડિટ મિકેનિઝમ્સ.
અલ્ગોરિધમિક ગવર્નન્સ: પૂર્વગ્રહોનો ઉકેલ
કંપનીઓ માટે, અલ્ગોરિધમિક પૂર્વગ્રહો નૈતિક ક્ષેત્રની બહાર જાય છે અને મહત્વપૂર્ણ વ્યૂહાત્મક મુદ્દાઓ બની જાય છે. પક્ષપાતી અલ્ગોરિધમ્સ ભરતી, ક્રેડિટ ગ્રાન્ટિંગ અને બજાર વિશ્લેષણ જેવી આંતરિક પ્રક્રિયાઓમાં આવશ્યક નિર્ણયોને વિકૃત કરવાની ક્ષમતા ધરાવે છે. ઉદાહરણ તરીકે, એક શાખા કામગીરી વિશ્લેષણ અલ્ગોરિધમ જે વ્યવસ્થિત રીતે શહેરી પ્રદેશોને વધુ પડતો અંદાજ આપે છે જેથી પેરિફેરલ પ્રદેશોને નુકસાન થાય (અપૂર્ણ ડેટા અથવા પૂર્વગ્રહને કારણે) તે ખોટા રોકાણ તરફ દોરી શકે છે. આમ, છુપાયેલા પૂર્વગ્રહો ડેટા-આધારિત વ્યૂહરચનાઓની અસરકારકતાને નબળી પાડે છે, જેના કારણે અધિકારીઓ આંશિક રીતે ખોટી માહિતીના આધારે નિર્ણયો લે છે.
આ પૂર્વગ્રહોને સુધારી શકાય છે, પરંતુ તે અલ્ગોરિધમિક ગવર્નન્સ સ્ટ્રક્ચર પર આધાર રાખશે, જેમાં ઉપયોગમાં લેવાતા ડેટાની વિવિધતા, પ્રક્રિયાઓની પારદર્શિતા અને તકનીકી વિકાસમાં વૈવિધ્યસભર અને બહુ-શાખાકીય ટીમોના સમાવેશ પર ધ્યાન કેન્દ્રિત કરવામાં આવશે. ઉદાહરણ તરીકે, તકનીકી ટીમોમાં વિવિધતામાં રોકાણ કરીને, કંપનીઓ પૂર્વગ્રહના સંભવિત સ્ત્રોતોને વધુ ઝડપથી ઓળખી શકે છે, ખાતરી કરી શકે છે કે વિવિધ દ્રષ્ટિકોણ ધ્યાનમાં લેવામાં આવે છે અને ખામીઓ વહેલા શોધી કાઢવામાં આવે છે.
વધુમાં, સતત દેખરેખ સાધનોનો ઉપયોગ જરૂરી છે. આ સિસ્ટમો વાસ્તવિક સમયમાં અલ્ગોરિધમિક પૂર્વગ્રહો શોધવામાં મદદ કરે છે, ઝડપી ગોઠવણોને સક્ષમ કરે છે અને નકારાત્મક અસર ઘટાડે છે.
પારદર્શિતા એ પૂર્વગ્રહ ઘટાડવા માટે બીજી એક આવશ્યક પ્રથા છે. અલ્ગોરિધમ્સ બ્લેક બોક્સ તરીકે નહીં, પરંતુ સ્પષ્ટ અને સમજાવી શકાય તેવી સિસ્ટમ તરીકે કાર્ય કરવા જોઈએ. જ્યારે કંપનીઓ પારદર્શિતા પસંદ કરે છે, ત્યારે તેઓ ગ્રાહકો, રોકાણકારો અને નિયમનકારોનો વિશ્વાસ મેળવે છે. પારદર્શિતા બાહ્ય ઓડિટને સરળ બનાવે છે, જે AI મેનેજમેન્ટમાં વહેંચાયેલ જવાબદારીની સંસ્કૃતિને પ્રોત્સાહન આપે છે.
અન્ય પહેલોમાં જવાબદાર AI શાસન માટે ફ્રેમવર્ક અને પ્રમાણપત્રોનું પાલન શામેલ છે. આમાં આંતરિક AI નીતિશાસ્ત્ર સમિતિઓ બનાવવા, તેના ઉપયોગ માટે કોર્પોરેટ નીતિઓ વ્યાખ્યાયિત કરવા અને આંતરરાષ્ટ્રીય ધોરણો અપનાવવાનો સમાવેશ થાય છે. ઉદાહરણ તરીકે, ISO/IEC 42001 (કૃત્રિમ બુદ્ધિ વ્યવસ્થાપન), ISO/IEC 27001 (માહિતી સુરક્ષા), અને ISO/IEC 27701 (ગોપનીયતા) જેવા ફ્રેમવર્ક જનરેટિવ AI દ્વારા ઉપયોગમાં લેવાતી ડેટા પ્રક્રિયાઓમાં માળખાગત નિયંત્રણોમાં મદદ કરે છે. બીજું ઉદાહરણ યુએસ નેશનલ ઇન્સ્ટિટ્યૂટ ઓફ સ્ટાન્ડર્ડ્સ એન્ડ ટેકનોલોજી (NIST) દ્વારા ભલામણ કરાયેલ પ્રથાઓનો સમૂહ છે જે અલ્ગોરિધમિક જોખમ વ્યવસ્થાપનને માર્ગદર્શન આપે છે, જેમાં પૂર્વગ્રહ શોધ, ડેટા ગુણવત્તા તપાસ અને સતત મોડેલ દેખરેખનો સમાવેશ થાય છે.
આ પરિસ્થિતિમાં વિશિષ્ટ કન્સલ્ટન્સી વ્યૂહાત્મક ભૂમિકા ભજવે છે. જવાબદાર કૃત્રિમ બુદ્ધિ, અલ્ગોરિધમિક શાસન અને નિયમનકારી પાલનમાં કુશળતા સાથે, આ કંપનીઓ સંસ્થાઓને માત્ર જોખમો ટાળવામાં જ નહીં પરંતુ ઇક્વિટીને સ્પર્ધાત્મક ફાયદામાં પરિવર્તિત કરવામાં પણ મદદ કરે છે. આ કન્સલ્ટન્સીનું કાર્ય વિગતવાર જોખમ મૂલ્યાંકનથી લઈને આંતરિક નીતિઓના વિકાસ અને AI નીતિશાસ્ત્ર પર કોર્પોરેટ તાલીમ સુધીનો છે, જે સુનિશ્ચિત કરે છે કે ટીમો સંભવિત અલ્ગોરિધમિક પૂર્વગ્રહોને ઓળખવા અને ઘટાડવા માટે તૈયાર છે.
તેથી, અલ્ગોરિધમિક પૂર્વગ્રહોને ઘટાડવા એ માત્ર એક નિવારક પગલું નથી, પરંતુ એક વ્યૂહાત્મક અભિગમ છે. જે કંપનીઓ અલ્ગોરિધમિક ન્યાયીતા પર ધ્યાન કેન્દ્રિત કરે છે તેઓ સામાજિક જવાબદારી દર્શાવે છે, તેમની પ્રતિષ્ઠા મજબૂત કરે છે અને કાનૂની પ્રતિબંધો અને જાહેર કટોકટી સામે પોતાને સુરક્ષિત રાખે છે. નિષ્પક્ષ અલ્ગોરિધમ્સ વધુ સચોટ અને સંતુલિત આંતરદૃષ્ટિ પ્રદાન કરે છે, વ્યવસાયિક નિર્ણયોની અસરકારકતામાં વધારો કરે છે અને બજારમાં સંસ્થાઓની સ્પર્ધાત્મક સ્થિતિને મજબૂત બનાવે છે.
SVX કન્સલ્ટોરિયાના સીઇઓ અને હેડ કન્સલ્ટિંગ સિલ્વીઓ સોબ્રેઇરા વિએરા દ્વારા