Artificial Intelligence (AI) ມັກຈະເຫັນວ່າເປັນເທກໂນໂລຍີປະຕິວັດ, ສາມາດສະຫນອງປະສິດທິພາບ, ຄວາມຖືກຕ້ອງ, ແລະເປີດໂອກາດຍຸດທະສາດໃຫມ່. ຢ່າງໃດກໍຕາມ, ເນື່ອງຈາກບໍລິສັດໄດ້ຮັບຜົນປະໂຫຍດຈາກຂໍ້ໄດ້ປຽບຂອງ AI, ສິ່ງທ້າທາຍທີ່ສໍາຄັນແລະມັກຈະຖືກມອງຂ້າມຍັງເກີດຂື້ນ: ຄວາມຍຸຕິທໍາ algorithmic. ອະຄະຕິທີ່ເຊື່ອງໄວ້ໃນລະບົບເຫຼົ່ານີ້ສາມາດປະນີປະນອມບໍ່ພຽງແຕ່ປະສິດທິພາບຂອງການຕັດສິນໃຈທາງທຸລະກິດເທົ່ານັ້ນແຕ່ຍັງສ້າງຜົນສະທ້ອນທາງດ້ານກົດຫມາຍ, ຈັນຍາບັນແລະສັງຄົມຢ່າງຫຼວງຫຼາຍ.
ການປະກົດຕົວຂອງອະຄະຕິ algorithmic ສາມາດອະທິບາຍໄດ້ໂດຍລັກສະນະຂອງ AI ຕົວມັນເອງ, ໂດຍສະເພາະໃນການຮຽນຮູ້ເຄື່ອງຈັກ. ຕົວແບບຕ່າງໆໄດ້ຮັບການຝຶກອົບຮົມດ້ວຍຂໍ້ມູນປະຫວັດສາດ, ແລະເມື່ອຂໍ້ມູນນີ້ສະທ້ອນເຖິງອະຄະຕິ ຫຼືຄວາມລຳອຽງທາງສັງຄົມ, ສູດການຄິດໄລ່ຈະສິ້ນສຸດເຖິງຄວາມລຳອຽງເຫຼົ່ານີ້ຢ່າງຕໍ່ເນື່ອງ. ນອກເຫນືອຈາກຄວາມລໍາອຽງໃນຂໍ້ມູນ, ສູດການຄິດໄລ່ຕົວມັນເອງສາມາດແນະນໍາຄວາມບໍ່ສົມດຸນໃນການນ້ໍາຫນັກຂອງປັດໃຈທີ່ປະຕິບັດ, ຫຼືໃນຂໍ້ມູນທີ່ໃຊ້ເປັນຕົວແທນ - ນັ້ນແມ່ນ, ຂໍ້ມູນທີ່ປ່ຽນແທນຂໍ້ມູນຕົ້ນສະບັບແຕ່ບໍ່ເຫມາະສົມສໍາລັບການວິເຄາະນັ້ນ.
ຕົວຢ່າງທີ່ເປັນສັນຍາລັກຂອງປະກົດການນີ້ແມ່ນພົບເຫັນຢູ່ໃນການນໍາໃຊ້ການຮັບຮູ້ໃບຫນ້າ, ໂດຍສະເພາະໃນສະພາບການທີ່ລະອຽດອ່ອນເຊັ່ນ: ຄວາມປອດໄພສາທາລະນະ. ຫຼາຍໆເມືອງຂອງ Brazilian ໄດ້ຮັບຮອງເອົາລະບົບອັດຕະໂນມັດເພື່ອເພີ່ມປະສິດຕິຜົນຂອງການກະທໍາຂອງຕໍາຫຼວດ, ແຕ່ການວິເຄາະສະແດງໃຫ້ເຫັນວ່າວິທີການເຫຼົ່ານີ້ມັກຈະເຮັດໃຫ້ເກີດຄວາມຜິດພາດຫຼາຍ, ໂດຍສະເພາະໃນເວລາທີ່ກໍານົດບຸກຄົນຈາກຊົນເຜົ່າສະເພາະ, ເຊັ່ນ: ຄົນຜິວດໍາ. ການສຶກສາໂດຍນັກຄົ້ນຄວ້າ MIT Joy Buolamwini ໄດ້ສະແດງໃຫ້ເຫັນວ່າວິທີການທາງດ້ານການຄ້າມີອັດຕາຄວາມຜິດພາດສູງກວ່າ 30% ສໍາລັບແມ່ຍິງສີດໍາ, ໃນຂະນະທີ່ສໍາລັບຜູ້ຊາຍສີຂາວ, ອັດຕາຫຼຸດລົງຢ່າງຫຼວງຫຼາຍເຖິງຫນ້ອຍກວ່າ 1%.
ກົດໝາຍບຣາຊິລ: ມີຄວາມເຂັ້ມງວດຫຼາຍຂຶ້ນໃນອະນາຄົດ
ໃນປະເທດບຣາຊິນ, ນອກເຫນືອຈາກກົດຫມາຍວ່າດ້ວຍການປົກປ້ອງຂໍ້ມູນທົ່ວໄປ (LGPD), ກອບກົດຫມາຍຂອງ AI (Bill No. 2338/2023) ຍັງຢູ່ໃນຄວາມຄືບຫນ້າ, ເຊິ່ງກໍານົດຄໍາແນະນໍາທົ່ວໄປສໍາລັບການພັດທະນາແລະການນໍາໃຊ້ AI ໃນປະເທດ.
ເຖິງແມ່ນວ່າຍັງບໍ່ທັນໄດ້ຮັບການອະນຸມັດ, ບັນຊີລາຍການສະບັບນີ້ໄດ້ອະທິບາຍເຖິງສິດທິທີ່ບໍລິສັດຕ້ອງເຄົາລົບ, ເຊັ່ນ: ສິດທິໃນຂໍ້ມູນກ່ອນຫນ້າ (ແຈ້ງເວລາທີ່ຜູ້ໃຊ້ກໍາລັງພົວພັນກັບລະບົບ AI), ສິດທິໃນຄໍາອະທິບາຍຂອງການຕັດສິນໃຈອັດຕະໂນມັດ, ສິດທິໃນການທ້າທາຍການຕັດສິນໃຈ algorithmic ແລະສິດທິໃນການບໍ່ຈໍາແນກເນື່ອງຈາກຄວາມລໍາອຽງ algorithmic.
ຈຸດເຫຼົ່ານີ້ຈະຮຽກຮ້ອງໃຫ້ບໍລິສັດປະຕິບັດຄວາມໂປ່ງໃສໃນລະບົບ AI ທົ່ວໄປ (ເຊັ່ນ: ເຮັດໃຫ້ມັນຊັດເຈນເມື່ອຂໍ້ຄວາມຫຼືການຕອບໂຕ້ຖືກສ້າງຂື້ນໂດຍເຄື່ອງຈັກ) ແລະກົນໄກການກວດສອບເພື່ອອະທິບາຍວິທີການທີ່ຕົວແບບມາຮອດຜົນໄດ້ຮັບທີ່ໄດ້ຮັບ.
Algorithmic Governance: ການແກ້ໄຂບັນຫາອະຄະຕິ
ສໍາລັບບໍລິສັດ, ຄວາມລໍາອຽງ algorithmic ເກີນຂອບເຂດດ້ານຈັນຍາບັນແລະກາຍເປັນບັນຫາຍຸດທະສາດທີ່ສໍາຄັນ. ສູດການຄິດໄລ່ອະຄະຕິມີທ່າແຮງທີ່ຈະບິດເບືອນການຕັດສິນໃຈທີ່ສໍາຄັນໃນຂະບວນການພາຍໃນເຊັ່ນການຈ້າງງານ, ການໃຫ້ສິນເຊື່ອ, ແລະການວິເຄາະຕະຫຼາດ. ຕົວຢ່າງ, ຂັ້ນຕອນການວິເຄາະປະສິດທິພາບຂອງສາຂາທີ່ປະເມີນເຂດຕົວເມືອງຢ່າງເປັນລະບົບຕໍ່ກັບຄວາມເສຍຫາຍຂອງພາກພື້ນຂ້າງຄຽງ (ເນື່ອງຈາກຂໍ້ມູນບໍ່ຄົບຖ້ວນ ຫຼື ມີຄວາມລຳອຽງ) ສາມາດນຳໄປສູ່ການລົງທຶນທີ່ບໍ່ຖືກຕ້ອງໄດ້. ດັ່ງນັ້ນ, ຄວາມລໍາອຽງທີ່ເຊື່ອງໄວ້ຈະທໍາລາຍປະສິດທິພາບຂອງຍຸດທະສາດການຂັບເຄື່ອນຂໍ້ມູນ, ເຮັດໃຫ້ຜູ້ບໍລິຫານສາມາດຕັດສິນໃຈໂດຍອີງໃສ່ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງບາງສ່ວນ.
ອະຄະຕິເຫຼົ່ານີ້ສາມາດຖືກແກ້ໄຂໄດ້, ແຕ່ພວກມັນຈະຂຶ້ນກັບໂຄງສ້າງການປົກຄອງແບບ algorithmic, ສຸມໃສ່ຄວາມຫຼາກຫຼາຍຂອງຂໍ້ມູນທີ່ນໍາໃຊ້, ຄວາມໂປ່ງໃສຂອງຂະບວນການ, ແລະການລວມເອົາທີມງານທີ່ຫຼາກຫຼາຍແລະຫຼາຍວິຊາໃນການພັດທະນາເຕັກໂນໂລຢີ. ໂດຍການລົງທຶນໃນຄວາມຫຼາກຫຼາຍຂອງທີມງານດ້ານວິຊາການ, ສໍາລັບຕົວຢ່າງ, ບໍລິສັດສາມາດກໍານົດແຫຼ່ງຄວາມລໍາອຽງທີ່ມີທ່າແຮງໄດ້ໄວ, ໃຫ້ແນ່ໃຈວ່າທັດສະນະທີ່ແຕກຕ່າງກັນໄດ້ຖືກພິຈາລະນາແລະຂໍ້ບົກພ່ອງໄດ້ຖືກກວດພົບໄວ.
ນອກຈາກນັ້ນ, ການນໍາໃຊ້ເຄື່ອງມືຕິດຕາມຢ່າງຕໍ່ເນື່ອງແມ່ນມີຄວາມຈໍາເປັນ. ລະບົບເຫຼົ່ານີ້ຊ່ວຍກວດຫາອະຄະຕິ algorithmic ໃນເວລາຈິງ, ເຮັດໃຫ້ການປັບຕົວຢ່າງວ່ອງໄວ ແລະຫຼຸດຜ່ອນຜົນກະທົບທາງລົບ.
ຄວາມໂປ່ງໃສແມ່ນອີກປະການໜຶ່ງທີ່ຈຳເປັນໃນການຫຼຸດຜ່ອນຄວາມລຳອຽງ. ສູດການຄິດໄລ່ບໍ່ຄວນເຮັດໜ້າທີ່ເປັນກ່ອງດຳ, ແຕ່ເປັນລະບົບທີ່ຈະແຈ້ງ ແລະ ສາມາດອະທິບາຍໄດ້. ເມື່ອບໍລິສັດເລືອກຄວາມໂປ່ງໃສ, ພວກເຂົາໄດ້ຮັບຄວາມໄວ້ວາງໃຈຂອງລູກຄ້າ, ນັກລົງທຶນ, ແລະຜູ້ຄວບຄຸມ. ຄວາມໂປ່ງໃສອໍານວຍຄວາມສະດວກໃນການກວດສອບພາຍນອກ, ຊຸກຍູ້ໃຫ້ມີວັດທະນະທໍາຂອງຄວາມຮັບຜິດຊອບຮ່ວມກັນໃນການຄຸ້ມຄອງ AI.
ຂໍ້ລິເລີ່ມອື່ນໆລວມມີການຍຶດຫມັ້ນໃນກອບແລະການຢັ້ງຢືນສໍາລັບການຄຸ້ມຄອງ AI ທີ່ຮັບຜິດຊອບ. ນີ້ລວມມີການສ້າງຄະນະກໍາມະການດ້ານຈັນຍາບັນ AI ພາຍໃນ, ກໍານົດນະໂຍບາຍຂອງບໍລິສັດສໍາລັບການນໍາໃຊ້ຂອງມັນ, ແລະຮັບຮອງເອົາມາດຕະຖານສາກົນ. ຕົວຢ່າງ, ກອບເຊັ່ນ ISO/IEC 42001 (ການຈັດການປັນຍາປະດິດ), ISO/IEC 27001 (ຄວາມປອດໄພຂອງຂໍ້ມູນ), ແລະ ISO/IEC 27701 (ຄວາມເປັນສ່ວນຕົວ) ຊ່ວຍຄວບຄຸມໂຄງສ້າງໃນຂະບວນການຂໍ້ມູນທີ່ໃຊ້ໂດຍ AI ທົ່ວໄປ. ຕົວຢ່າງອີກອັນຫນຶ່ງແມ່ນຊຸດຂອງການປະຕິບັດທີ່ແນະນໍາໂດຍສະຖາບັນມາດຕະຖານແລະເຕັກໂນໂລຢີແຫ່ງຊາດສະຫະລັດ (NIST) ທີ່ແນະນໍາການຄຸ້ມຄອງຄວາມສ່ຽງ algorithmic, ກວມເອົາການກວດສອບຄວາມລໍາອຽງ, ການກວດສອບຄຸນນະພາບຂໍ້ມູນ, ແລະການຕິດຕາມຕົວແບບຢ່າງຕໍ່ເນື່ອງ.
ທີ່ປຶກສາພິເສດມີບົດບາດຍຸດທະສາດໃນສະຖານະການນີ້. ດ້ວຍຄວາມຊໍານານໃນປັນຍາປະດິດທີ່ມີຄວາມຮັບຜິດຊອບ, ການຄຸ້ມຄອງລະບົບ algorithmic, ແລະການປະຕິບັດຕາມກົດລະບຽບ, ບໍລິສັດເຫຼົ່ານີ້ຊ່ວຍໃຫ້ອົງການຈັດຕັ້ງບໍ່ພຽງແຕ່ຫລີກລ່ຽງຄວາມສ່ຽງ, ແຕ່ຍັງຫັນປ່ຽນຄວາມສະເຫມີພາບໄປສູ່ຄວາມໄດ້ປຽບໃນການແຂ່ງຂັນ. ວຽກງານຂອງທີ່ປຶກສາເຫຼົ່ານີ້ມີຕັ້ງແຕ່ການປະເມີນຄວາມສ່ຽງຢ່າງລະອຽດເຖິງການພັດທະນານະໂຍບາຍພາຍໃນແລະການຝຶກອົບຮົມຂອງບໍລິສັດກ່ຽວກັບຈັນຍາບັນ AI, ໃຫ້ແນ່ໃຈວ່າທີມງານກຽມພ້ອມທີ່ຈະກໍານົດແລະຫຼຸດຜ່ອນຄວາມລໍາອຽງ algorithmic ທີ່ເປັນໄປໄດ້.
ດັ່ງນັ້ນ, ການຫຼຸດຜ່ອນຄວາມລໍາອຽງ algorithmic ບໍ່ພຽງແຕ່ເປັນມາດຕະການປ້ອງກັນ, ແຕ່ເປັນວິທີການຍຸດທະສາດ. ບໍລິສັດທີ່ສຸມໃສ່ຄວາມຍຸດຕິທໍາ algorithmic ສະແດງໃຫ້ເຫັນຄວາມຮັບຜິດຊອບທາງສັງຄົມ, ເສີມສ້າງຊື່ສຽງ, ແລະປົກປ້ອງຕົນເອງຈາກການລົງໂທດທາງດ້ານກົດຫມາຍແລະວິກິດການສາທາລະນະ. ສູດການຄິດໄລ່ທີ່ບໍ່ມີອະຄະຕິມີແນວໂນ້ມທີ່ຈະສະເຫນີຄວາມເຂົ້າໃຈທີ່ຖືກຕ້ອງແລະສົມດູນຫຼາຍຂຶ້ນ, ເພີ່ມປະສິດຕິຜົນຂອງການຕັດສິນໃຈທາງທຸລະກິດແລະສ້າງຄວາມເຂັ້ມແຂງໃນການແຂ່ງຂັນຂອງອົງການຈັດຕັ້ງໃນຕະຫຼາດ.
ໂດຍ Sylvio Sobreira Vieira, CEO & Head Consulting ຢູ່ SVX Consultoria