ความจริงก็คือ บริษัทต่างๆ ในบราซิลได้นำปัญญาประดิษฐ์ (AI) มาประยุกต์ใช้เป็นส่วนหนึ่งของกลยุทธ์ทางธุรกิจแล้ว โดยอย่างน้อย 98% จากผลการวิจัยที่ดำเนินการในช่วงปลายปี 2024 อย่างไรก็ตาม ปัญหาคือมีเพียง 25% ขององค์กรเท่านั้นที่ประกาศว่าพร้อมนำ AI มาใช้ ส่วนที่เหลือประสบปัญหาข้อจำกัดด้านโครงสร้างพื้นฐาน การจัดการข้อมูล และการขาดแคลนบุคลากรเฉพาะทาง แต่นี่ไม่ได้หมายความว่าอีก 75% ที่เหลือกำลังรอเงื่อนไขที่เหมาะสมที่สุดเพื่อพัฒนาโครงการของตน ในทางกลับกัน บริษัทเหล่านี้ยังคงนำเทคโนโลยีนี้มาใช้อย่างต่อเนื่อง
ปัญหาคือมีเพียงหนึ่งในห้าบริษัทเท่านั้นที่สามารถผสานรวม AI เข้ากับธุรกิจได้ ตามรายงานระดับโลกที่เพิ่งเผยแพร่โดย Qlik ร่วมกับ ESG ยิ่งไปกว่านั้น มีเพียง 47% ของบริษัทที่รายงานว่าได้ดำเนินนโยบายการกำกับดูแลข้อมูล ตัวเลขเหล่านี้เป็นตัวเลขระดับโลก และคงไม่น่าแปลกใจหากสถิติของบราซิลจะสูงกว่านี้ และแม้ว่าปัจจุบัน AI จะถูกนำไปใช้อย่างแยกส่วน และ "จุดเริ่มต้น" ของเทคโนโลยีมักจะเป็นการบริการลูกค้า แต่ความเสี่ยงด้านการเงิน กฎระเบียบ และชื่อเสียงก็ยังคงมีอยู่
บริษัทที่เลือกใช้ AI โดยขาดการเตรียมความพร้อมอย่างเหมาะสมต้องเผชิญกับอุปสรรคมากมาย กรณีศึกษาแสดงให้เห็นว่าอัลกอริทึมที่บริหารจัดการไม่ดีสามารถทำให้เกิดอคติหรือละเมิดความเป็นส่วนตัว ซึ่งส่งผลให้เกิดความเสียหายทั้งด้านชื่อเสียงและการเงิน การกำกับดูแล AI ไม่ใช่แค่ปัญหาทางเทคโนโลยีเท่านั้น แต่ยังเป็นปัญหาของการดำเนินการและการตรวจสอบสถานะทางการเงินอีกด้วย หากปราศจากกลยุทธ์ที่ชัดเจน ความเสี่ยงจะเพิ่มขึ้นตามโอกาส ตั้งแต่การละเมิดความเป็นส่วนตัวและการนำข้อมูลไปใช้ในทางที่ผิด ไปจนถึงการตัดสินใจอัตโนมัติที่คลุมเครือหรือลำเอียงซึ่งก่อให้เกิดความไม่ไว้วางใจ
แรงกดดันด้านกฎระเบียบและการปฏิบัติตาม: รากฐานของการกำกับดูแล AI
ความจำเป็นในการจัดตั้งการกำกับดูแล AI ไม่ได้เกิดขึ้นจากด้านธุรกิจเพียงอย่างเดียว แต่ยังมีกฎระเบียบใหม่ๆ เกิดขึ้น และความคืบหน้าก็รวดเร็ว รวมถึงในบราซิลด้วย
ในเดือนธันวาคม พ.ศ. 2567 วุฒิสภาแห่งสหพันธรัฐได้อนุมัติร่างกฎหมายหมายเลข 2338/2023 ซึ่ง เสนอกรอบการกำกับดูแล AI พร้อมแนวทางการใช้งานอย่างมีความรับผิดชอบ ร่างกฎหมายนี้ใช้แนวทางที่อิงตามความเสี่ยง เช่น เดียวกับสหภาพยุโรป โดยจำแนกระบบ AI ตามศักยภาพที่จะก่อให้เกิดอันตรายต่อสิทธิมนุษยชนขั้นพื้นฐาน แอปพลิเคชันที่มีความเสี่ยงสูง เช่น อัลกอริทึมอาวุธอัตโนมัติ หรือเครื่องมือเฝ้าระวังมวลชน จะถูกห้ามใช้งาน ขณะ ระบบ AI เชิงสร้างสรรค์และเชิงวัตถุประสงค์ทั่วไป จะต้องได้รับการประเมินความเสี่ยงก่อนนำออกสู่ตลาด
นอกจากนี้ยังมีข้อกำหนดด้านความโปร่งใส เช่น กำหนดให้นักพัฒนาต้องเปิดเผยว่าตนใช้เนื้อหาที่มีลิขสิทธิ์ในการฝึกอบรมโมเดลหรือไม่ ขณะเดียวกัน ก็มีการหารือกันเกี่ยวกับการมอบหมายให้หน่วยงานคุ้มครองข้อมูลแห่งชาติ (ANPD) มีบทบาทสำคัญในการประสานงานการกำกับดูแล AI ในประเทศ โดยใช้ประโยชน์จากกรอบการคุ้มครองข้อมูลที่มีอยู่ กฎหมายเหล่านี้บ่งชี้ว่าในไม่ช้า บริษัทต่างๆ จะมีภาระผูกพันที่ชัดเจนเกี่ยวกับการพัฒนาและการใช้งาน AI ตั้งแต่แนวทางปฏิบัติในการรายงาน การลดความเสี่ยง ไปจนถึงการคำนึงถึงผลกระทบจากอัลกอริทึม
ในสหรัฐอเมริกาและยุโรป หน่วยงานกำกับดูแลได้เพิ่มการตรวจสอบอัลกอริทึม โดยเฉพาะอย่างยิ่งหลังจากเครื่องมือ AI เชิงสร้างสรรค์ได้รับความนิยม ซึ่งก่อให้เกิดการถกเถียงในที่สาธารณะ พระราชบัญญัติ AI ACT ได้มีผลบังคับใช้ในสหภาพยุโรปแล้ว และมีกำหนดสิ้นสุดการบังคับใช้ในวันที่ 2 สิงหาคม 2569 ซึ่งเป็นวันที่ภาระผูกพันส่วนใหญ่ของมาตรฐานจะมีผลบังคับใช้ ซึ่งรวมถึงข้อกำหนดสำหรับระบบ AI ที่มีความเสี่ยงสูงและแบบจำลอง AI อเนกประสงค์
ความโปร่งใส จริยธรรม และความรับผิดชอบต่ออัลกอริทึม
นอกเหนือจากแง่มุมทางกฎหมายแล้ว การกำกับดูแล AI ยังครอบคลุมถึงหลักจริยธรรมและความรับผิดชอบที่มากกว่าแค่ "การปฏิบัติตามกฎหมาย" บริษัทต่างๆ ตระหนักดีว่า ความโปร่งใสเกี่ยวกับวิธีการใช้งาน AI เป็นสิ่งสำคัญอย่างยิ่งยวด เพื่อให้ได้รับความไว้วางใจจากลูกค้า นักลงทุน และสังคมโดยรวม ซึ่งรวมถึงการปรับใช้แนวปฏิบัติภายในองค์กรหลายด้าน เช่น การประเมินผลกระทบของอัลกอริทึมล่วงหน้า การจัดการคุณภาพข้อมูลอย่างเข้มงวด และการตรวจสอบแบบจำลองอิสระ
นอกจากนี้ การดำเนินการตามนโยบายการกำกับดูแลข้อมูลที่ต้องกรองและเลือกข้อมูลการฝึกอบรมอย่างรอบคอบ โดยหลีกเลี่ยงอคติเลือกปฏิบัติที่อาจฝังอยู่ในข้อมูลที่รวบรวมมาก็มีความสำคัญเช่นกัน
เมื่อโมเดล AI สามารถใช้งานได้แล้ว บริษัทจะต้องดำเนินการทดสอบ ตรวจสอบ และตรวจสอบอัลกอริทึมเป็นระยะๆ เพื่อบันทึกการตัดสินใจและเกณฑ์ที่ใช้ บันทึกนี้มีประโยชน์สองประการ คือ ช่วยอธิบายวิธีการทำงานของระบบ และช่วยให้สามารถรับผิดชอบในกรณีที่เกิดความล้มเหลวหรือผลลัพธ์ที่ไม่เหมาะสม
การกำกับดูแล: นวัตกรรมที่มีมูลค่าการแข่งขัน
ความเข้าใจผิดที่พบบ่อยคือการกำกับดูแล AI เป็นตัวจำกัดนวัตกรรม ในทางกลับกัน กลยุทธ์การกำกับดูแลที่ดีจะช่วยให้เกิดนวัตกรรมที่ปลอดภัย ปลดล็อกศักยภาพของ AI อย่างมีความรับผิดชอบ บริษัทที่วางแผนกรอบการกำกับดูแลตั้งแต่เนิ่นๆ จะสามารถลดความเสี่ยงก่อนที่จะกลายเป็นปัญหา หลีกเลี่ยงการแก้ไขงานหรือเรื่องอื้อฉาวที่จะทำให้โครงการล่าช้า
ส่งผลให้องค์กรเหล่านี้ได้รับมูลค่าเพิ่มขึ้นอย่างรวดเร็วยิ่งขึ้นจากโครงการริเริ่มต่างๆ หลักฐานทางการตลาดตอกย้ำความสัมพันธ์นี้: ผลสำรวจทั่วโลกพบว่าบริษัทที่มีผู้นำกำกับดูแลการกำกับดูแล AI อย่างแข็งขัน รายงานผลกระทบทางการเงินที่เหนือกว่าจากการใช้ AI ขั้นสูง
นอกจากนี้ เราอยู่ในช่วงเวลาที่มีผู้บริโภคและนักลงทุนที่ตระหนักมากขึ้นถึงการใช้เทคโนโลยีอย่างมีจริยธรรม และการแสดงให้เห็นถึงความมุ่งมั่นในการกำกับดูแลนี้สามารถสร้างความแตกต่างให้กับบริษัทจากคู่แข่งได้
ในทางปฏิบัติ องค์กรที่มีการกำกับดูแลที่ครบถ้วนสมบูรณ์จะรายงานถึงการพัฒนาที่ดีขึ้น ไม่เพียงแต่ในด้านความปลอดภัยเท่านั้น แต่ยังรวมถึงประสิทธิภาพในการพัฒนาด้วย ผู้บริหารชี้ให้เห็นถึงการลดระยะเวลาในโครงการ AI เนื่องจากมีมาตรฐานที่ชัดเจนตั้งแต่เริ่มต้น กล่าวคือ เมื่อพิจารณาข้อกำหนดด้านความเป็นส่วนตัว ความสามารถในการอธิบาย และคุณภาพตั้งแต่เริ่มต้นของขั้นตอนการออกแบบ ก็จะสามารถหลีกเลี่ยงการแก้ไขที่มีค่าใช้จ่ายสูงในภายหลังได้
ดังนั้น ธรรมาภิบาลจึงทำหน้าที่เป็นแนวทางสำหรับนวัตกรรมที่ยั่งยืน โดยชี้แนะว่าควรลงทุนที่ไหนและจะขยายโซลูชันอย่างมีความรับผิดชอบอย่างไร การปรับโครงการริเริ่มด้าน AI ให้สอดคล้องกับกลยุทธ์และค่านิยมขององค์กร ธรรมาภิบาลจึงช่วยให้มั่นใจได้ว่านวัตกรรมจะบรรลุวัตถุประสงค์ทางธุรกิจและชื่อเสียงโดยรวม แทนที่จะดำเนินไปในเส้นทางที่โดดเดี่ยวหรืออาจก่อให้เกิดอันตราย
การพัฒนากลยุทธ์การกำกับดูแล AI ถือเป็นกลยุทธ์สำคัญที่สุดในการสร้างจุดยืนทางการแข่งขัน ในระบบนิเวศปัจจุบันที่ประเทศและบริษัทต่างๆ ต่างแข่งขันกันในด้านเทคโนโลยี ผู้ที่สร้างสรรค์นวัตกรรมด้วยความมั่นใจและความน่าเชื่อถือจะเป็นผู้นำ บริษัทขนาดใหญ่ที่สร้างระบบการกำกับดูแลที่มีประสิทธิภาพจะสามารถสร้างสมดุลระหว่างการลดความเสี่ยงกับการเพิ่มประโยชน์ของ AI ให้ได้มากที่สุด แทนที่จะเสียสละสิ่งใดสิ่งหนึ่งเพื่ออีกสิ่งหนึ่ง
ในที่สุด การกำกับดูแล AI ไม่ใช่ทางเลือกอีกต่อไป แต่เป็นสิ่งจำเป็นเชิงกลยุทธ์ สำหรับบริษัทขนาดใหญ่ การสร้างกลยุทธ์การกำกับดูแลในปัจจุบันหมายถึงการกำหนดมาตรฐาน การควบคุม และค่านิยมที่จะเป็นแนวทางการใช้งานปัญญาประดิษฐ์ในอีกไม่กี่ปีข้างหน้า ซึ่งครอบคลุมทุกอย่างตั้งแต่การปฏิบัติตามกฎระเบียบใหม่ๆ ไปจนถึงการสร้างกลไกจริยธรรมและความโปร่งใสภายในองค์กร โดยมีเป้าหมายเพื่อลดความเสี่ยงและเพิ่มมูลค่าสูงสุดอย่างสมดุล ผู้ที่ดำเนินการอย่างรวดเร็วจะได้รับผลตอบแทนจากนวัตกรรมที่สม่ำเสมอและชื่อเสียงที่แข็งแกร่ง ซึ่งจะทำให้พวกเขาก้าวขึ้นเป็นผู้นำในตลาดที่ขับเคลื่อนด้วย AI มากขึ้นเรื่อยๆ