หน้าแรก บทความ ความก้าวหน้าของ AI จำเป็นต้องมีกลยุทธ์การกำกับดูแล

ความก้าวหน้าของ AI จำเป็นต้องมีกลยุทธ์การกำกับดูแล

ความจริงก็คือ บริษัทต่างๆ ในบราซิลได้นำปัญญาประดิษฐ์ (AI) มาประยุกต์ใช้เป็นส่วนหนึ่งของกลยุทธ์ทางธุรกิจแล้ว โดยอย่างน้อย 98% จากผลการวิจัยที่ดำเนินการในช่วงปลายปี 2024 อย่างไรก็ตาม ปัญหาคือมีเพียง 25% ขององค์กรเท่านั้นที่ประกาศว่าพร้อมนำ AI มาใช้ ส่วนที่เหลือประสบปัญหาข้อจำกัดด้านโครงสร้างพื้นฐาน การจัดการข้อมูล และการขาดแคลนบุคลากรเฉพาะทาง แต่นี่ไม่ได้หมายความว่าอีก 75% ที่เหลือกำลังรอเงื่อนไขที่เหมาะสมที่สุดเพื่อพัฒนาโครงการของตน ในทางกลับกัน บริษัทเหล่านี้ยังคงนำเทคโนโลยีนี้มาใช้อย่างต่อเนื่อง

ปัญหาคือมีเพียงหนึ่งในห้าบริษัทเท่านั้นที่สามารถผสานรวม AI เข้ากับธุรกิจได้ ตามรายงานระดับโลกที่เพิ่งเผยแพร่โดย Qlik ร่วมกับ ESG ยิ่งไปกว่านั้น มีเพียง 47% ของบริษัทที่รายงานว่าได้ดำเนินนโยบายการกำกับดูแลข้อมูล ตัวเลขเหล่านี้เป็นตัวเลขระดับโลก และคงไม่น่าแปลกใจหากสถิติของบราซิลจะสูงกว่านี้ และแม้ว่าปัจจุบัน AI จะถูกนำไปใช้อย่างแยกส่วน และ "จุดเริ่มต้น" ของเทคโนโลยีมักจะเป็นการบริการลูกค้า แต่ความเสี่ยงด้านการเงิน กฎระเบียบ และชื่อเสียงก็ยังคงมีอยู่

บริษัทที่เลือกใช้ AI โดยขาดการเตรียมความพร้อมอย่างเหมาะสมต้องเผชิญกับอุปสรรคมากมาย กรณีศึกษาแสดงให้เห็นว่าอัลกอริทึมที่บริหารจัดการไม่ดีสามารถทำให้เกิดอคติหรือละเมิดความเป็นส่วนตัว ซึ่งส่งผลให้เกิดความเสียหายทั้งด้านชื่อเสียงและการเงิน การกำกับดูแล AI ไม่ใช่แค่ปัญหาทางเทคโนโลยีเท่านั้น แต่ยังเป็นปัญหาของการดำเนินการและการตรวจสอบสถานะทางการเงินอีกด้วย หากปราศจากกลยุทธ์ที่ชัดเจน ความเสี่ยงจะเพิ่มขึ้นตามโอกาส ตั้งแต่การละเมิดความเป็นส่วนตัวและการนำข้อมูลไปใช้ในทางที่ผิด ไปจนถึงการตัดสินใจอัตโนมัติที่คลุมเครือหรือลำเอียงซึ่งก่อให้เกิดความไม่ไว้วางใจ

แรงกดดันด้านกฎระเบียบและการปฏิบัติตาม: รากฐานของการกำกับดูแล AI

ความจำเป็นในการจัดตั้งการกำกับดูแล AI ไม่ได้เกิดขึ้นจากด้านธุรกิจเพียงอย่างเดียว แต่ยังมีกฎระเบียบใหม่ๆ เกิดขึ้น และความคืบหน้าก็รวดเร็ว รวมถึงในบราซิลด้วย  

ในเดือนธันวาคม พ.ศ. 2567 วุฒิสภาแห่งสหพันธรัฐได้อนุมัติร่างกฎหมายหมายเลข 2338/2023 ซึ่ง เสนอกรอบการกำกับดูแล AI พร้อมแนวทางการใช้งานอย่างมีความรับผิดชอบ ร่างกฎหมายนี้ใช้แนวทางที่อิงตามความเสี่ยง เช่น เดียวกับสหภาพยุโรป โดยจำแนกระบบ AI ตามศักยภาพที่จะก่อให้เกิดอันตรายต่อสิทธิมนุษยชนขั้นพื้นฐาน แอปพลิเคชันที่มีความเสี่ยงสูง เช่น อัลกอริทึมอาวุธอัตโนมัติ หรือเครื่องมือเฝ้าระวังมวลชน จะถูกห้ามใช้งาน ขณะ ระบบ AI เชิงสร้างสรรค์และเชิงวัตถุประสงค์ทั่วไป จะต้องได้รับการประเมินความเสี่ยงก่อนนำออกสู่ตลาด

นอกจากนี้ยังมีข้อกำหนดด้านความโปร่งใส เช่น กำหนดให้นักพัฒนาต้องเปิดเผยว่าตนใช้เนื้อหาที่มีลิขสิทธิ์ในการฝึกอบรมโมเดลหรือไม่ ขณะเดียวกัน ก็มีการหารือกันเกี่ยวกับการมอบหมายให้หน่วยงานคุ้มครองข้อมูลแห่งชาติ (ANPD) มีบทบาทสำคัญในการประสานงานการกำกับดูแล AI ในประเทศ โดยใช้ประโยชน์จากกรอบการคุ้มครองข้อมูลที่มีอยู่ กฎหมายเหล่านี้บ่งชี้ว่าในไม่ช้า บริษัทต่างๆ จะมีภาระผูกพันที่ชัดเจนเกี่ยวกับการพัฒนาและการใช้งาน AI ตั้งแต่แนวทางปฏิบัติในการรายงาน การลดความเสี่ยง ไปจนถึงการคำนึงถึงผลกระทบจากอัลกอริทึม

ในสหรัฐอเมริกาและยุโรป หน่วยงานกำกับดูแลได้เพิ่มการตรวจสอบอัลกอริทึม โดยเฉพาะอย่างยิ่งหลังจากเครื่องมือ AI เชิงสร้างสรรค์ได้รับความนิยม ซึ่งก่อให้เกิดการถกเถียงในที่สาธารณะ พระราชบัญญัติ AI ACT ได้มีผลบังคับใช้ในสหภาพยุโรปแล้ว และมีกำหนดสิ้นสุดการบังคับใช้ในวันที่ 2 สิงหาคม 2569 ซึ่งเป็นวันที่ภาระผูกพันส่วนใหญ่ของมาตรฐานจะมีผลบังคับใช้ ซึ่งรวมถึงข้อกำหนดสำหรับระบบ AI ที่มีความเสี่ยงสูงและแบบจำลอง AI อเนกประสงค์  

ความโปร่งใส จริยธรรม และความรับผิดชอบต่ออัลกอริทึม

นอกเหนือจากแง่มุมทางกฎหมายแล้ว การกำกับดูแล AI ยังครอบคลุมถึงหลักจริยธรรมและความรับผิดชอบที่มากกว่าแค่ "การปฏิบัติตามกฎหมาย" บริษัทต่างๆ ตระหนักดีว่า ความโปร่งใสเกี่ยวกับวิธีการใช้งาน AI เป็นสิ่งสำคัญอย่างยิ่งยวด เพื่อให้ได้รับความไว้วางใจจากลูกค้า นักลงทุน และสังคมโดยรวม ซึ่งรวมถึงการปรับใช้แนวปฏิบัติภายในองค์กรหลายด้าน เช่น การประเมินผลกระทบของอัลกอริทึมล่วงหน้า การจัดการคุณภาพข้อมูลอย่างเข้มงวด และการตรวจสอบแบบจำลองอิสระ  

นอกจากนี้ การดำเนินการตามนโยบายการกำกับดูแลข้อมูลที่ต้องกรองและเลือกข้อมูลการฝึกอบรมอย่างรอบคอบ โดยหลีกเลี่ยงอคติเลือกปฏิบัติที่อาจฝังอยู่ในข้อมูลที่รวบรวมมาก็มีความสำคัญเช่นกัน  

เมื่อโมเดล AI สามารถใช้งานได้แล้ว บริษัทจะต้องดำเนินการทดสอบ ตรวจสอบ และตรวจสอบอัลกอริทึมเป็นระยะๆ เพื่อบันทึกการตัดสินใจและเกณฑ์ที่ใช้ บันทึกนี้มีประโยชน์สองประการ คือ ช่วยอธิบายวิธีการทำงานของระบบ และช่วยให้สามารถรับผิดชอบในกรณีที่เกิดความล้มเหลวหรือผลลัพธ์ที่ไม่เหมาะสม

การกำกับดูแล: นวัตกรรมที่มีมูลค่าการแข่งขัน

ความเข้าใจผิดที่พบบ่อยคือการกำกับดูแล AI เป็นตัวจำกัดนวัตกรรม ในทางกลับกัน กลยุทธ์การกำกับดูแลที่ดีจะช่วยให้เกิดนวัตกรรมที่ปลอดภัย ปลดล็อกศักยภาพของ AI อย่างมีความรับผิดชอบ บริษัทที่วางแผนกรอบการกำกับดูแลตั้งแต่เนิ่นๆ จะสามารถลดความเสี่ยงก่อนที่จะกลายเป็นปัญหา หลีกเลี่ยงการแก้ไขงานหรือเรื่องอื้อฉาวที่จะทำให้โครงการล่าช้า  

ส่งผลให้องค์กรเหล่านี้ได้รับมูลค่าเพิ่มขึ้นอย่างรวดเร็วยิ่งขึ้นจากโครงการริเริ่มต่างๆ หลักฐานทางการตลาดตอกย้ำความสัมพันธ์นี้: ผลสำรวจทั่วโลกพบว่าบริษัทที่มีผู้นำกำกับดูแลการกำกับดูแล AI อย่างแข็งขัน รายงานผลกระทบทางการเงินที่เหนือกว่าจากการใช้ AI ขั้นสูง

นอกจากนี้ เราอยู่ในช่วงเวลาที่มีผู้บริโภคและนักลงทุนที่ตระหนักมากขึ้นถึงการใช้เทคโนโลยีอย่างมีจริยธรรม และการแสดงให้เห็นถึงความมุ่งมั่นในการกำกับดูแลนี้สามารถสร้างความแตกต่างให้กับบริษัทจากคู่แข่งได้  

ในทางปฏิบัติ องค์กรที่มีการกำกับดูแลที่ครบถ้วนสมบูรณ์จะรายงานถึงการพัฒนาที่ดีขึ้น ไม่เพียงแต่ในด้านความปลอดภัยเท่านั้น แต่ยังรวมถึงประสิทธิภาพในการพัฒนาด้วย ผู้บริหารชี้ให้เห็นถึงการลดระยะเวลาในโครงการ AI เนื่องจากมีมาตรฐานที่ชัดเจนตั้งแต่เริ่มต้น กล่าวคือ เมื่อพิจารณาข้อกำหนดด้านความเป็นส่วนตัว ความสามารถในการอธิบาย และคุณภาพตั้งแต่เริ่มต้นของขั้นตอนการออกแบบ ก็จะสามารถหลีกเลี่ยงการแก้ไขที่มีค่าใช้จ่ายสูงในภายหลังได้  

ดังนั้น ธรรมาภิบาลจึงทำหน้าที่เป็นแนวทางสำหรับนวัตกรรมที่ยั่งยืน โดยชี้แนะว่าควรลงทุนที่ไหนและจะขยายโซลูชันอย่างมีความรับผิดชอบอย่างไร การปรับโครงการริเริ่มด้าน AI ให้สอดคล้องกับกลยุทธ์และค่านิยมขององค์กร ธรรมาภิบาลจึงช่วยให้มั่นใจได้ว่านวัตกรรมจะบรรลุวัตถุประสงค์ทางธุรกิจและชื่อเสียงโดยรวม แทนที่จะดำเนินไปในเส้นทางที่โดดเดี่ยวหรืออาจก่อให้เกิดอันตราย  

การพัฒนากลยุทธ์การกำกับดูแล AI ถือเป็นกลยุทธ์สำคัญที่สุดในการสร้างจุดยืนทางการแข่งขัน ในระบบนิเวศปัจจุบันที่ประเทศและบริษัทต่างๆ ต่างแข่งขันกันในด้านเทคโนโลยี ผู้ที่สร้างสรรค์นวัตกรรมด้วยความมั่นใจและความน่าเชื่อถือจะเป็นผู้นำ บริษัทขนาดใหญ่ที่สร้างระบบการกำกับดูแลที่มีประสิทธิภาพจะสามารถสร้างสมดุลระหว่างการลดความเสี่ยงกับการเพิ่มประโยชน์ของ AI ให้ได้มากที่สุด แทนที่จะเสียสละสิ่งใดสิ่งหนึ่งเพื่ออีกสิ่งหนึ่ง  

ในที่สุด การกำกับดูแล AI ไม่ใช่ทางเลือกอีกต่อไป แต่เป็นสิ่งจำเป็นเชิงกลยุทธ์ สำหรับบริษัทขนาดใหญ่ การสร้างกลยุทธ์การกำกับดูแลในปัจจุบันหมายถึงการกำหนดมาตรฐาน การควบคุม และค่านิยมที่จะเป็นแนวทางการใช้งานปัญญาประดิษฐ์ในอีกไม่กี่ปีข้างหน้า ซึ่งครอบคลุมทุกอย่างตั้งแต่การปฏิบัติตามกฎระเบียบใหม่ๆ ไปจนถึงการสร้างกลไกจริยธรรมและความโปร่งใสภายในองค์กร โดยมีเป้าหมายเพื่อลดความเสี่ยงและเพิ่มมูลค่าสูงสุดอย่างสมดุล ผู้ที่ดำเนินการอย่างรวดเร็วจะได้รับผลตอบแทนจากนวัตกรรมที่สม่ำเสมอและชื่อเสียงที่แข็งแกร่ง ซึ่งจะทำให้พวกเขาก้าวขึ้นเป็นผู้นำในตลาดที่ขับเคลื่อนด้วย AI มากขึ้นเรื่อยๆ

คลาวดิโอ คอสต้า
คลาวดิโอ คอสต้า
Claudio Costa เป็นหัวหน้าหน่วยธุรกิจที่ปรึกษาธุรกิจที่ Selbetti
บทความที่เกี่ยวข้อง

ฝากข้อความตอบกลับ

กรุณาใส่ความคิดเห็นของคุณ!
กรุณากรอกชื่อของคุณที่นี่

ล่าสุด

ได้รับความนิยมมากที่สุด

[elfsight_cookie_consent id="1"]