การอภิปรายสาธารณะเกี่ยวกับปัญญาประดิษฐ์ (AI) มักจะหายไปในสุดขั้ว: ความอิ่มเอมใจกับระบบอัตโนมัติทั้งหมดหรือความกลัวที่จะเปลี่ยนมืออาชีพ ความเร่งด่วนที่แท้จริงอย่างไรก็ตามอยู่ในการกํากับดูแลของมนุษย์ โมเดล AI ตามความน่าจะเป็นมีระยะขอบของข้อผิดพลาดโดยธรรมชาติแต่มีการใช้มากขึ้นในบริบทที่สําคัญตั้งแต่การเงินไปจนถึงสุขภาพโดยไม่มีการดูแลที่เหมาะสม การปฏิบัตินี้ไม่เพียงแต่มีความเสี่ยงเท่านั้นแต่ยังผิดพลาดทางเทคนิค หากไม่มีการตรวจสอบอย่างเข้มงวดความไว้วางใจที่ตาบอดใน AI อาจนําไปสู่ความล้มเหลวอย่างร้ายแรงโดยมีผลกระทบด้านจริยธรรมกฎหมายและการดําเนินงาน การกํากับดูแลของมนุษย์ไม่ใช่อุปกรณ์เสริม: เป็นพื้นฐานสําหรับการใช้เทคโนโลยีอย่างมีความรับผิดชอบและยั่งยืน
ขีดจํากัดของ AI นั้นเห็นได้ชัดในการใช้งานจริงการศึกษาจากมหาวิทยาลัยสแตนฟอร์ดและ GitHub Copilot (2023) เปิดเผยว่า 45% ของโค้ดที่สร้างโดย AI นําเสนอช่องโหว่หรือละเมิดแนวทางการพัฒนาที่ดี แม้ว่า AI ดูเหมือนจะใช้งานได้ แต่คําถามยังคงมีอยู่: โซลูชันอาจไม่ปลอดภัยอาจไม่ตรงตามมาตรฐานด้านกฎระเบียบและอาจไม่สอดคล้องกับวัตถุประสงค์ทางธุรกิจ หากไม่มีการทดสอบอย่างเข้มงวดและการตรวจสอบอย่างต่อเนื่องคําตอบใด ๆ จะเป็นเพียงการคาดเดา
ความเชื่อในความผิดพลาดของ AI นั้นเกิดจากวาทกรรมทางการค้าและความคาดหวังที่ไม่สมจริงแต่กลับเพิกเฉยต่อความจริงพื้นฐาน: เทคโนโลยีขึ้นอยู่กับมนุษย์ในการตีความปรับเปลี่ยนและแก้ไขผลลัพธ์ ในภาคที่มีการควบคุมเช่นกฎหมายการขาดการกํากับดูแลอาจละเมิดกฎหมายเช่นพระราชบัญญัติคุ้มครองข้อมูลทั่วไป (LGPD) ซึ่งต้องการความโปร่งใสในการตัดสินใจอัตโนมัติ จากข้อมูลของ McKinsey (2023) ดูเหมือนว่ามีเพียงไม่กี่บริษัทที่เตรียมพร้อมอย่างเต็มที่สําหรับการใช้งาน GenAI อย่างแพร่หลายหรืออย่างแม่นยํายิ่งขึ้นสําหรับความเสี่ยงที่เครื่องมือเหล่านี้สามารถนํามาสู่ธุรกิจได้ มีเพียง 21% ของผู้ตอบแบบสอบถามที่รายงานการนําปัญญาประดิษฐ์มาใช้เพื่อเผยแพร่แนวทางการใช้การดูแลสุขภาพที่มีข้อมูลที่ไม่ถูกต้องแนะนําองค์กรของตน
ความเชื่อที่ว่าปัญญาประดิษฐ์ไม่มีข้อผิดพลาดสะท้อนถึงการบิดเบือนที่เกิดจากวาทกรรมทางธุรกิจและความคาดหวังที่ไม่สมจริง และการขาดแคลนผู้เชี่ยวชาญก็มีความสําคัญเช่นกัน ในการสํารวจล่าสุดโดยที่ปรึกษา Bain & Company ในบราซิล ผู้บริหาร 39% อ้างถึงการขาดความเชี่ยวชาญภายใน เป็นอุปสรรคหลักในการเร่งการนํา AI เชิงสร้างสรรค์ไปใช้ เอาชนะแม้แต่ความกังวลเกี่ยวกับความปลอดภัยของข้อมูล
ไม่ใช่คําถามของการปฏิเสธความก้าวหน้าทางเทคโนโลยีซึ่งเป็นสาระสําคัญแต่ต้องตระหนักว่ายังคงขึ้นอยู่กับและจะยังคงขึ้นอยู่กับผู้เชี่ยวชาญที่สามารถตีความปรับเปลี่ยนและแก้ไขผลลัพธ์ของพวกเขาได้เมื่อจําเป็น โดยเฉพาะอย่างยิ่งในภาคที่มีการควบคุมหรือผลกระทบสูงเช่นการเงินกฎหมายหรือสุขภาพการขาดการกํากับดูแลด้านเทคนิคและจริยธรรมสามารถสร้างผลกระทบร้ายแรงทางกฎหมายและการดําเนินงาน การศึกษาทองเหลืองเป็นหลักฐานการขาดแคลนนี้บราซิลเพียง 53 พันผู้เชี่ยวชาญด้านไอทีต่อปีในขณะที่ความต้องการระหว่างปี 2564 ถึง 2568 จะต้องมีความสามารถทั้งหมด 797 พันคน
ความคิดริเริ่มระดับโลกชี้ไปที่วิธีการปรับปรุง วิธีการของสหประชาชาติสําหรับการใช้ AI อย่างมีจริยธรรมแนะนําให้มีการกํากับดูแลของมนุษย์ตลอดวงจรชีวิตของระบบทั้งหมดตั้งแต่การออกแบบไปจนถึงการดําเนินงาน บริษัทต่างๆเช่น Salesforce แสดงให้เห็นในทางปฏิบัติ: แพลตฟอร์ม Einstein ของพวกเขาใช้คณะกรรมการจริยธรรมในการตรวจสอบอัลกอริธึมแนวทางนี้แสดงให้เห็นว่าการกํากับดูแลไม่เพียงแต่ทางเทคนิคเท่านั้น แต่ยังรวมถึงกลยุทธ์ด้วยซึ่งต้องการความโปร่งใสความรับผิดชอบและการลงทุนในการสร้างขีดความสามารถ
AI มีอํานาจในการเปลี่ยนแปลงอุตสาหกรรมแต่หากไม่มีการกํากับดูแลของมนุษย์ศักยภาพของมันถูกบดบังด้วยความเสี่ยงด้านจริยธรรมกฎหมายและการดําเนินงาน กรณีต่างๆเช่นการฉ้อโกงทางการเงินและข้อผิดพลาดทางการแพทย์ที่เป็นไปได้แสดงให้เห็นว่าความไว้วางใจในเทคโนโลยีที่มองไม่เห็นนั้นไม่ยั่งยืนในขณะที่ตัวอย่างในขณะที่ Salesforce พิสูจน์ว่าการกํากับดูแลที่แข็งแกร่งสามารถเพิ่มผลประโยชน์สูงสุดและลดความล้มเหลว ภายในปี 2568 การอภิปรายเกี่ยวกับ AI ควรจัดลําดับความสําคัญของการกํากับดูแลเป็นเสาหลักของนวัตกรรมที่มีความรับผิดชอบเผชิญกับความท้าทายเช่นต้นทุนการขาดแคลนความสามารถและการต่อต้านทางวัฒนธรรม ผู้นํา บริษัท และหน่วยงานกํากับดูแลมีหน้าที่รับผิดชอบในการสร้างระบบที่รวมพลังของ AI เข้ากับความอ่อนไหวของมนุษย์ทําให้มั่นใจได้ว่าเทคโนโลยีจะขยายความก้าวหน้าไม่ใช่ปัญหา