ปัจจุบัน AI กลายเป็นสิ่งสำคัญในการทำงานทุกภาคส่วน ไม่ว่าจะเป็นการวิเคราะห์ข้อมูล การจัดทำรายงาน หรือการช่วยตัดสินใจต่างๆ แต่หลายๆองค์กรอาจยังมองข้ามเรื่องการตรวจสอบผลลัพธ์ที่ AI จัดทำขึ้นมาให้ ปัญหาการขาดระบบ AI Governance หรือ “กรอบการกำกับดูแลปัญญาประดิษฐ์” ทำให้เกิดช่องโหว่ในกระบวนการตรวจสอบคุณภาพ ความถูกต้อง และความรับผิดชอบของข้อมูลที่ AI สร้างขึ้น เมื่อองค์กรเริ่มพึ่งพา AI โดยไม่มีระบบตรวจสอบจากคน ความผิดพลาดนี้อาจไม่ใช่แค่ข้อมูลที่ไม่ถูกต้อง แต่อาจกลายเป็นความเสียหายด้านจริยธรรม และความน่าเชื่อถือขององค์
เมื่อไม่กี่วันที่ผ่านมาหลายๆท่านอาจได้ข่าวที่บริษัทสอบบัญชีระดับโลกรายหนึ่งใช้ AI สร้างรายงานเพื่อส่งมอบให้กับกรมการจ้างงานและความสัมพันธ์ในสถานที่ทำงาน (DEWR) ของรัฐบาลออสเตรเลีย โดยบริษัทดังกล่าวต้องคืนเงินบางส่วนให้แก่รัฐบาล เนื่องมาจากข้อมูลที่อยู่ในรายงานมีคุณภาพต่ำกว่ามาตรฐาน อันเกิดจากข้อผิดพลาดของ AI และการขาดการตรวจสอบโดยมนุษย์ โดยมีการอ้างถึงรายงานทางวิชาการและงานวิจัยที่ไม่มีจริง
เหตุการณ์นี้ได้กลายเป็นกรณีศึกษาที่สะท้อนให้เห็นถึงความเปราะบางของการใช้ AI โดยขาดการกำกับดูแลที่เหมาะสม เพราะแม้เทคโนโลยีจะช่วยเพิ่มความรวดเร็วในการทำงานและลดต้นทุนได้อย่างมาก แต่หากไม่มีระบบตรวจสอบและรับรองคุณภาพที่ชัดเจน ก็อาจทำให้ผลลัพธ์ที่ได้ดูถูกต้องแต่ไม่เป็นความจริง จนกระทบต่อความน่าเชื่อถือขององค์กรโดยตรง
นอกจากนี้ เหตุการณ์ดังกล่าวอาจทำให้ภาคธุรกิจต้องเริ่มหันมาทบทวนว่า องค์กรควรมีกรอบการกำกับดูแลด้าน AI ที่ครอบคลุมมากเพียงใด เพื่อป้องกันความผิดพลาดในอนาคต โดยเฉพาะในงานที่ต้องอาศัยข้อมูลเชิงกฎหมาย การเงิน หรือการวิจัย ที่มีผลกระทบต่อสาธารณะ ดังนั้น ไม่ว่าเทคโนโลยีจะก้าวหน้าเพียงใด ความรับผิดชอบของมนุษย์ยังคงเป็นสิ่งสำคัญของการใช้ AI หากองค์กรต้องการรักษาความน่าเชื่อถือในยุคที่ข้อมูลถูกสร้างขึ้นได้ในพริบตาเดียว ก็จะต้องมีกลไกการกำกับดูแล AI ที่ชัดเจน โปร่งใส และตรวจสอบได้จริง
ผู้เขียน : คุณโศรญา กมลวานนท์ ผู้ช่วยหัวหน้าแผนก ฝ่ายตรวจสอบเทคโนโลยีสารสนเทศ

Thai (TH)
English (UK)