เมื่อเดือนมกราคมที่ผ่านมา เกาหลีใต้กลายเป็นประเทศแรกในเอเชียที่ประกาศใช้กฎหมายกำกับดูแล AI อย่างเป็นทางการ ภายใต้ชื่อ AI Basic Act ซึ่งไม่ได้คุมแค่บริษัทที่พัฒนา AI เท่านั้น แต่รวมถึงบริษัทที่ "ใช้" AI ในการทำธุรกิจด้วยครับ พูดง่ายๆ ก็คือ แค่เอา ChatGPT มาช่วยทำงาน ก็อาจอยู่ภายใต้กฎหมายนี้ได้
ฝั่งสหภาพยุโรปก็ไม่น้อยหน้า EU AI Act เริ่มบังคับใช้เต็มรูปแบบในปี 2026 นี้แล้ว ส่วนประเทศไทยเอง กระทรวง DE ร่วมกับ ETDA ก็เพิ่งเปิดรับฟังความเห็นร่างกฎหมาย AI ฉบับแรกของไทยไปไม่นาน
แล้วองค์กรของเราล่ะ... พร้อมหรือยังครับ? ใช้ AI กันทั้งออฟฟิศ แต่ถามว่ามีกติกาไหม?
ลองมองรอบตัวดูครับ ตอนนี้แทบทุกแผนกในองค์กรใช้ AI กันแล้ว ฝ่ายการตลาดใช้ AI เขียนคอนเทนต์ ฝ่ายบัญชีใช้ AI ช่วยวิเคราะห์ข้อมูล ฝ่าย HR ใช้ AI คัดกรองใบสมัคร แม้แต่ผู้บริหารเองก็ใช้ AI ช่วยสรุปรายงาน
แต่ถ้าถามว่า "บริษัทมีนโยบายการใช้ AI หรือยัง?" หลายที่ตอบได้แค่ว่า... "ยังไม่มีครับ ก็แค่ให้พนักงานใช้ไปก่อน"
ตรงนี้แหละครับที่เป็นจุดเสี่ยง
AI ทำพลาด แต่ฟ้อง AI ไม่ได้ต้องฟ้อง "คนที่ใช้"
หลายคนอาจคิดว่า "ก็แค่ใช้ AI ช่วยทำงาน ไม่น่าจะมีปัญหาอะไร" แต่ลองนึกภาพตามนะครับ ถ้า AI คัดกรองผู้สมัครงานแล้วมีอคติทางเพศหรือเชื้อชาติล่ะ? หรือถ้า AI วิเคราะห์ข้อมูลลูกค้าแล้วทำข้อมูลส่วนบุคคลรั่วไหลล่ะ? หรือถ้า AI สร้างเนื้อหาที่เป็นข้อมูลเท็จแล้วองค์กรเอาไปเผยแพร่ล่ะ?
ภายใต้กฎหมายไทยปัจจุบัน ฟ้อง AI โดยตรงไม่ได้ครับ เพราะ AI ไม่มีสถานะเป็นบุคคลตามกฎหมาย แต่สิ่งที่ฟ้องได้คือ "ผู้ครอบครองหรือควบคุม" ซึ่งก็คือองค์กรที่นำ AI มาใช้นั่นเองครับ ยิ่งถ้าเรื่องที่เกิดขึ้นเกี่ยวข้องกับข้อมูลส่วนบุคคล ก็จะเข้าข่าย PDPA อีกต่างหาก
เรียกว่า AI ทำ แต่คนรับผิดคือเราครับ
แล้วองค์กรควรเตรียมตัวอย่างไร?
ไม่ต้องรอให้กฎหมาย AI ของไทยประกาศใช้ก่อนก็ได้ครับ เพราะการวางกรอบธรรมาภิบาล AI (AI Governance) ภายในองค์กรสามารถเริ่มได้ตั้งแต่วันนี้ ซึ่งแนวทางหลักๆ ก็ไม่ได้ซับซ้อนอย่างที่คิด
- กำหนดนโยบายการใช้ AI ให้ชัดเจน ว่าพนักงานใช้ AI ตัวไหนได้บ้าง ใช้ทำอะไรได้ ข้อมูลอะไรห้ามป้อนเข้า AI เด็ดขาด เช่น ข้อมูลลูกค้า ข้อมูลทางการเงิน หรือข้อมูลที่เป็นความลับขององค์กร
- ประเมินความเสี่ยงของ AI ที่ใช้อยู่ ว่า AI แต่ละตัวมีความเสี่ยงระดับไหน ทั้งในแง่ของความถูกต้อง ความเป็นธรรม การละเมิดข้อมูลส่วนบุคคล และผลกระทบทางกฎหมาย
- ตรวจสอบและทบทวนเป็นระยะ ไม่ใช่แค่วางนโยบายแล้วจบ ต้องมีการตรวจสอบว่าองค์กรยังปฏิบัติตามกรอบที่กำหนดไว้หรือไม่ AI มีอคติที่ต้องแก้ไขหรือเปล่า ข้อมูลที่ AI ประมวลผลยังสอดคล้องกับ PDPA อยู่ไหม
- สร้างความตระหนักรู้ให้พนักงาน เพราะท้ายที่สุดแล้ว คนที่ใช้ AI คือพนักงาน ถ้าพนักงานไม่รู้ว่าอะไรทำได้ อะไรทำไม่ได้ ก็เหมือนให้คนขับรถโดยไม่รู้กฎจราจรครับ
สรุปคือกระแส AI ร้อนแรง และทุกองค์กรก็อยากใช้ให้ได้ประโยชน์สูงสุด ซึ่งเป็นเรื่องดีครับ แต่สิ่งที่ต้องมาคู่กันคือ "กติกา" เพราะ AI ที่ไม่มีการกำกับดูแลก็เหมือนรถที่วิ่งเร็วแต่ไม่มีเบรค วันหนึ่งอาจสร้างความเสียหายได้มากกว่าที่คิด และจำไว้ว่า กฎหมายกำลังตามมาครับ ทั้ง EU AI Act ที่บังคับใช้แล้ว เกาหลีใต้ที่ประกาศ AI Basic Act แล้ว และไทยเองที่กำลังร่างกฎหมาย AI อยู่ องค์กรไหนเตรียมพร้อมก่อน ก็ได้เปรียบก่อนครับ
และแน่นอนหากองค์กรของท่านกำลังมองหาแนวทางในการวางกรอบธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance) หรือต้องการประเมินความพร้อมด้านการกำกับดูแล AI สามารถปรึกษาทีมงานของเราได้ที่ บริษัท ตรวจสอบภายในธรรมนิติ จำกัด เรามีบริการ งานประเมินความพร้อมการกำกับดูแลปัญญาประดิษฐ์ และ งานบริการการกำกับดูแลและจัดการการใช้งานเทคโนโลยีปัญญาประดิษฐ์ (AI Implementation Service) พร้อมให้คำปรึกษาอย่างครบวงจร โทร. 02-596-0500 ต่อ 327 อีเมล This email address is being protected from spambots. You need JavaScript enabled to view it.
ผู้เขียน : ฝ่ายตรวจสอบเทคโนโลยีสารสนเทศ

Thai (TH)
English (UK)