ข่าวสารและบทความล่าสุด

Athentic Consulting’s team of experienced experts bring you the
latest news and insights in law and regulations.

ทำไมเราถึงเพิกเฉยต่อ “ธรรมาภิบาลปัญญาประดิษฐ์” หรือ “AI Governance” ไม่ได้อีกต่อไป?

ในช่วงไม่กี่ปีที่ผ่านมา ปัญญาประดิษฐ์ (AI) กลายเป็นส่วนหนึ่งของชีวิตประจำวันไป หลายบริษัททั้งในไทยและต่างประเทศ ไม่ว่าจะเป็นธุรกิจขนาดเล็ก กลาง หรือใหญ่ ต่างก็เริ่มพึ่งพา AI มากขึ้นเรื่อย ๆ เพื่อเพิ่มประสิทธิภาพในการทำงานและความสามารถในการแข่งขัน จากผลสำรวจ McKinsey Global Survey on AI McKinsey Global Survey on AI พบว่าในปี 2024 สัดส่วนการใช้งาน AI ขององค์กรในหลากหลายอุตสาหกรรมเพิ่มขึ้นอย่างมีนัยสำคัญ โดยร้อยละ 78 ของผู้ตอบแบบสอบถามระบุว่าองค์กรของตนได้นำ AI มาใช้ในอย่างน้อยหนึ่งกระบวนการทางธุรกิจ ซึ่งเพิ่มขึ้นจากปีก่อนหน้าอย่างชัดเจน ฝ่ายที่มีการใช้งาน AI มากที่สุด ได้แก่ ฝ่ายเทคโนโลยีสารสนเทศ (IT) ฝ่ายการตลาดและการขาย (Marketing and Sales) และฝ่ายงานบริการและปฏิบัติการ (Service Operations)

เช่นเดียวกับ การใช้งาน Generative AI ซึ่งเป็นปัญญาประดิษฐ์ที่สามารถสร้างเนื้อหาใหม่ได้ เช่น ข้อความ รูปภาพ เสียง หรือโค้ดโปรแกรม จากการเรียนรู้รูปแบบข้อมูลขนาดใหญ่ ได้ขยายตัวอย่างต่อเนื่อง โดยอัตราการใช้งาน Generative AI ในองค์กรเพิ่มขึ้นจากร้อยละ 65 เป็นร้อยละ 71 ในปี 2024 ทั้งนี้ การนำ Generative AI ไปประยุกต์ใช้ในฟังก์ชันต่าง ๆ มีความแตกต่างกันตามบริบทของแต่ละอุตสาหกรรม โดยเฉพาะในด้านการตลาดและการขาย เช่น การสร้างคอนเทนต์เนื้อหาต่างๆ การออกแบบสื่อภาพ และการสื่อสารกับลูกค้า

สำหรับบริบทของประเทศไทย ทั้งภาครัฐและภาคเอกชนต่างเร่งผลักดันการนำ AI มาใช้เพื่อเพิ่มประสิทธิภาพการทำงานและสร้างมูลค่าทางเศรษฐกิจ หน่วยงานภาครัฐได้มีการดำเนินงานด้านปัญญาประดิษฐ์อย่างเป็นรูปธรรม เช่น สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) ที่ได้จัดทำคู่มือแนวทางการใช้ AI ซึ่งครอบคลุมประเด็นด้านสังคม จริยธรรม กฎหมาย และกฎระเบียบ รวมถึงการจัดทำ “แผนปฏิบัติการด้านปัญญาประดิษฐ์แห่งชาติเพื่อการพัฒนาประเทศไทย (พ.ศ. 2565–2570)” โดยมีเป้าหมายเพื่อส่งเสริมการพัฒนาและการประยุกต์ใช้ AI อย่างมีประสิทธิภาพ และนำไปสู่การยกระดับเศรษฐกิจและคุณภาพชีวิตของประชาชน

อย่างไรก็ตาม การเติบโตของการใช้งานปัญญาประดิษฐ์อย่างก้าวกระโดดนี้ มาพร้อมกับคำถามสำคัญในด้านของความรับผิดชอบ ความโปร่งใส และการกำกับดูแลเทคโนโลยีดังกล่าว

ดังนั้น การทำให้องค์กรสามารถนำ AI มาใช้ได้อย่างสอดคล้องกับมาตรฐาน กฎหมาย และหลักจริยธรรมที่กำหนดไว้ จึงเป็นประเด็นที่ไม่อาจหลีกเลี่ยงได้ ด้วยเหตุนี้ ทั้งองค์กรภาครัฐและภาคเอกชนจึงไม่สามารถเพิกเฉยต่อ “ธรรมาภิบาลปัญญาประดิษฐ์” (AI Governance) ได้อีกต่อไป โดยในวันนี้ทางบริษัท Athentic Consulting จะพาทุกท่านไปทำความเข้าใจ 4 ประเด็นด้านธรรมาภิบาลปัญญาประดิษฐ์ที่องค์กรควรคำนึงถึง

  • ความเสี่ยง (Risk) เพื่อป้องกันและรับมือกับผลกระทบที่ไม่คาดคิด ทั้งในเชิงเทคนิคและภาพลักษณ์องค์กร
  • ความเชื่อมั่น (Trust): เพื่อสร้างความมั่นใจให้แก่ผู้รับบริการและผู้มีส่วนได้ส่วนเสียว่า AI จะทำงานอย่างเป็นธรรมและโปร่งใส
  • กฎหมายและข้อบังคับ (Law): เพื่อปฏิบัติให้สอดคล้องกับระเบียบข้อบังคับและกฎหมายคุ้มครองข้อมูลที่เข้มงวดขึ้นทั่วโลก
  • การควบคุม (Control): เพื่อวางระบบการบริหารจัดการที่ชัดเจน ทำให้องค์กรสามารถตรวจสอบและกำกับดูแลทิศทางการใช้งาน AI ได้อย่างมีประสิทธิภาพ



The Risk: ความเสี่ยงที่ไม่อาจมองข้าม

การเพิ่มขึ้นของการใช้งาน AI นำมาซึ่งความเสี่ยงที่มีความซับซ้อนและหลากหลายมากขึ้น องค์กรจำนวนมากเริ่มตระหนักถึงความเสี่ยงดังกล่าว และวางแนวทางในการบริหารจัดการอย่างเป็นระบบ ความเสี่ยงที่พบได้บ่อย เช่น ความเสี่ยงด้านความมั่นคงปลอดภัยไซเบอร์ (Cybersecurity) การละเมิดทรัพย์สินทางปัญญา (Intellectual Property Infringement) ตลอดจนการละเมิดความเป็นส่วนบุคคลของข้อมูล (Privacy) จากผลการศึกษาพบว่าครึ่งหนึ่งขององค์กรที่มีการนำ AI มาใช้งาน เคยประสบกับผลกระทบเชิงลบอันเนื่องมาจากความเสี่ยงที่กล่าวไปข้างต้น

ตัวอย่างหนึ่งในความซับซ้อนของการเพิ่มขึ้นของ AI คือ เรื่องของขนาดของผลกระทบ (Scale) ลองนึกภาพการนำ AI มาใช้ในกระบวนการพิจารณาการปล่อยสินเชื่อในภาคการเงิน จากเดิมที่ต้องอาศัยการประเมินโดยเจ้าหน้าที่เป็นหลัก ปัจจุบัน AI เข้ามาช่วยวิเคราะห์ข้อมูลและสนับสนุนการตัดสินใจ ทำให้สถาบันการเงินสามารถปล่อยสินเชื่อได้รวดเร็วขึ้น และเข้าถึงผู้ขอสินเชื่อได้ในวงกว้างมากกว่าเดิม อย่างไรก็ตาม ความรวดเร็วและขนาดของการใช้งานที่เพิ่มขึ้นนี้ ก็มาพร้อมกับความเสี่ยง หากแบบจำลอง AI หรือข้อมูลที่ใช้มีข้อบกพร่อง เช่น มีอคติแฝงอยู่ในข้อมูล (Bias) ความผิดพลาดที่เกิดขึ้นอาจถูกขยายผลไปสู่ผู้กู้จำนวนมากในเวลาอันสั้น ส่งผลกระทบทั้งต่อ เสถียรภาพของระบบการเงิน และความน่าเชื่อถือขององค์กร ดังนั้นองค์กรควรมีกรอบและวิธีการบริหารจัดการความเสี่ยงที่เหมาะสม


The Trust: การสร้างความเชื่อมั่นคือรากฐาน

ความสำเร็จของการนำ AI มาใช้งานในองค์กร ไม่ได้ขึ้นอยู่กับเทคโนโลยีเพียงอย่างเดียว แต่ขึ้นอยู่กับระดับของ ความเชื่อมั่น (Trust) ที่องค์กรสร้างให้กับพนักงาน ลูกค้า และผู้มีส่วนได้ส่วนเสียที่เกี่ยวข้อง องค์กรที่ประสบความสำเร็จจึงต้องมีแนวทางที่ชัดเจนและรอบด้านในการสร้างความไว้วางใจควบคู่ไปกับการใช้ AI ตัวอย่างเช่น ในภาคธุรกิจค้าปลีก Amazon ได้นำ AI มาใช้ตั้งแต่การบริหารจัดการสินค้าคงคลัง การพยากรณ์ความต้องการสินค้า การแนะนำสินค้าที่สอดคล้องกับพฤติกรรมผู้ซื้อ ไปจนถึงการเพิ่มประสิทธิภาพของศูนย์กระจายสินค้า สิ่งสำคัญคือ การใช้งาน AI เหล่านี้ดำเนินควบคู่ไปกับมาตรการด้านความโปร่งใสและการควบคุมคุณภาพของข้อมูล เพื่อให้ผลลัพธ์มีความแม่นยำและตอบโจทย์ความคาดหวังของลูกค้า เมื่อผู้ใช้งานเชื่อมั่นในระบบ AI ความเชื่อมั่นนั้นเองจะกลายเป็นสิ่งสำคัญที่ช่วยให้องค์กรสามารถสร้างมูลค่าทางธุรกิจได้อย่างต่อเนื่องและยั่งยืน

มากไปกว่านั้น สิ่งที่องค์กรควรคำนึงถึงคือ ความถูกต้องหรือความสามารถในการอธิบายผลลัพธ์ของ AI (Accuracy and Explainability of AI Outputs) เนื่องจาก AI อาจสร้างเนื้อหาที่ดูน่าเชื่อถือสมเหตุสมผล แต่ไม่ถูกต้องตามหลักข้อเท็จจริง สิ่งนี้เรียกว่า AI Hallucination หากพนักงานในองค์กรนำเนื้อหาที่ AI สร้างมาไปใช้โดยไม่ได้มีการตรวจสอบ ซึ่งอาจส่งผลกระทบเชิงลบต่อองค์กรได้ ดังนั้นองค์กรควรมีแนวทางในการตรวจสอบการใช้ AI เพื่อสร้างความเชื่อมั่นในการทำงาน


The Law: เมื่อกฎหมายและข้อบังคับเริ่มกวดขัน

การปฏิบัติตามกรอบกฎหมายและข้อบังคับที่เกี่ยวข้องกับการใช้งาน AI และข้อมูลจึงเป็นหนึ่งในหัวใจสำคัญของธรรมาภิบาลข้อมูลปัญญาประดิษฐ์

ในบริบทของสหภาพยุโรป ได้มีการบังคับใช้ EU Artificial Intelligence Act (EU AI Act) ซึ่งถือเป็นกฎหมายเฉพาะด้านปัญญาประดิษฐ์ฉบับแรกของโลก โดยใช้แนวคิดการกำกับดูแลตามระดับความเสี่ยง (Risk-based approach) แบ่งระบบ AI ออกเป็น 4 ระดับ ตั้งแต่ระบบที่มีความเสี่ยงต่ำไปจนถึงระบบที่มีความเสี่ยงสูง ทั้งนี้ ระบบ AI ที่จัดอยู่ในกลุ่มความเสี่ยงสูงจะต้องปฏิบัติตามข้อกำหนดที่เข้มงวดมากขึ้น เช่น การบริหารจัดการข้อมูล การประเมินความเสี่ยง ความโปร่งใส และการกำกับดูแลตลอดวงจรชีวิตของระบบ นอกจากนี้ การใช้งาน AI ที่เกี่ยวข้องกับข้อมูลส่วนบุคคลยังต้องปฏิบัติตามกฎหมายคุ้มของส่วนบุคคล (General Data Protection Regulation: GDPR) ซึ่งครอบคลุมการประมวลผลข้อมูลโดยระบบ AI

ในขณะเดียวกัน ประเทศไทยได้เริ่มมีการจัดทำและยกร่างหลักการกฎหมายว่าด้วยปัญญาประดิษฐ์ เพื่อกำหนดกรอบการกำกับดูแลการพัฒนาและการใช้งาน AI ให้สอดคล้องกับบริบทของประเทศและมาตรฐานสากล องค์กรต่างๆในไทยควรเริ่มเตรียมความพร้อมด้านธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance) เพื่อเตรียมพร้อมกับความเปลี่ยนแปลงและให้สอดคล้องกับมาตรฐานและกฎหมายที่กำหนด


The Control: การควบคุมและการกำกับดูแลอย่างเป็นระบบ

การนำปัญญาประดิษฐ์ (AI) มาใช้งานในองค์กรจำเป็นต้องมีการควบคุมทิศทาง ลักษณะการใช้งาน และขอบเขตการนำไปใช้ให้สอดคล้องกับยุทธศาสตร์และเป้าหมายขององค์กร การขาดกลไกการควบคุมที่เหมาะสมอาจนำไปสู่การใช้งาน AI ที่กระจัดกระจาย ไม่สอดคล้องกับนโยบายองค์กร หรือก่อให้เกิดความเสี่ยงด้านกฎหมายและความเสี่ยงต่างๆที่กล่าวไปข้างต้น




การกำกับดูแลปัญญาประดิษฐ์ (AI Governance) จึงมีบทบาทสำคัญในการสร้างกรอบการบริหารจัดการที่เป็นระบบ ซึ่งครอบคลุมตั้งแต่การกำหนดโครงสร้าง การกำกับดูแล (AI Governance Structure) เพื่อระบุบทบาท ความรับผิดชอบ และการตัดสินใจที่ชัดเจน การกำหนดกลยุทธ์ในการประยุกต์ใช้ AI (AI Strategy) ให้สอดคล้องกับยุทธศาสตร์องค์กร เช่น การคัดเลือกกรณีใช้งานที่เหมาะสมกับองค์กร การกำหนดระดับการมีส่วนร่วมของมนุษย์ (Human-in-the-loop) และการบริหารจัดการความเสี่ยงในมิติต่าง ๆ ตลอดจนการกำกับดูแลการปฏิบัติงานที่เกี่ยวข้องกับ AI (AI Operations) ตลอดวงจรชีวิตของ AI ตั้งแต่การออกแบบและพัฒนา การทดสอบ การนำโมเดลไปใช้งาน จนถึงการติดตามประเมินผลหลังการใช้งาน

จากการเปลี่ยนผ่านยุคสมัยและการทำงานของคน AI กลายเป็นเครื่องมือสำคัญ และมากไปกว่านั้น “ธรรมาภิบาลปัญญาประดิษฐ์” เป็นหนึ่งในแบบแผนที่ช่วยให้องค์กรบริหารจัดการความเสี่ยง สร้างความไว้วางใจ ปฏิบัติตามกรอบกฎหมาย และควบคุมการใช้งานปัญญาประดิษฐ์ (AI) ได้อย่างมีประสิทธิภาพ อีกทั้ง หากองค์กรมีการวางรากฐานธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance) ที่ชัดเจนตั้งแต่วันนี้ จะมีความได้เปรียบในการนำ AI ไปสร้างทั้งคุณค่าเชิงธุรกิจและคุณค่าทางสังคมในระยะยาว ด้วยเหตุนี้ จึงเป็นคำตอบสำคัญว่า “เหตุใดเราจึงไม่สามารถเพิกเฉยต่อธรรมาภิบาลปัญญาประดิษฐ์ได้อีกต่อไป”


ณฤฎี พัตรปาล
Data Governance Analyst
เกี่ยวกับเอเทนติค ข่าวสารและบทความล่าสุด บริการของเรา ติดต่อเรา ร่วมงานกับเรา