4 ระดับความเสี่ยงของประเภท AI ตามข้อบังคับ AI ACT
กลางเดือนพฤษภาคมที่ผ่านมา มีเหตุการณ์ที่อาจถือเป็นหลักไมล์สำคัญของการพัฒนาเทคโนโลยีในยุคนี้ คือการที่สหภาพยุโรป (EU) ผ่านร่างกฎหมายปัญญาประดิษฐ์ หรือ EU AI Act ซึ่งน่าจะถือเป็นกฎหมายสำหรับ AI ฉบับแรกของโลก ที่เปิดทางให้ส่วนอื่นๆ ของโลกใช้เป็นบรรทัดฐานในการร่างกฎหมายของตนต่อไป
เพื่อให้เห็นภาพของกฎหมายฉบับนี้ดีขึ้น Krungsri Nimble จะมาชวนคุยถึงเรื่องนี้กัน โดยเฉพาะการจัดลำดับความเสี่ยงของ AI ทั้ง 4 ประเภท ที่มีการระบุไว้ในกฎหมายฉบับนี้
[AI Act คืออะไร?]
AI Act คือกฎหมายที่สหภาพยุโรปร่างขึ้น เพื่อเป็นแนวทางในการกำกับดูแล การพัฒนาเทคโนโลยีปัญญาประดิษฐ์ โดยใช้วิธีแบ่งลำดับความเข้มงวด ตามระดับความเสี่ยงของ AI เป็น 4 ประเภท
AI Act มีขึ้นเพื่อให้การพัฒนา และนำ AI ไปใช้ เป็นไปอย่างมีความรับผิดชอบ คุ้มครองสิทธิพื้นฐาน และเป็นมาตรฐานสากลสำหรับการใช้เทคโนโลยีนี้ เพราะถึงพื้นฐานจะมีผลบังคับใช้เฉพาะในยุโรป แต่ชาติในทวีปอื่นๆ ที่ต้องทำธุรกรรมกับชาติในยุโรป ก็ต้องคำนึงถึงเรื่องนี้เช่นกัน
[ระดับความเสี่ยงทั้ง 4 ของ AI]
ลำดับความเข้มข้นของการควบคุม จะขึ้นกับระดับความเสี่ยงของ AI ซึ่งใน AI Act มีการแบ่งไว้ 4 ระดับด้วยกัน ดังนี้
[1] ระดับความเสี่ยงที่ยอมรับไม่ได้ (Unacceptable Risk)
นี่คือระดับที่ถูกห้ามใช้โดยสิ้นเชิง เช่น การใช้ AI เพื่อระบุตัวตนแบบเรียลไทม์ในพื้นที่สาธารณะ ซึ่งถือเป็นการละเมิดสิทธิส่วนบุคคล หรือ การแอบแฝงใช้เทคนิคใดเทคนิคหนึ่งเพื่อบิดเบือนพฤติกรรมมนุษย์ ซึ่งถือเป็นการหลอกลวง ไปจนถึงการที่รัฐบาลบางประเทศ นำ AI มาใช้ในระบบการให้คะแนนทางสังคม เพื่อกำหนดระดับสิทธิพื้นฐานของประชาชน
[2] ระดับความเสี่ยงสูง (High Risk)
เป็น AI กลุ่มที่ปัจจุบัน ถูกนำมาใช้งานในวงกว้างแล้ว ซึ่งมีความสุ่มเสี่ยงต่อการละเมิดสิทธิส่วนบุคคล หากนำมาใช้ผิดวิธี เช่น ระบบยืนยันตัวตนแบบ biometric หรือการนำมาใช้ในกระบวนการยุติธรรม เพราะปัจจุบัน AI ยังมี bias ที่เกิดขึ้นจากการเทรนอยู่
[3] ระดับความเสี่ยงจำกัด (Limited Risk)
AI กลุ่มนี้ ก็ถูกนำมาใช้งานอย่างแพร่หลาย แต่ยังไม่อยู่ในข่ายที่จะสร้างความเสียหายในวงกว้างได้ เช่น แชทบอท หรือ deep fake ซึ่งภายใต้กฎหมายฉบับนี้ ผู้พัฒนาจะต้องระบุให้ชัดเจนว่าผู้ใช้กำลังมีปฏิสัมพันธ์กับ AI
[4] ระดับความเสี่ยงน้อยที่สุด (Minimal Risk)
เป็นกลุ่มที่ถูกพิจารณาว่า ไม่สร้างปัญหาหรือละเมิดสิทธิผู้อื่น เช่น ระบบการกรองสแปม หรือ AI ที่เป็นตัวละครในวิดีโอเกม ฯลฯ
การจัดประเภท AI ตามระดับความเสี่ยงทั้ง 4 นี้ เป็นหลักการพื้นฐาน เพื่อความเข้าใจที่ตรงกัน ซึ่งในอนาคตน่าจะมีการต่อยอดไปสู่กฎหมายอื่นๆ เพื่อให้ครอบคลุมยิ่งขึ้น ซึ่งถ้ามีการอัพเดทใหม่ๆ Krungsri Nimble ก็จะนำมาเสนอในโอกาสต่อๆ ไป
ข้อมูลจาก Facebook Krungsri Nimble : https://www.facebook.com/photo/?fbid=442717981962813&set=pcb.442720785295866