จากบทความที่แล้ว [ATxSG] AI Ethics ไฉน AI ต้องการจริยธรรม? เราได้พูดถึงตัวอย่างปัญหาและเหตุผลที่เราจำเป็นต้องสร้าง จริยธรรม (Ethics) สำหรับ AI เนื่องจากในโลกปัจจุบันไปจนถึงอนาคต AI จะเข้ามามีบทบาทในชีวิตเรามากขึ้นเรื่อยๆ สิ่งนี้จะกลายเป็นทั้งเครื่องมือและ “ส่วนนึงของเครื่องมือ” ที่เราใช้ในชีวิตประจำวันมากขึ้นเรื่อยๆ
ในกระบวนการพัฒนา AI ซักตัว มีหลายอย่างเหลือเกินที่เกิดขึ้น ไม่ต่างกับกระบวนการพัฒนา Software มากนัก ซึ่งประกอบไปด้วย
1. การออกแบบและการพัฒนา (Design and Development)
- การกำหนดแนวทางจริยธรรม (Ethical Guidelines): ในขั้นตอนนี้ ทีมพัฒนา AI จะกำหนดแนวทางจริยธรรมที่ชัดเจน เช่น การหลีกเลี่ยงการสร้างอคติ การรักษาความเป็นส่วนตัว และความโปร่งใสในการทำงาน
- การเลือกข้อมูล (Data Selection): การคัดเลือกข้อมูลที่ใช้ในการฝึกอบรม AI ต้องพิจารณาถึงความหลากหลายและการหลีกเลี่ยงข้อมูลที่มีความลำเอียงหรือไม่เหมาะสม
2. การฝึกอบรม (Training)
- การตรวจสอบข้อมูล (Data Auditing): การตรวจสอบและประเมินข้อมูลเพื่อให้มั่นใจว่าไม่มีข้อมูลที่ไม่เหมาะสมหรือก่อให้เกิดความลำเอียงในการฝึกอบรม
ในกระบวนการ training ยังจำเป็นต้องมีการจัดการกับข้อมูลต่างๆ ในการใช้ training AI เช่น การถ่วงน้ำหนักข้อมูล (Data Weighting) หรือการทำสมดุลข้อมูล (Data Balancing) เพื่อปรับไม่ให้เกิดลำเอียงในข้อมูล และทำให้ข้อมูลที่ใช้ train มีคุณภาพ
3. การทดสอบและการประเมินผล (Testing and Evaluation)
- การทดสอบกับกรณีศึกษา (Case Studies Testing): การใช้กรณีศึกษาต่างๆ ในการทดสอบโมเดลเพื่อดูว่าโมเดลมีการตอบสนองอย่างไรในสถานการณ์ที่มีความลำเอียงหรือซับซ้อน
- การประเมินผลจริยธรรม (Ethical Evaluation): ประเมินผลการทำงานของโมเดลในด้านต่างๆ เช่น ความเป็นกลาง ความถูกต้อง และความโปร่งใส
4. การใช้งานและการปรับปรุง (Deployment and Maintenance)
- การใช้งานอย่างมีจริยธรรม (Ethical Deployment): การนำโมเดลไปใช้งานต้องเป็นไปตามแนวทางจริยธรรมที่กำหนดไว้ เช่น การป้องกันการละเมิดความเป็นส่วนตัว การใช้ AI เพื่อประโยชน์สาธารณะ
- การปรับปรุงอย่างต่อเนื่อง (Continuous Improvement): การตรวจสอบและปรับปรุงโมเดลอย่างสม่ำเสมอ เพื่อให้มั่นใจว่าโมเดลยังคงปฏิบัติตามจริยธรรมและมีประสิทธิภาพสูงสุด
ทั้งหมดที่กล่าวมาเป็นกระบวนการพัฒนา AI คร่าวๆ จะสังเกตได้ว่าจริยธรรม (Ethics) จะโผล่หน้ามาทักทายในแทบทุกกระบวนการ เพื่อควบคุมให้ผลลัพธ์ของการพัฒนา AI อยู่เสมอๆ คำถามถัดไปคืออะไรละที่จะทำให้สิ่งนี้เกิดขึ้น เราจะพูดถึง Framework ที่ ถูกนำมายกตัวอย่างในงาน ATxSG กัน
- Consequence-Based Ethics (ผลลัพธ์เป็นฐาน)
Consequence-based ethics หรือที่รู้จักในนาม “ผลลัพธ์เป็นฐาน” (consequentialism) คือการตัดสินความถูกต้องหรือผิดของการกระทำโดยพิจารณาจากผลลัพธ์ที่เกิดขึ้น หากการกระทำหนึ่ง ๆ นำไปสู่ผลลัพธ์ที่ดีมากกว่าผลลัพธ์ที่ไม่ดี การกระทำนั้นก็ถือว่าเป็นการกระทำที่มีจริยธรรม ตัวอย่างหนึ่งของผลลัพธ์เป็นฐานคือหลักการอรรถประโยชน์ (utilitarianism) ที่เน้นการสร้างความสุขสูงสุดแก่คนส่วนใหญ่
ตัวอย่าง
หาก AI ถูกใช้ในการจัดการทรัพยากรทางการแพทย์ในช่วงวิกฤต เช่น การระบาดของโรค AI อาจช่วยในการจัดลำดับความสำคัญของผู้ป่วยที่ควรได้รับการรักษาก่อน โดยพิจารณาจากผลลัพธ์ที่ดีที่สุดในการช่วยชีวิตคนจำนวนมากที่สุด IRobot (2003) ที่หุ่นยนต์รุ่นใหม่ตัดสินใจปกป้องมนุษย์ด้วยการ “ขัง” เขาไว้ในห้องเพราะเป็นหนทางที่ทำให้มนุษย์ส่วนใหญ่รอดชีวิต
2. Doctrine-Based Ethics (หลักการเป็นฐาน)
Doctrine-based ethics หรือที่รู้จักในนาม “หลักการเป็นฐาน” (deontological ethics) คือการตัดสินความถูกต้องหรือผิดของการกระทำโดยอิงตามกฎหรือหลักการที่กำหนดไว้โดยไม่คำนึงถึงผลลัพธ์ หลักการที่สำคัญที่สุดในกรอบนี้คือ “หน้าที่” (duty) หรือ “กฎที่ถูกต้อง” (right rules) การกระทำที่ถูกต้องคือการกระทำที่ปฏิบัติตามหน้าที่หรือกฎที่ตั้งไว้ แม้ว่าผลลัพธ์จะไม่ดี อีกครั้ง IRobot (2003) ที่ช่วยชีวิตตัวเอกเพราะมีโอกาสรอดมากกว่าลูกสาวของตัวเอก
ตัวอย่าง:
ในกรณีของการใช้ AI ในการสรรหาพนักงาน หากมีการตั้งกฎว่า “การเลือกพนักงานต้องไม่อิงตามเชื้อชาติหรือเพศ” AI ต้องปฏิบัติตามกฎนี้โดยไม่คำนึงถึงผลลัพธ์ที่อาจเกิดขึ้น เช่น หาก AI พบว่าการเลือกพนักงานตามเชื้อชาติหรือเพศจะทำให้ได้ผลลัพธ์ที่ดีกว่า AI ก็ยังต้องปฏิบัติตามกฎและไม่สามารถเลือกพนักงานโดยอิงตามเชื้อชาติหรือเพศได้ หรืออีกตัวอย่างนึงอีกครั้ง ใน IRobot (2003) ที่หุ่นยนต์รุ่นเก่ามีกฏสามข้อที่เป็นกรอบไม่ให้ทำร้ายมนุษย์ (สนุกมากนะ เท่สุดๆ)
3. Virtue Ethics (คุณธรรมเป็นฐาน)
Virtue ethics หรือที่รู้จักในนาม “คุณธรรมเป็นฐาน” คือการตัดสินความถูกต้องหรือผิดของการกระทำโดยพิจารณาจากคุณลักษณะหรือคุณธรรมของผู้กระทำ การกระทำที่ถูกต้องคือการกระทำที่แสดงถึงคุณธรรมที่ดี เช่น ความยุติธรรม ความซื่อสัตย์ ความเมตตา การเน้นการพัฒนาคุณธรรมในตัวบุคคลและการสร้างนิสัยที่ดี
ตัวอย่าง:
หากมีการพัฒนา AI ที่มีหน้าที่ในการสอนเด็ก ๆ AI ควรแสดงถึงคุณธรรมเช่น ความอดทน ความเมตตา และความซื่อสัตย์ การทำงานของ AI ควรสะท้อนถึงคุณธรรมเหล่านี้ เพื่อให้เด็ก ๆ ที่เรียนรู้กับ AI ได้รับการอบรมและพัฒนาคุณธรรมที่ดีด้วย
จริงๆ ยังมีอีกหลาย Framework ที่ถูกคิดค้นมาเพื่อควบคุมให้ AI ทำงานได้อย่างมีเหตุผลและเพื่อผลลัพธ์ที่ตรงตามที่ (เรา) คิดว่ามันควรจะเป็น เราจะพบได้ว่า AI มีความสามารถแน่นอน ในการทำงานที่เราหวังให้ทำ แต่การที่เราจะได้ผลลัพธ์ที่ตรงกับงานที่เราให้ AI ไปนั้นยังต้องมีการควบคุมการทำงานของมันด้วย Framework เพื่อให้ AI สามารถทำงานได้อย่างมีจริยธรรม (Ethics) มากที่สุด