จริยธรรมกับปัญญาประดิษฐ์ (AI and Ethics)

Nathaphon Nanthajirapong
Super AI Engineer
Published in
4 min readJan 21, 2021

--

สวัสดี/Hi/你好!ค่ะท่านผู้อ่านทุกอ่าน บทความนี้เขียนขึ้นในช่วงที่ผู้เขียนได้เข้าร่วมโครงการ Super AI Engineer Level 2 ซึ่งจัดขึ้นโดยสมาคมปัญญาประดิษฐ์ประเทศไทย (Artificial Intelligence Association of Thailand: AIAT) สถาบันเทคโนโลยีนานาชาติสิรินธร มหาวิทยาลัยธรรมศาสตร์ ศูนย์เทคโนโลยีอิเล็กทรอนิกส์และคอมพิวเตอร์แห่งชาติ เครือข่ายสถาบันวิชาการปัญญาประดิษฐ์ เครือข่ายมหาวิทยาลัยและภาคเอกชนกว่า 60 องค์กร ซึ่งโครงการดังกล่าวได้รับทุนสนับสนุนจากกระทรวงอุดมศึกษา วิทยาศาสตร์ วิจัยและนวัตกรรมให้ดำเนินงาน โดยมีวัตถุประสงค์เพื่อมุ่งพัฒนา นวัตกร วิศวกรด้านปัญญาประดิษฐ์ นักวิจัย และวิสาหกิจเริ่มต้น ที่มีความตระหนักด้านเทคโนโลยีปัญญาประดิษฐ์ที่สามารถรองรับการเปลี่ยนผ่านของภาคเศรษฐกิจและสังคมจากยุคเทคโนโลยีสารสนเทศไปสู่ยุคปัญญาประดิษฐ์ในอนาคต และสามารถทำงานโดยใช้เทคโนโลยีปัญญาประดิษฐ์ซึ่งจะเป็นฐานในการขับเคลื่อนเศรษฐกิจและสังคมของประเทศไทยให้ก้าวหน้าในระดับสากล

ทำไมถึงเขียนเรื่องนี้

บทความนี้ถูกเขียนขึ้นเพื่อเผยแพร่ให้กับท่านผู้อ่านที่สนใจเกี่ยวกับปัญญาประดิษฐ์ ซึ่งเป็นเทคโนโลยีที่อยู่ในกระแสความตื่นตัวและความสนใจของสังคมไทยและสังคมโลกในช่วงไม่กี่ที่ผ่านมา และคาดว่าจะมีกระแสแรงขึ้นไปอีกในอนาคต จนถึงขั้นที่ปัญญาประดิษฐ์มีความสามารถใกล้เคียงหรือเหนือมนุษย์ อย่างที่ทุกท่านได้เคยเห็นในภาพยนตร์ของต่างประเทศ อาทิเช่น i-ROBOT, EX_MACHINA, CHAPPIE เป็นต้น เกริ่นมาถึงตรงนี้ ผู้เขียนมีคำถามที่อยากให้ทุกท่านตอบ 3 คำถามค่ะ

https://www.thainarak.net/movies-list-best-robots.html

คำถามแรกนี้ถ้าถามผู้เขียนกลับมา ผู้เขียนคิดว่า ไม่มั่นใจ เนื่องจากการตัดสินคดีนอกจากผู้ตัดสินจะต้องแม่นยำในตัวบทกฎหมายแล้ว ยังต้องเป็นผู้มีใจเป็นกลาง ตัดสินคดีด้วยความยุติธรรม ซึ่งที่ผ่านมา ทุกท่านคงเคยได้ยินจากข่าวว่า บางคดีหลายท่านรู้สึกว่าการตัดสินไม่เป็นธรรม เนื่องจากรู้สึกว่า ผู้พิพากษาไม่มีคุณธรรมจริยธรรม ดังนั้นถ้าหากผู้พิพากษาไม่ใช่มนุษย์ แต่เป็นปัญญาประดิษฐ์ ซึ่งจริง ๆ ก็คือ โปรแกรมคอมพิวเตอร์ที่ถูกเขียนขึ้นโดยวิศวกรปัญญาประดิษฐ์ (AI Engineer) ซึ่งถ้าปัญญาประดิษฐ์นั้นถูกเขียนด้วยความอยุติธรรม (Bias) ผลที่เกิดขึ้นจากการตัดสินของปัญญาประดิษฐ์ อาจส่งผลเสียหายต่อทั้งชีวิตและทรัพย์สินของผู้ถูกตัดสินในคดีความ ในกรณีนี้ท่านผู้อ่านคิดว่า วิศวกรปัญญาประดิษฐ์หรือผู้พิพากษาปัญญาประดิษฐ์ ขาดคุณธรรมจริยธรรม คะ

ส่วนคำถามที่ 2 นี้ ในความคิดเห็นส่วนตัวของผู้เขียน คิดว่าในกรณีที่เกิดอุบัติเหตุหรืออาชญากรรมต่าง ๆ ที่มีผลกระทบต่อชีวิตและทรัพย์สินต่าง ๆ จำเป็นอย่างยิ่งที่จะต้องมีผู้รับผิดชอบการกระทำที่ก่อให้เกิดอาชญากรรมนั้น ๆ ดังนั้นในกรณีผู้เขียนคิดว่า ทั้งผู้ใช้และผู้พัฒนาปัญญาประดิษฐ์จำเป็นต้องร่วมกันรับผิดชอบ แต่จะรับผิดชอบร่วมกันในลักษณะใด ยังคงเป็นคำถามที่เรา ๆ ท่าน ๆ ยังคงต้องคิดกันต่อไป เนื่องจากขณะนี้ประเทศไทยยังไม่มีกฎหมายที่เกี่ยวข้องกับปัญญาประดิษฐ์โดยตรง

คำถามสุดท้ายนี้ ผู้เขียนคงไม่สามารถตอบได้ เนื่องจากยังไม่เคยใข้ชีวิตร่วมกับหุ่นยนต์ แต่ถามว่าผู้เขียนมีความกังวลหรือไม่ คำตอบคือ กังวลบ้าง อาจเป็นเพราะผู้เขียนดูภาพยนตร์ต่างประเทศดังที่กล่าวไปข้างต้นมากไป อย่างไรก็ตาม การใช้
หุ่นยนต์ในภาคอุตสาหกรรมนั้นมีมานานแล้ว ซึ่งนอกจากจะช่วยเพิ่มประสิทธิภาพ
ในกระบวนการผลิตของภาคอุตสาหกรรมแล้ว ยังช่วยพัฒนาระบบเศรษฐกิจของประเทศไทยด้วย และเนื่องจากประเทศไทยกำลังเข้าสู่สังคมผู้สูงอายุ ผู้เขียนคาดว่าในอนาคตบ้านของพวกเราทุกคนคงต้องมีหุ่นยนต์มาอยู่ในบ้านกันอย่างแน่นอน

ดังนั้นเพื่อให้ทุกท่านคลายความกังวลในข้อคำถามทั้ง 3 ข้างต้น ผู้เขียนขอนำเสนอเนื้อหาที่เกี่ยวข้องกับการสร้างแนวปฏิบัติด้านจริยธรรมของประเทศไทย ซึ่งเป็นนโยบายที่สำคัญของภาครัฐในการผลักดันอุตสาหกรรมเศรษฐกิจดิจิทัลและสังคมด้วยเทคโนโลยีปัญญาประดิษฐ์ อย่างมีจริยธรรม ดังรายละเอียดต่อไปนี้

หลักการและแนวปฏิบัติด้านจริยธรรมที่สำคัญกับการพัฒนาและประยุกต์ใช้งานปัญญาประดิษฐ์

จากที่กล่าวมาทั้งหมด ผู้เขียนคิดว่า ผู้อ่านทุกท่านคงมีคำถามติดอยู่ในใจเหมือนกันได้แก่ จริยธรรมคืออะไร ปัญญาประดิษฐ์คืออะไร และจริยธรรมกับปัญญาประดิษฐ์มีความสัมพันธ์กันอย่างไร

จริยธรรม หรือ Ethics [1] หมายถึง “ธรรมที่เป็นข้อประพฤติปฏิบัติ ศีลธรรม หรือกฎศีลธรรม”

ปัญญาประดิษฐ์ หรือ Artificial Intelligence (AI) [2] เป็นเทคโนโลยีการสร้างความสามารถให้แก่เครื่องจักรและคอมพิวเตอร์ ด้วยอัลกอริทึมและกลุ่มเครื่องมือ ทางสถิติ เพื่อสร้างซอฟต์ทรงปัญญาที่สามารถเลียนแบบความสามารถของมนุษย์ที่ซับซ้อนได้ เช่น จดจำ แยกแยะ ให้เหตุผล ตัดสินใจ คาดการณ์ สื่อสารกับมนุษย์ เป็นต้น ในบางกรณีอาจไปถึงขั้นเรียนรู้ได้ด้วยตนเอง

จากคำถามที่ 1–3 ที่ผู้เขียนชวนให้ทุกท่านคิดเนื่องจากผู้เขียนอยากนำทุกท่านเข้ามาสู่เรื่องราวของจริยธรรมกับปัญญาประดิษฐ์ เนื่องจากปัจจุบันและอนาคต ปัญญาประดิษฐ์ หรือ AI จะถูกนำมาประยุกต์ใช้ในชีวิตประจำวันของทุกคนมากขึ้นเรื่อย ๆ จนหลายคนเริ่มกังวลและกลัวว่า AI จะมาแย่งงานมนุษย์ AI จะทำให้มนุษย์ใช้ชีวิตลำบากขึ้น จนถึงความกลัวที่ว่า AI จะทำให้เกิดความอยุติธรรมในสังคม

ที่ผ่านมา เราทุกคนต่างต้องยอมรับว่า สังคมไทยยังมีความเหลื่อมล้ำทางดิจิทัล (Digital divide) ทั้งในระดับบุคคลและระดับองค์กร ที่ต่างกำลังประสบปัญหาใหญ่ที่ทุกคนกำลังให้ความสนใจคือ Digital disruption ประกอบการเกิดสถานการณ์การแพร่ระบาดของไวรัส Corona สายพันธุ์ใหม่ ส่งผลให้เกิดการระบาดของโรค Covid-19 ส่งผลให้ทุกคนและทุกองค์กรต้องเร่งกระบวนการในการเปลี่ยนแปลงวิถีชีวิตให้เข้าสู่ยุคดิจิทัล (Digital transformation) อย่างรวดเร็ว ซึ่งเทคโนโลยีที่เข้ามามีบทบาทในช่วงหลังการระบาดของโรค Covid-19 ตั้งแต่ระลอกแรกในปีที่แล้ว (ปี
พ.ศ. 2563) มาจนถึงการระบาดระลอกใหม่ในปีนี้มากขึ้นคือเทคโนโลยี AI ซึ่งภาครัฐโดยสำนักงานคณะกรรมการดิจิทัลเพื่อเศรษฐกิจและสังคมแห่งชาติ กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม ได้คำนึงถึงผลกระทบที่จะเกิดขึ้นกับบุคคล องค์กร และสังคม ทั้งในแง่ของการพัฒนาเทคโนโลย AI และการนำไปประยุกต์ใช้อย่างมีจริยธรรม
จึงได้ร่วมกับคณะวิศวกรรมศาสตร์ มหาวิทยาลัยมหิดล จัดทำเอกสารแนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ (Thailand AI Ethics Guideline) ขึ้น [3] เพื่อให้ทุกหน่วยงานและองค์กร ใช้เป็นแนวปฏิบัติในการรักษาการพัฒนาปัญญาประดิษฐ์ในรูแบบที่คำนึงถึงบริบททางสังคม รักษาไว้ซึ่งโอกาสการเติบโตและพัฒนาของแรงงานไทย พร้อมป้องกันไม่ให้เกิดความผิดพลาดทั้งการเอนเอียง ไม่เป็นธรรม และจริยธรรม รวมถึงเพื่อใช้เป็นแนวทางสำหรับผู้วิจัย ผู้ออกแบบพัฒนา และผู้ให้บริการ ในการพัฒนาเทคโนโลยี AI ด้วยความโปร่งใส น่าเชื่อถือ และมั่นคงปลอดภัย รวมถึงการทำให้ AI สามารถอยู่ร่วมกับสังคมไทยได้อย่างลงตัว อันจะส่งผลให้ประเทศไทยสามารถพัฒนาเศรษฐกิจและสังคมให้ก้าวหน้าไปอย่างมั่นคงบนพื้นฐานของความรับผิดชอบต่อสังคมส่วนรวม รวมถึงมีการส่งเสริมการพัฒนาและประยุกต์ใช้ AI อย่างมีจริยธรรมด้วยการจัดงาน Thailand AI Ethics Forum 2020 นที่ 16 พฤศจิกายน 2563 เวลา 9.30–12.00 น. ณ ห้องประชุมพิมานแมน โรงแรมอนันตรา สยาม กรุงเทพฯ ซึ่งทุกท่านสามารถดูย้อนหลังได้จาก URL: https://www.facebook.com/thailandaiethics/videos/696644854327584 นอกจากนี้ยังสามารถติดตามรายละเอียดอื่น ๆ ที่เกี่ยวข้องได้จาก https://www.facebook.com/thailandaiethics/

https://www.facebook.com/thailandaiethics/

โดยหลักการทางจริยธรรมปัญญาประดิษฐ์ ที่กำหนดไว้ในเอกสารเอกสารแนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ (Thailand AI Ethics Guideline) ประกอบด้วยหลักการ 6 ข้อ ดังรูปต่อไปนี้ [4]

หลักการข้อที่ 1 ความสามารถในการแข่งขันและการพัฒนาอย่างยั่งยืน (Competitiveness and Sustainability Development) ประกอบด้วย 3 แนวปฏิบัติย่อยคือ

• ปัญญาประดิษฐ์ควรถูกสร้างและใช้งานเพื่อสร้างประโยชน์และความผาสุกให้แก่มนุษย์ สังคม เศรษฐกิจและสิ่งแวดล้อมอย่างยั่งยืน

• ปัญญาประดิษฐ์ควรถูกใช้งานเพื่อเพิ่มความสํามารถในกํารแข่งขันและสร้างความเจริญให้กับมนุษย์ สังคม ประเทศ ภูมิภาค และโลกอย่างเป็นธรรม

• ปัญญาประดิษฐ์ควรได้รับการวิจัยและพัฒนาอย่างต่อเนื่อง เพื่อให้มนุษย์เกิดการสร้างสรรค์ นวัตกรรมและอุตสาหกรรมใหม่

หลักการข้อที่ 2 ความสอดคล้องกับกฎหมาย จริยธรรม และมาตรฐานสากล (Laws Ethics and International Standards) ประกอบด้วย 3 แนวปฏิบัติย่อยคือ

• ปัญญาประดิษฐ์ควรได้รับการวิจัย ออกแบบ พัฒนา ให้บริการ และใช้งาน สอดคล้องกับกฎหมาย บรรทัดฐาน จริยธรรม คุณธรรมของมนุษย์ และมาตรฐานสากล โดยเคารพต่อความเป็นส่วนตัว เกียรติ สิทธิเสรีภาพ และสิทธิมนุษยชน

• ออกแบบปัญญาประดิษฐ์ควรใช้หลักการมนุษย์เป็นศูนย์กลางและเป็นผู้ตัดสินใจ

• ปัญญาประดิษฐ์ไม่ควรถูกใช้ในการกำหนดชะตาชีวิตของมนุษย์

หลักการข้อที่ 3 ความโปร่งใสและภาระความรับผิดชอบ (Transparency and Accountability) ประกอบด้วย 3 แนวปฏิบัติย่อยคือ

• ปัญญาประดิษฐ์ควรได้รับการวิจัย ออกแบบ พัฒนา ให้บริการและใช้งาน ด้วยความโปร่งใส สามารถอธิบายและคาดการณ์ได้ รวมถึงสามารถตรวจสอบกิจกรรมต่างๆ ที่เกิดขึ้นย้อนหลังได้

• ปัญญาประดิษฐ์ควรมีความสามารถในการสืบย้อนกลับ (Traceability) เฝ้าระวัง ตรวจสอบความผิดปรกติและวินิจฉัยปัญหาความล้มเหลวได้ (Diagnosability) ได้

• ผู้วิจัย ผู้ออกแบบ ผู้พัฒนา ผู้ให้บริการและผู้ใช้งานปัญญาประดิษฐ์ ควรมีภาระความรับผิดชอบ (Accountability) ต่อผลกระทบที่เกิดขึ้นจํากปัญญาประดิษฐ์ตามภาระหน้าที่ของตน

หลักการข้อที่ 4 ความมั่นคงปลอดภัยและความเป็นส่วนตัว (Security and Privacy) ประกอบด้วย 4 แนวปฏิบัติย่อยคือ

• ปัญญาประดิษฐ์ควรถูกสร้างเพื่อบริการ แต่ไม่ควรถูกใช้เพื่อหลอกลวง ต่อต้าน และคุกคามมนุษย์

• ปัญญาประดิษฐ์ควรได้รับการออกแบบโดยใช้หลักการป้องกันความเสี่ยง เพื่อป้องกันการโจมตีจากภัยคุกคาม เพื่อรักษาไว้ซึ่งความมั่นคงปลอดภัยของข้อมูลและระบบ รวมถึงการคุ้มครองข้อมูล ส่วนบุคคล จริยธรรม และความปลอดภัยของชีวิตและสิ่งแวดล้อมภายนอกตลอดวัฏจักรชีวิตของระบบ มีความสามารถในการตรวจสอบ รายงานและตอบสนองเพื่อหลีกเลี่ยงหรือลดผลกระทบ

• ปัญญาประดิษฐ์ควรมีกลไกให้มนุษย์แทรกแซงระบบเพื่อควบคุมความเสี่ยงที่อาจมีผลกระทบกับมนุษย์ได้

• หน่วยงานรัฐควรวางแผนกำกับดูแลการพัฒนาและให้ความร่วมมือกับนานาชาติในการหลีกเลี่ยงการแข่งขันสร้างอาวุธอัตโนมัติจากปัญญาประดิษฐ์ที่ร้ายแรง

หลักการข้อที่ 5 ความเท่าเทียม หลากหลาย ครอบคลุม และเป็นธรรม (Fairness) ประกอบด้วย 2 แนวปฏิบัติย่อยคือ

• การออกแบบและพัฒนาปัญญาประดิษฐ์ควรคำนึงถึงความหลากหลาย หลีกเลี่ยงการผูกขาด ลดการแบ่งแยกและเอนเอียง เพื่อก่อให้เกิดประโยชน์ต่อผู้คนจำนวนมากเท่าที่จะทำได้ โดยเฉพาะกลุ่มคนผู้ด้อยโอกาสในสังคม (Diversity)

• การตัดสินใจที่เกี่ยวข้องกับวิจัย ออกแบบ พัฒนา ให้บริการ และใช้งานปัญญาประดิษฐ์ที่สำคัญควรสามารถพิสูจน์ถึงความเป็นธรรมได้ (Fairness)

หลักการข้อที่ 6 ความน่าเชื่อถือ (Reliability) ประกอบด้วย 3 แนวปฏิบัติย่อยคือ

• ปัญญาประดิษฐ์ควรได้รับการสนับสนุนให้มีความน่าเชื่อถือและความมั่นใจใน
การใช้งานต่อสาธารณะ

• ปัญญาประดิษฐ์ควรสามารถคาดการณ์ ตัดสินใจ และให้คำแนะนำได้อย่างแม่นยำถูกต้อง (Accuracy) สร้างผลลัพธ์ที่สามารถเชื่อถือได้และสร้างใหม่ได้เมื่อต้องการ (Reliability and Reproducibility)

• ปัญญาประดิษฐ์ควรมีการควบคุมคุณภาพและตรวจสอบความครบถ้วนสมบูรณ์
ของข้อมูล (Quality and integrity of data)

• ปัญญาประดิษฐ์ควรมีกระบวนการและช่องทางรับผลสะท้อนกลับ (Feedback)
จากผู้ใช้งาน

• เพื่อให้ผู้ใช้งานสามารถแจ้งความต้องการเพิ่มเติม รับเรื่องร้องเรียน แจ้งปัญหา
ของระบบที่ตรวจสอบพบ และให้ข้อเสนอแนะได้โดยง่ายและรวดเร็ว

จากหลักการทั้ง 6 ข้อ ท่านผู้อ่านคงคลายความกังวลในส่วนของการที่จะต้องใช้ชีวิตร่วมกับปัญญาประดิษฐ์ทั้งในการทำงานและการใช้ชีวิตประจำวันลงไปบ้าง ไม่มากก็น้อย อย่างไรก็ตาม หากท่านผู้อ่านต้องการรายละเอียดเพิ่มเติมเกี่ยวกับแนวปฏิบัติของหลักการทั้ง 6 ข้อในรายละเอียด สามารถติดตามเพิ่มเติมได้จากแหล่งอ้างอิงที่ปรากฎอยู่ด้านล่างของบทความนี้ค่ะ

สุดท้ายนี้ผู้เขียนหวังใจว่า วิศวกรปัญญาประดิษฐ์ (AI Engineer) ทุกคน (ทั้งที่อยู่ในและนอกโครงการ Super AI Engineer) จะช่วยกันพัฒนาผลงานด้านปัญญาประดิษฐ์ที่มีประโยชน์การขับเคลื่อนเศรษฐกิจและสังคมไทย โดยคำนึงถึงแนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ (Thailand AI Ethics Guideline) ที่กล่าวมาข้างต้น รวมถึงท่านผู้อ่านที่เป็นผู้ใช้หรือองค์กรที่นำมาประยุกต์ใช้ทั้งในรูปแบบของการใช้งานส่วนตัวหรือการประกอบธุรกิจ จะคำนึงถึงผลกระทบที่มีต่อบุคคล องค์กร และสังคมส่วนรวม เพื่อให้ประเทศไทยของเราสามารถพัฒนาระบบเศรษฐกิจและสังคมด้วยเทคโนโลยี AI ได้อย่างมีจริยธรรมและมีประสิทธิภาพทัดเทียมกับนานาประเทศ

ขอบคุณค่ะ/Thank you/謝謝

แหล่งอ้างอิงข้อมูล

[1] สำนักราชบัณฑิตยสภา. “พจนานุกรมฉบับราชบัณฑิตยสถาน ฉบับปี พ.ศ. ๒๕๕๔” (Online). เข้าถึงได้จาก http://www.royin.go.th/dictionary/index.php

[2] สำนักงานพัฒนารัฐบาลดิจิทัล (องคการมหาชน) (สพร.). “เทคโนโลยีปัญญาประดิษฐ์ สำหรับการบริหารงานและการบริการภาครัฐ เวอร์ชัน 1.0 (พฤศจิกายน 2562)” (Online). เข้าถึงได้จาก https://www.dga.or.th/upload/download/file_e4db016970b7f8b6764f4289c5e9a83f.pdf

[3] Techsauce. (ตุลาคม 21, 2019) ข่าว “กระทรวงดิจิทัลฯ เผยแนวทาง Thailand AI Ethics พร้อมหนุนให้ AI ขับเคลื่อนเศรษฐกิจ ด้วยความรับผิดชอบ เช้าถึงได้จาก https://techsauce.co/news/ministry-of-digital-economy-and-society-mdes-announced-thailand-ai-ethics-guideline

[4] สำนักงานคณะกรรมการดิจิทัลเพื่อเศรษฐกิจและสังคมแห่งชาติ กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (2563). “เอกสารแนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ (Thailand AI Ethics Guideline)” เข้าถึงได้จากhttps://drive.google.com/file/d/1Co3g40qpa71fO5bQ9eCSuiwlOgUa1Bor/view?fbclid=IwAR3kRu6ce3vdL0Lbzh8rAA84YyFdEu8FmjABWWKPvYpaoBQDp887Bi1rRKs

--

--