รู้หรือไม่ AI ก็มีความเสี่ยง | ep.1 : AI ทำอะไรได้บ้าง

Art Chawarat
odds.team
Published in
3 min readJul 4, 2024

บทความนี้เป็นส่วนหนึ่งใน session ที่ชื่อว่า AI Safety: Balance Between Innovation & Safety จากคุณ Sudhir Tiku ในงาน AsiaTech x Singapore 2024 ที่ผมได้ไปเข้าร่วมมา เนื้อหาจะเป็นอย่างไรบ้าง ไปติดตามพร้อมๆกันเลย

.

ทุกสิ่งบนโลกนี้ล้วนมีทั้งด้านดีและไม่ดีเป็นธรรมดา ถ้าหากเปรียบเป็นสีก็จะมีทั้งขาว และดำ

เช่นเดียวกัน กับสิ่งที่กำลังเป็นที่พูดถึงในปี 2024 อย่าง “AI”

สิ่งนี้สร้างประโยชน์ให้เราได้ฉันใด มันก็สร้างโทษให้เราได้ฉันนั้น

ถ้าเราไม่ระมัดระวังในการใช้งาน

.

แล้ว AI ในปัจจุบัน มีความสามารถทำอะไรได้บ้าง

.

ความสามารถด้านการประมวลผลภาพที่เก่งขึ้นเรื่อยๆจนเทียบเท่ามนุษย์

ImageNet Competition

ImageNet Competition เป็นการแข่งขันหนึ่งที่จัดขึ้นเป็นประจำทุกปี โดยทางผู้จัดจะมีการกำหนด Dataset ให้เป็นรูปภาพทดสอบกว่า 1.2 ล้านรูป และครอบคลุมวัตถุกว่า 1,000 ชนิด โดยทีมที่เข้าแข่งขันจะต้องนำซอฟต์แวร์ของตนมาทดสอบกับ Dataset แล้วหากตอบว่าภาพที่เห็นเป็นภาพอะไรได้ถูกต้องมากที่สุดจะเป็นผู้ชนะ

การแข่งขันนี้ท้าทายเป็นอย่างมาก เพราะทั้งมีปริมาณ Dataset ที่เยอะ และ ซอฟต์แวร์ที่เข้าแข่งขันยังต้องมีความเข้าใจวัตถุในเชิงลึกมาก ยกตัวอย่างในบรรดาวัตถุ 1,000 ชนิด จะมีพันธุ์สุนัขมากกว่า 120 สายพันธุ์ แถมยังมีพันธุ์แมว พันธุ์นก พันธุ์ไม้อีกหลายสิบชนิดอีก ฉะนั้น นอกจากซอฟต์แวร์จะต้องตอบคำถามว่าภาพที่เอามาทดสอบเป็นสุนัข หรือแมว ยังไม่พอ ซอฟต์แวร์นั้นยังต้องมีการระบุสายพันธุ์ให้สุนัขอีกว่าเป็น Dalmatian หรือ Keeshond ให้ถูกต้องอีกด้วย

ผลการแข่งขันพบว่าผู้ชนะอันดับต้นๆ ในปี 2010 สามารถนำเรื่อง Machine Learning และ Computer Vision มาประยุกต์ใช้อย่างมีประสิทธิภาพและสามารถทำนายประเภทของวัตถุได้มากกว่า 70%

เป็นเวลาสองปีที่การแข่งขันนี้ไม่มีผู้ที่ทำนายประเภทของวัตถุได้เกินกว่า 70% จนกระทั่งปี 2012 ทีมจาก University of Toronto ก็สามารถชนะการแข่งขันนี้และทำลายกำแพง 70% ได้ โดยการทำนายประเภทวัตถุสูงสุดกว่า 85% เป็นครั้งแรก สิ่งนี้ได้สร้างปรากฏการณ์ให้กับวงการ AI ทั่วโลก และนี่คือก้าวแรก ที่ทำให้คนเริ่มมาสนใจ “Deep Learning

ภาพ Error ที่น้อยลงเรื่อยๆจากการแข่งขัน ImageNet และปี 2016 Error rate ก็น้อยกว่า Human performance

ความสามารถด้านการประมวลผลคำศัพท์จากมนุษย์

Transformer Model

Transformer หรือตัวแปลง เป็นสถาปัตยกรรม Neural Networks ชนิดหนึ่งที่แปลงหรือเปลี่ยนลำดับ input เป็น output จากบริบทและความสัมพันธ์ของคำ

โดยการแปลงคำนั้นจำเป็นต้องใช้ทั้ง ศาสตร์ และศิลป์ เพื่อให้แปลงความหมายได้ไหลลื่น มีความถูกต้องและครบครับ

ยกตัวอย่างการแปลง : “สีของท้องฟ้าคือสีอะไร” — Transformer Model ก็จะใช้การแสดงทางคณิตศาสตร์ที่ระบุความเกี่ยวข้องและความสัมพันธ์ระหว่างคำว่า สี ท้องฟ้า และสีฟ้า ซึ่งความรู้ที่ได้นั้นจะมาประมวลผลลัพธ์เป็น “ท้องฟ้าเป็นสีฟ้า”

ความสำคัญของ Transformer Model ยกตัวอย่างการเติมคำอัตโนมัติใน Smart phone ของเราที่มักแนะนำคำตามความถี่ที่เราพิมพ์ข้อความบ่อยๆ เช่น ถ้าเราพิมพ์ “สวัสดีครับพี่ๆ” บ่อยๆ โทรศัพท์ก็จะแนะนำคำว่า “พี่ๆ” อัตโนมัติ หลังจากเราพิมพ์ “สวัสดีครับ”

ความสามารถในการเรียนรู้ที่เพิ่มมากขึ้น จนสามารถเป็นครูให้เราได้

หลายๆคนอาจจะเคยเห็นคลิปนี้นะครับ จาก OpenAI

จากวิดิโอจะเห็นได้ว่า AI สามารถสอนตรีโกนมิติ ให้กับลูกชายของคุณ Sal Khan จาก Khan Academy ได้ ซึ่งมีการโต้ตอบด้วยน้ำเสียง และวิธีการที่คล้ายกับติวเตอร์เลยครับ

จากในอดีตที่ AI เป็นเพียงนักเรียน ที่อาศัยข้อมูลจากเราในการ Train

นำข้อมูลไป Train ด้วย Algorithm สุดท้ายเราก็จะได้ผลลัพธ์ออกมา

แต่ในอนาคต AI กำลังจะกลายเป็นครู โดย

เราจะนำข้อมูล และผลลัพธ์ที่เราต้องการ ส่งให้ AI แล้ว AI ก็จะแสดง Algorithm ที่ทำให้เกิดผลลัพธ์ที่เราส่งเข้าไปได้

ความสามารถในการวางกลยุทธ ที่ทำให้เป็นผู้ชนะใน Game

AlphaGo

ในปี 2017 เคยมี ข่าวเป็นที่ฮือฮา หลังจาก AI อย่าง AlphaGo ซึ่งเป็นโครงการของบริษัท Deepmind สามารถเอาชนะการแข่งขันหมากล้อม หรือ โกะ กับมนุษย์ได้

นับเป็นครั้งแรกที่โปรแกรมคอมพิวเตอร์อายุไม่ถึง 2 ปี สามารถเอาชนะมนุษย์ ในการแข่งขันเกมกระดานที่สืบทอดมานานหลายพันปี

สิ่งนี้เป็นความสามารถที่เด่นชัดของ AI ในการเรียนรู้สิ่งต่างๆ ที่ยิ่งให้เวลาพัฒนานานเท่าไร สิ่งมหัศจรรย์ใหม่ๆ ก็จะปรากฏให้เราเห็นได้มากขึ้นทุกวัน

ด้วยความสามารถที่มากขนาดนี้ เราคงต้องกลับมาถามตัวเองแล้วว่า เรากำลังใช้ AI ไปเพื่ออะไร

ใช้เป็นแค่เครื่องจักรอัจฉริยะ ทุ่นแรงเรา?

ใช้เป็นตัวแทนเสมือนจริงของเรา?

หรือเราต้องการสร้าง Super Intelligence?

แน่นอนตอนนี้ความเสี่ยงที่เกิดจาก AI ก็สามารถเกิดขึ้นให้เราเห็นได้

Alignment problem

ความเสี่ยงจากปัญหาที่ AI ทำตามจุดประสงค์ของเราแบบซื่อตรงเกินไป

ยกตัวอย่างเช่น การที่เราตั้งโปรแกรมให้ AI ทำงานแบบที่ซื่อตรงเกินไป แบบว่าสั่งหุ่นยนต์ AI ให้ไปซื้อของในห้างสรรพสินค้าให้เราหน่อย โดย AI มันก็จะทำทุกทางเพื่อให้ไปซื้อของให้ได้ โดยจะไม่ยอมให้เราปิดเครื่องของมันด้วยซ้ำ เพราะว่านั่นคือการขัดขวางการไปซื้อของของมัน

Control problem

ความเสี่ยงจากปัญหาการควบคุม AI

“Control problem” นี้ มีที่มาจากหนังสือ Superintelligence ของ Nick Bostrom ที่หมายถึงปัญหาจาก AI ที่มีความต้องการจะทำงานแบบอื่น ไม่เหมือนกับผู้ที่ควบคุมอยากให้มันทำ

.

ด้วยความที่ AI มีความเสี่ยงมากมายเลยนะครับ จึงต้องมีหลักปฏิบัติในการสร้าง AI ในแต่ละครั้ง เพื่อความปลอดภัย และเหตุผลทางจริยธรรม

แล้วหลักการนั้นมีอะไรบ้าง ep. หน้ามาติดตามกันครับ

ขอบคุณทุกท่านที่อ่านมาจนถึงตอนนี้ครับ กราบส์🙏

Thank you 🙏

Ref :

https://www.the101.world/alignment-problem

--

--