เมื่อ AI ถูกโจมตี . . .

Pranpaveen Lay.
Super AI Engineer
Published in
Feb 1, 2021

คงปฏิเสธไม่ได้นะครับว่าตอนนี้เทคโนโลยีปัญญาประดิษฐ์(AI) นั้นรุ่งเรืองและมีการนำไปใช้ในหลายๆด้าน แต่คุณรู้หรือไม่ว่าระบบ AI นั้นก็สามารถที่จะโดนโจมตีให้ทำนายผิดพลาดได้โดยในบทความนี้จะนำเสนอให้เห็นถึงการโจมตีในระบบ AI

โดยที่ผมจะเน้นไปที่วิธีการโจมตีด้วยข้อมูลที่จะนำไปทำนาย(Input data)

fig1_inputattack
ref: https://www.belfercenter.org/publication/AttackingAI

ซึ่งผู้โจมตีนั้นแก้ทำการดัดแปลงข้อมูลที่จะนำไปใส่ในระบบ AI เพื่อให้มันทำนายผิดพลาด การโจมตีนั้นจะมีทั้งที่มนุษย์สามารถสังเกตได้และที่สังเกตไม่ได้ การโจมตีในระบบดิจิตอลและการโจมตีในโลกจริงๆ(Physical world) ซึ่งคำศัพท์ในทางเทคนิคนั้นเราจะเรียกว่า Adversarial Examples

Input data ref: https://www.belfercenter.org/publication/AttackingAI

โดยที่ขอเริ่มจากรูปนี้ก็แล้วกัน ซึ่งคิดว่าบางคนอาจจะเคยเห็นมาบ้างแล้ว

ref : EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES (2015)

ซึ่งนี่ก็เป็นงานวิจัยของท่าน Ian Goodfellow ผู้คิดค้น GANs และยังเป็นผู้ที่นำเสนอเกี่ยวกับ Adversarial Examples อีกด้วย จากรูปมันก็คือรูป panda(แพนด้า) ที่ใส่สัญญาณรบกวนในอัตราส่วนที่น้อยมากๆแล้วนำไปให้ AI ทำนายซึ่ง AI ทำนายว่ามันคือ gibbon(ชะนี) แล้วทำไมมันถึงเป็นแบบนี้ได้หละ…ไว้จะมาอธิบายสมการในบทความต่อไปนะครับ ซึ่งการที่ AI สามารถถูกโจมตีได้ด้วยสัญญาณรบกวนเพียงน้อยนิดนั้น อาจเป็นอันตรายอย่างมากในงานที่ต้องการความถูกต้องสูงเช่นในงานจำพวกรถยนต์

https://deep.ghost.io/robust-attribution/

แต่เอ้…การโจมตีแบบนี้ก็ทำอะไรในโลกแห่งความจริงไม่ได้สิ

ในปี 2017 พี่ Ian คนเดิมก็ได้นำเสนองานวิจัยที่ชื่อว่า ADVERSARIAL EXAMPLES IN THE PHYSICAL WORLD(2017) ซึ่งทำการทดลองโดยการทำการปริ้นรูปที่โดนโจมตีใส่กระดาษแล้วทำการทำนายวัตถุโดยใช้กล้องจากโทรศัพท์ผ่านแอพที่มี AI ในการทำนายสิ่งของ ไปส่องรูปภาพเพื่อดูว่า AI จะทำนายว่าอะไรผลลัพธ์ที่ได้ก็ตามคลิปนี้เลย

นอกจากนี้ก็ยังมีงานวิจัยที่พยายามหาจุดที่ไปเติมลงบนเป้าหมายเพื่อทำให้โมเดลทำนายผิด

ref: www.belfercenter.org/publication/AttackingAI , Robust Physical-World Attacks on Deep Learning Visual Classification(2018)

ถ้าดูตามภาพก็คือป้าย STOP ถูกบดบังด้วยแผ่นสีขาวและดำทำให้ AI นั้นทำนายผิดไป การโจมตีเช่นนี้มนุษย์สามารถรับรู้ด้วยตาเปล่าได้ว่าป้าย STOP นั้นผิดแปลกไปแต่ว่าก็ยังคงรู้ว่ามันคือป้าย STOP

นอกจากวิธีที่กล่าวมาข้างต้นนั้นก็ยังมีอีกหลายวิธีในการที่จะโจมตี AI

แต่ก็ไม่ต้องกังวลไปเพราะว่า

  • การโจมตีให้มีประสิทธิภาพสูงนั้นจำเป็นต้องรู้ถึงโครงสร้างภายในของตัว AI
  • มีคนสร้างวิธีโจมตีก็มีคนสร้างวิธีป้องกันเหมือนกัน :)

ในครั้งหน้าจะมาลงดีเทลในการโจมตี AI ด้วย Adversarial Examples ครับรอติดตามได้เลยยยยย

บทความนี้เป็นส่วนหนึ่งของโครงการ Super AI Engineer by AIAT
เขียนโดย ปรานต์ปวีณ เลขวิริยะกุล (รหัสโครงการ 22p21c0022)

--

--