×

รับมืออย่างไร เมื่อ AI มีอคติและแบ่งแยก? เปิด 6 ไอเดียพัฒนาปัญญาประดิษฐ์ให้โปร่งใสโดยไมโครซอฟต์

28.01.2019
  • LOADING...

HIGHLIGHTS

7 MINS READ
  • ปัญหาการมีอคติ (Bias) และการแบ่งแยกเลือกปฏิบัติกับมนุษย์โดย AI คือเรื่องที่ถูกหยิบยกมาพูดให้เห็นถึงความสำคัญ เพื่อชี้ให้ทุกฝ่ายต้องเร่งกันช่วยแก้ปัญหา
  • ในมุมมองของไมโครซอฟต์ พวกเขาเชื่อและมองว่า ปัญญาประดิษฐ์เป็นเหมือนเครื่องมือเสริมที่ช่วยให้มนุษย์ใช้ความสามารถของการเป็นคน ทั้งความเห็นอกเห็นใจ จินตนาการ การคิดวิเคราะห์ให้ดียิ่งขึ้น
  • AI หรือปัญญาประดิษฐ์จะดีขึ้นได้และน่าไว้วางใจต่อเมื่อผู้พัฒนามีการป้อนชุดข้อมูลที่ดี ไม่มีอคติหรือเลือกปฏิบัติลงไปให้กับระบบอัลกอริธึม ที่สำคัญต้องมีเครื่องมือที่สามารถตรวจจับ (Detect) และนโยบายที่ควบคุมได้ตั้งแต่กระบวนการป้อนข้อมูล

ความกังวลเรื่องประดิษฐ์และหุ่นยนต์จะเข้ามามีบทบาทมากขึ้นในชีวิตประจำวันของเรา จนถึงขั้นที่มีโอกาสเปลี่ยนสถานะเป็นภัยคุกคามต่อเผ่าพันธ์ุมนุษย์ แย่งงาน ยึดครองโลก สอดแนมข้อมูลส่วนตัว ฯลฯ คือประเด็นที่บรรดาผู้พัฒนาและสื่อมวลชนจำนวนไม่น้อยเริ่มยกให้เป็นวาระสำคัญมากขึ้นในระยะหลังๆ

 

เนื่องจากมีกรณีตัวอย่างปัญหาของ AI เกิดขึ้นให้เห็นมาแล้วเป็นจำนวนมากทั่วโลก โดยเฉพาะปัญหา Bias การแบ่งแยกเลือกปฏิบัติกับมนุษย์ ซึ่งก็ต้องไม่ลืมเช่นกันว่าผู้พัฒนาและป้อนข้อมูลให้พวกมันเรียนรู้ รู้จำ มีรูปแบบการประมวลผลเป็นของตัวเองก็คือ มนุษย์อย่างเรานี่แหละ

 

THE STANDARD คุยกับ โอม ศิวะดิตถ์ ผู้บริหารด้านนโยบายภาครัฐไมโครซอฟต์ ประเทศไทย เพื่อสะท้อนให้เห็นถึงมุมมองที่ไมโครซอฟต์มีต่อการพัฒนาประดิษฐ์​ และอธิบายแนวคิดที่เหมาะสมในการลดโอกาสการเป็นภัยคุกคามของพวกมัน

 

 

AI ในความหมายของไมโครซอฟต์ คือเครื่องมือช่วยยกระดับขีดความสามารถคน

โอมเริ่มต้นด้วยการอธิบายให้เราฟังว่า สำหรับไมโครซอฟต์ พวกเขามองปัญญาประดิษฐ์เป็นเหมือนเครื่องมือเสริมที่ช่วยให้มนุษย์ใช้ความสามารถของการเป็นคน ความเห็นอกเห็นใจ จินตนาการ การคิดวิเคราะห์ให้ดียิ่งขึ้น

 

“มันเหมือนกับการ Amplify ขยายขอบเขตความสามารถของคน โดยนำ AI เข้ามาช่วย”

 

แต่ปัญหาคือ ในช่วง 2-3 ปีที่ผ่านมา ได้มีการยกประเด็นที่น่าเป็นห่วงของการนำปัญญาประดิษฐ์ไปใช้และผลกระทบมาถกเถียงกัน ครอบคลุมทั้งในมุมมองจริยธรรม บริบทสังคม ความเปลี่ยนแปลงที่จะเกิดขึ้นกับความเป็นอยู่ของเรา ซึ่งก็ไม่หนีจากความกังวลที่สภาเศรษฐกิจโลก World Economic Forum มีสักเท่าไร

 

ใจความตอนหนึ่งจากบทความ AI isn’t dangerous, but human bias is ที่เผยแพร่บนเว็บไซต์ WEF เมื่อวันที่ 17 มกราคม ระบุว่า หนึ่งในจุดเริ่มต้นที่ทำให้ปัญญาประดิษฐ์กลายเป็นภัยคุกคามและเริ่มอันตราย เป็นผลมาจากการที่อัลกอริธึมของมันได้สะท้อนความอคติของมนุษย์ที่เป็นผู้ป้อนข้อมูลให้

 

ตัวอย่างเช่น ธนาคารและสถาบันทางการเงินส่วนใหญ่ในอดีต จะไม่ค่อยตัดสินใจให้ลูกค้าผู้หญิงหรือชนกลุ่มน้อยบางกลุ่มกู้ยืมเงิน ด้วยเหตุนี้ เมื่อมีการป้อนข้อมูลชุดดังกล่าวลงไปในระบบของธนาคาร ณ ปัจจุบัน เพื่อให้อัลกอริธึมและปัญญาประดิษฐ์เริ่มเรียนรู้ ผลที่ตามมาคือ ผู้หญิงและชนกลุ่มน้อยก็มีโอกาสเสี่ยงจะถูกตัดเครดิตสกอร์ หมดโอกาสได้กู้ยืมเงิน สิ่งเหล่านี้ถือเป็นปัญหาสำคัญของการมีอคติและการแบ่งแยกจากมนุษย์ที่ลามไปถึง AI

 

 

ยังมีปัญหาอื่นๆ อีกมากที่บ่งชี้ถึงอคติของปัญญาประดิษฐ์ เช่น กรณีของ ‘COMPAS’ เครื่องมือปัญญาประดิษฐ์วิเคราะห์โอกาสที่อาชญากรจะกระทำความผิดซ้ำในอนาคต โดยจากการป้อนข้อมูลให้ระบบเรียนรู้ มันได้ให้คะแนนผู้หญิงผิวสีว่าจะก่อเหตุอาชญากรรมซ้ำสูงถึง 8 แต่กลับให้คะแนนชายผิวขาวเพียงแค่ 3

 

ทั้งๆ ที่ประวัติการกระทำความผิดในครั้งแรกของฝ่ายหญิง เธอถูกจับกุมเนื่องจากจอดจักรยานในจุดห้ามจอดโดยไม่ได้รับอนุญาต ขณะที่ฝ่ายชายก่อเหตุ ‘หลักทรัพย์พร้อมใช้อาวุธ’

 

 

6 แนวทางพัฒนา AI ตามหลักการของไมโครซอฟต์

คำถามสำคัญที่โอมและไมโครซอฟต์ต้องการชี้ให้เห็นก็คือ ถ้าปัญญาประดิษฐ์มีความสามารถรอบด้าน แต่ในขณะเดียวกันก็ยังมีอคติจากชุดข้อมูลต่างๆ ที่มนุษย์เป็นผู้ติดตั้งให้ การที่โลกที่มีทั้งคนดีและคนไม่ดีซึ่งสามารถครอบครอง AI ได้เหมือนๆ กัน จะก่อให้เกิดผลกระทบอย่างไร

 

ด้วยเหตุนี้ ไมโครซอฟต์จึงได้นำเสนอหลักการ 6 ประการสำคัญ ที่เชื่อว่าจะมีส่วนช่วยให้การพัฒนาปัญญาประดิษฐ์เป็นไปอย่างถูกต้อง เหมาะสม และเกิดประโยชน์กับมนุษย์ได้จริงๆ ประกอบด้วย

 

1. ยุติธรรม – ในกรณีที่นำ AI ไปใช้กับการออกเครดิตสกอร์ เพื่อปล่อยสินเชื่อโดยสถาบันทางการเงิน ผู้พัฒนาจะต้องมีความยุติธรรมหรือเที่ยงธรรมมากพอ มองทุกมิติความเป็นคน โดยแยกแยะอคติทางเชื้อชาติ สีผิว ศาสนา และไม่นำมาปะปนกับการใส่ในชุดข้อมูล

 

2. ไว้ใจได้ – ทุกกระบวนการพัฒนาปัญญาประดิษฐ์ต้องอยู่ภายใต้กรอบบังคับที่ชัดเจน ผ่านการทดสอบในทุกๆ สถานการณ์อย่างละเอียด มีการตรวจสอบผลอย่างใกล้ชิด นอกจากนี้ก็ต้องมีมนุษย์อยู่ในกระบวนการพัฒนาและทดสอบในทุกๆ ขั้นตอน ไม่ได้ปล่อยให้เรียนรู้ด้วยตัวเองทั้งหมด เนื่องจากพวกมันยังไม่มีกระบวนการคิดเหมือนที่มนุษย์มี

 

3. ปลอดภัยและเป็นส่วนตัว – ปัญญาประดิษฐ์จะฉลาดได้ก็ต้องพึ่งพาข้อมูลของมนุษย์ ตรงนี้ที่น่าเป็นห่วง เพราะถ้าข้อมูลถูกนำไปใช้โดยไม่มีกลไกการปกป้องผู้บริโภค มันจะถูกนำไปใช้ต่ออย่างไรบ้าง?

 

ปัจจุบันโอมบอกว่า กฎหมาย GDPR ในยุโรปได้เริ่มกำหนดข้อบังคับไว้แล้วว่า เจ้าของข้อมูลมีสิทธิ์จะได้รับคำอธิบายในกรณีที่ข้อมูลของตัวเองถูกนำไปใช้เพื่อกำหนดหรืออนุมัติสิทธิบางอย่าง เช่น ถ้าลูกค้าไปขอกู้เงินจากธนาคารแล้วไม่ได้รับการอนุมัติ เนื่องจากได้รับคะแนนความเสี่ยงสูง ผู้กู้ก็มีสิทธิ์ขอคำอธิบายกระบวนการประเมินจากธนาคารได้

 

4. เสมอภาค – ผู้พัฒนาปัญญาประดิษฐ์จะต้องคำนึงว่าผู้ใช้ AI ทุกคนจะต้องใช้งานพวกมันได้อย่างเท่าเทียมกัน ไม่มีข้อจำกัดด้านเชื้อชาติ สีผิว วัฒนธรรม และความต่างอื่นๆ เช่น คนพิการและคนต่างถิ่นจะใช้ AI เหมือนคนทั่วไปได้หรือไม่

 

นอกจากนี้ก็ต้องมีความเป็นมนุษย์มากขึ้น เช่น แชตบอตของค่ายประกันจะต้องมีความเป็นมนุษย์มากขึ้น รู้จักระวังบทสนทนา โดยเฉพาะในกรณีที่ลูกค้าเป็นผู้ที่เพิ่งได้รับความสูญเสียบางอย่าง

 

5. โปร่งใส – ผลิตภัณฑ์ปัญญาประดิษฐ์แต่ละตัวจะต้องอธิบายย้อนหลังได้ว่ามีจุดประสงค์ในการพัฒนาเพื่ออะไร มีความมุ่งหมายอย่างไร และต้องมีช่องทางให้ผู้ใช้งานสามารถ Feedback ความคิดเห็นในการใช้งานกลับเข้าไปหาผู้พัฒนาได้

 

6. มีความรับผิดชอบ – ตัวอย่างในกรณีนี้คือ เมื่อเราขับรถยนต์ของ Tesla แล้วใช้ระบบอัตโนมัติควบคุมรถ แต่เกิดประสบอุบัติเหตุชนคนบนถนนเสียชีวิต คำถามคือใครจะเป็นผู้รับผิดชอบ ถ้ามองในเชิงบริบทกฎหมายของไทย ผู้ขับหรือเจ้าของรถก็ต้องเป็นฝ่ายผิดอยู่แล้ว แต่มองในอีกมุม ผู้บริโภคก็มีสิทธิ์โยนความผิดให้กับปัญญาประดิษฐ์หรือผู้พัฒนาได้เหมือนกัน

 

ต่อประเด็นนี้ ไมโครซอฟต์มองว่า ความผิดคงไม่ได้ตกไปอยู่ที่ตัว AI หรือหุ่นยนต์ ยังไงคนก็ต้องเป็นฝ่ายรับผิดชอบ และถึงจุดหนึ่งก็ควรจะมีกฎหมายมากำกับในประเด็นนี้เช่นกัน

 

ผู้บริหารด้านนโยบายภาครัฐไมโครซอฟต์ ประเทศไทย กล่าวย้ำให้เห็นถึงความสำคัญของกระบวนการพัฒนาปัญญาประดิษฐ์ว่าจะต้องมีการสร้าง Skill Set ที่หลากหลายขึ้น และต้องไม่ใช่แค่นักคอมพิวเตอร์หรือโปรแกรมเมอร์เท่านั้นที่จะมีหน้าที่พัฒนาในด้านนี้ แต่นักภาษาศาสตร์ก็ต้องเข้ามามีส่วนร่วมด้วย

 

“วิธีที่จะทำให้มั่นใจได้ว่าข้อมูลที่เราป้อนเข้าไปพัฒนาปัญญาประดิษฐ์มีความเที่ยงตรง ไม่มีอคติเอนเอียง หรือนำสเตอริโอไทป์ของตัวเองมาเป็นเกณฑ์ตัดสิน คือต้องมีกลไกในการตรวจสอบที่ชัดเจน โดยปัจจุบันเรื่องนี้ยังอยู่ในกระบวนการพัฒนาอยู่”

 

 

เมื่อได้ทั้ง 6 หลักการที่เหมาะสมแล้ว ก็ต้องมีการต่อยอด เพื่อให้เกิดการนำไปใช้จริงด้วย โอมบอกว่า 8 กระบวนคิดที่ไมโครซอฟต์อยากจะเชิญให้ทุกภาคส่วนเข้ามามีส่วนร่วมและเริ่มหันมาร่วมกันจริงจังมากขึ้นมีดังนี้

1. ต้องมีเวทีร่วมพัฒนาหรือกำหนดหลักปฏิบัติร่วมกันว่าจะพัฒนา AI ไปในทางไหน (Multi-Stakeholder Dialogues)

2. มีหลักเกณฑ์ที่น่าเชื่อถือ วางมนุษย์ไว้เป็นศูนย์กลางของการพัฒนา

3. ถ้ามีหลักปฏิบัติที่ดี ก็ควรมีการแชร์แนวทางร่วมกัน

4. สนับสนุนงานวิจัยและพัฒนา (R&D)

5. มีคลังข้อมูลขนาดยักษ์ เพื่อช่วยให้อุตสาหกรรมปัญญาประดิษฐ์ในไทยเติบโต

6. ต้องมีการฝึกอบรมทักษะเฉพาะทาง เพราะคนที่มีความรู้เรื่อง AI ในไทยยังมีไม่มากพอ

7. ปรับปรุงสวัสดิการสังคม (Modernized Social Safety Net)

8. มีกฎระเบียบการกำกับดูแลที่ชัดเจน (A Regulatory Environment That Fosters AI Innovation)

 

ปัจจุบันไมโครซอฟต์เปิดเผยว่า ได้มีการพูดคุยประเด็น 6 หลักการ และ 8 วิธีการบังคับใช้ เพื่อพัฒนาปัญญาประดิษฐ์ให้น่าเชื่อถือ (Trusted AI) กับผู้กำหนดนโยบายหลายภาคส่วนในประเทศไทยแล้ว ทั้งรัฐบาล ภาคการศึกษา หรือแม้แต่ฝั่งธนาคารแห่งประเทศไทย และตลาดหลักทรัพย์ เพื่อให้กระบวนการทั้งหมดถูกนำไปใช้งานจริง

 

“เราจะพยายามหาพาร์ตเนอร์ เพื่อกระจายให้เห็นความสำคัญในด้านนี้ เราร่วมมือกับ Depa ทำโครงการ CodingThailand.org เพื่อให้เด็กๆ เห็นถึงความสำคัญของการพัฒนาทักษะด้านนี้ และจะมีการทำ Reskill เพื่อให้แรงงานไทยมีโอกาสเปลี่ยนสายงานไปทำด้านอื่นๆ (ในกรณีที่ได้รับผลกระทบจากปัญญาประดิษฐ์)”

 

ก่อนจะจบบทสนทนา THE STANDARD ได้ถามโอมว่า ณ ปัจจุบันภาครัฐบาลไทยตื่นตัวแค่ไหนกับการเข้ามามีบทบาทของปัญญาประดิษฐ์

 

“ผมคงไม่ไปตำหนิภาครัฐเขานะครับ แต่ ณ วันนี้ เรากำลังตื่นเต้นกับศักยภาพของ AI แล้วข้ามช็อตไปคุยกันแล้วว่า ความเลวร้ายที่สุดของมันคืออะไร ส่วนตัวผมก็ยังไม่ค่อยเห็นว่ามีผู้พัฒนาฝ่ายใดมองการนำมันมาใช้ประโยชน์ควบคู่ไปกับการดูแลสังคมหรือสภาพแวดล้อมอย่างจริงจัง มีแต่การพูดถึงประเด็นเหล่านี้ในระดับเวทีนานาชาติมากกว่า”

 

สุดท้ายแล้ว คนที่ตอบคำถามได้ดีที่สุด ว่าปัญญาประดิษฐ์จะก้าวขึ้นมาเป็นผู้ช่วยเหลือ ยกระดับประสิทธิภาพในการทำงานและความ Productive ในการใช้ชีวิต หรือจะกลายเป็นภัยคุกคามต่อเผ่าพันธ์ุมนุษย์ ก็หนีไม่พ้นมนุษย์อย่างเรา…

 

พิสูจน์อักษร: ภาวิกา ขันติศรีสกุล

  • LOADING...

READ MORE






Latest Stories

Close Advertising