AI กำลังเก่งกว่ามนุษย์จนหลายคนกลัวว่าจะตกงาน หรือต้องเปลี่ยนไปทำงานอื่นแทน แถมยังอดรู้สึกไม่ได้ว่า เทคโนโลยีสมัยนี้ดูน่าสะพรึงกลัวไปด้วยในทีเดียวกัน เกิดกระแสในการกำหนดกฎหมายและจริยธรรมการใช้ AI
Tomorrow is Now เอพิโสดนี้ ซู่ชิง-จิตต์สุภา ฉิน คุยกับ อาจารย์อาร์ต-อรรถพล ปะมะโข แขกรับเชิญที่เคยมาพูดคุยในอีพีที่ 3 เมื่อ AI กลายร่างเป็นนักเขียนนิยาย! รอบนี้เราจะมาคุยกันเรื่องที่ยังต้องถกเถียงและยังไม่มีคำตอบแน่ชัด นั่นคือ ‘จริยธรรมกับ AI’
ข่าวที่เกี่ยวข้อง
- เหมือนอย่างที่คิดไหม? AI จำลองหน้าตัวละครใน Harry Potter โดยอ้างอิงจากคำบรรยายในหนังสือ
- นักวิจัยจีนเสนอระบบ AI โฉมใหม่ เข้าใจ ‘ความต้องการของมนุษย์’ มากขึ้น ปูทางสู่ความสัมพันธ์แบบสองทิศทาง
- วงการศิลปะเจอคำถามใหม่ ตกลงแล้ว ‘ศิลปิน’ คืออะไร? หลัง AI ชนะการประกวดวาดภาพ
ทำไมเราต้องสนใจเรื่องจริยธรรมของปัญญาประดิษฐ์
ปัจจุบันเทคโนโลยีพัฒนาแบบก้าวกระโดด ทำให้มนุษย์ต้องเริ่มเตรียมแนวคิดสำหรับรองรับสิ่งที่จะเกิดขึ้น เช่น กรณีที่คนตั้งข้อสันนิษฐานว่า AI อาจมีจิตสำนึก หรือตัดสินใจกระทำอะไรบางอย่างได้เอง คำถามที่ตามมาคือ ถ้า AI เป็นผู้ตัดสินใจ AI ต้องรับผิดชอบการกระทำเหล่านั้นเองด้วยหรือเปล่า เรื่องนี้จึงนำไปสู่แนวคิดเกี่ยวกับจริยธรรมของปัญญาประดิษฐ์
เป้าหมายอย่างหนึ่งของการสร้าง AI คือการทำให้มันตัดสินใจทำบางสิ่งบางอย่างแทนเราอยู่แล้ว เพราะฉะนั้นในที่สุดมันก็ต้องมีวันที่ AI มีสตินึกคิดขึ้นมาแน่นอนอย่างหลีกเลี่ยงไม่ได้ แต่เราเองก็คงมีคำถามตามมาอีกว่า แม้ AI จะเป็นตัวตัดสิน แต่ AI คิดได้จริงหรือเปล่า หรือเกิดขึ้นเพียงแค่ตัดสินตามข้อมูลสถิติที่ถูกป้อนมา AI เข้าใจเรื่องที่ตัวเองตัดสินว่าอย่างไร เป็นเรื่องที่ต้องถกเถียงกันในเชิงปรัชญามากพอสมควร
เวลาเราได้ยิน AI เก่งกว่าคน เรามักกลัวว่า AI จะครองโลกหรือเปล่า จะทำร้ายมนุษย์หรือถึงขั้นฆ่าล้างเผ่าพันธุ์มนุษยชาติไหม ความกลัวนี้มีที่มาจากอะไร
ความกลัวเหล่านี้พบได้ตามนิยายต่างๆ ตั้งแต่สมัยโบราณ มันไม่ใช่เรื่องใหม่ เช่น นิยายของแมรี เชลลีย์ ที่สร้าง แฟรงเกนสไตน์ ขึ้นมา เป็นสิ่งมีชีวิตที่ดูน่ากลัวน่าสยดสยอง ทำให้หลายคนต้องตายและต่างหวาดกลัว เป็นปีศาจชนิดหนึ่ง เหมือนแนวคิดที่ผูกโยงความกลัวมากับอะไรบางอย่าง กลัวว่าจะถูกแทนที่ กลัวว่าตัวเองจะสูญหายไปกับกาลเวลา หรือแม้แต่ภาพยนตร์ซีรีส์เรื่อง Westworld ก็ฉายภาพถึงมุมมองความคิดต่อ AI ในฐานะเครื่องมือหรืออุปกรณ์ที่เป็นเบื้องล่างของมนุษย์ แต่เมื่อ AI สามารถตื่นรู้ได้แล้ว ก็อาจย้อนกลับมาทำร้ายมนุษย์และก่อการปฏิวัติครั้งใหม่ได้เช่นกัน เหล่านี้เป็นความกลัวแบบฉบับของซีกโลกตะวันตก
ส่วนความกลัวของซีกโลกตะวันออก มันอาจยังไม่ชัดเจนมากนัก แต่มีจุดน่าสนใจคือ ในขณะที่ชาวตะวันตกถ่ายทอดความกลัวเทคโนโลยีผ่านภาพยนตร์หรือซีรีส์ กลับกันชาวตะวันออกอย่างประเทศญี่ปุ่น เลือกที่จะมองเทคโนโลยีในแง่บวกมากกว่า เช่น พวกการ์ตูนหุ่นยนต์อย่างโดราเอมอน หรือเจ้าหนูอะตอม (Astro Boy) เขามองว่าเทคโนโลยีจะพามนุษย์ไปสู่โลกในอุดมคติได้
ทำไมคนเราถึงมักจะกลัวหุ่นยนต์ที่หน้าตาเหมือนกับมนุษย์ มากกว่าหุ่นยนต์ทั่วไป
จริงๆ ถ้าหุ่นยนต์หน้าและท่าทางเหมือนคน 100% เลย คนอาจจะไม่กลัว แต่มันจะมีจังหวะหนึ่งที่หุ่นยนต์ค่อยๆ พัฒนาจากรูปลักษณ์แบบตัวการ์ตูนมาเหมือนมนุษย์มากขึ้นเรื่อยๆ จนถึงจุดที่ทำให้อยู่ตรงกลางระหว่างความเหมือนและความต่าง ทฤษฎีนี้เรียกว่า ‘Uncanny Valley’ หรือหุบเขาแห่งอันแคนนี
Uncanny Valley ไม่ใช่ความกลัวแบบ กลัวอันตราย กลัวจนต้องหวีดร้อง แต่เป็นความกลัวจากสิ่งที่เราคุ้นเคย เช่น กลัวเงาในกระจก กลัวซอมบี้ เป็นบางสิ่งบางอย่างที่ดูคล้ายกับสิ่งมีชีวิต แต่ก็ไม่ใช่สิ่งมีชีวิต ทำให้เราสับสน เป็นความแปลกปลอมที่คนยังไม่คุ้นเคย
ประเด็นจริยธรรมยังเป็นที่ถกเถียงกันในวงกว้าง โดยเฉพาะเมื่อรถไร้คนขับเกิดชนคนเสียชีวิต ทำให้เกิดคำถามว่าเราจะให้ AI ตัดสินใจแทนคนได้ไหม
ปัญหาโลกแตกสำหรับวงการรถยนต์ไร้คนขับก็คือ จะเกิดอะไรขึ้นหากรถยนต์ไร้คนขับกำลังจะพุ่งชนคน และมันต้องเลือกว่าใครจะรอดชีวิต เช่น เด็ก หรือ คนแก่ ซึ่งจริงๆ ตามหลักคือทุกคนมีคุณค่าเท่ากัน แต่ด้านความคิดเห็น บางคนอาจคิดว่าคนแก่อาจมีชีวิตอยู่ได้อีกไม่นาน ส่วนอีกคนอาจคิดว่า เด็กเป็นอนาคตและความหวัง เลือกเก็บเด็กไว้ดีกว่า นี่เป็นวิธีตัดสินปัญหาที่เรียกว่า ‘ประโยชน์นิยม’
เรื่องนี้เป็นปัญหาสำคัญในการทำให้ปัญญาประดิษฐ์ตัดสินใจเองได้ มนุษย์จะสร้างกฎอะไรในการตัดสิน เป็นเรื่องที่แม้แต่มนุษย์ก็ตัดสินใจไม่ตรงกันในแต่ละคน ฉะนั้นปัญหานี้ยังไม่มีคำตอบตายตัว แต่หากเรามองว่ารถยนต์ไร้คนขับเป็นอุปกรณ์ชิ้นหนึ่ง โอกาสผิดพลาดมันก็เกิดขึ้นได้
ท้ายสุด หากถามว่าถ้าเกิดอุบัติเหตุขึ้นมาจริงๆ ใครจะต้องเป็นคนรับผิดชอบ ระหว่าง ผู้สร้าง หรือ AI คงต้องย้อนกลับดูว่าระบบวิธีคิดแบบไหนที่คนป้อนให้กับปัญญาประดิษฐ์ หากถูกตั้งไว้อยู่แล้วว่าให้พุ่งชนคนแก่ เรื่องนี้มนุษย์คงเป็นคนผิดเต็มๆ แต่หากเป็นการตัดสินใจด้วยระบบบางอย่างของ AI เอง คงต้องมาคิดกันต่อว่า แล้วเราจะลงโทษ AI อย่างไร
จะเกิดอะไรขึ้น ถ้า AI ที่ทำหน้าที่วิเคราะห์คาดการณ์แนวโน้มการเกิดอาชญากรรมหรือตัดสินคดีความ กลับมีอคติขึ้นมา
ProPublica องค์กรข่าวแบบไม่แสวงกำไร รายงานว่าศาลหลายแห่งทั่วสหรัฐฯ กำลังใช้ AI เข้ามาช่วยคาดการณ์แนวโน้มการเกิดอาชญากรรมหรือแม้แต่ตัดสินคดีความ ซึ่งมักพบว่าอัลกอริทึมของ AI มีอคติต่อชาวแอฟริกันอเมริกันมากเป็นพิเศษ ที่น่าตกใจคือ คนผิวดำมักจะถูกตัดสินว่ามีความผิดมากกว่าคนผิวขาวถึง 2 เท่า
ปัญหาเรื่องนี้ไม่ใช่ความผิดของ AI แต่เป็นความผิดของผู้สร้างที่มีอคติต่อคนบางกลุ่ม เพราะว่า AI ไม่ได้ตัดสินใจเอง มันเป็นเพียง AI ประเภท Weak AI ไม่ได้ตัดสินอะไรเอง แต่ตัดสินตามกฎที่ถูกตั้งไว้เท่านั้น ฉะนั้นเมื่อไรที่ AI ก้าวข้ามจุดนี้ ไปถึงประเภท Strong AI หรือตัดสินใจเทียบเคียงกับมนุษย์ นั่นจะกลายเป็นอีกเรื่องที่เราต้องถามว่ามันจะมีอคติด้วยตัวเองหรือไม่ เป็นเรื่องที่ต้องติดตามกันต่อไป
สามารถฟังพอดแคสต์ Tomorrow is Now
ผ่านแอปพลิเคชันต่างๆ ที่คุณสะดวกหรือใช้อยู่แล้วได้เลย
Credits
The Host จิตต์สุภา ฉิน
The Guests อรรถพล ปะมะโข
Show Creator ภูมิชาย บุญสินสุข
Show Producer ปิยพร อรุณเกรียงไกร
Show Co-producer ปวริศา ตั้งตุลานนท์
Show Editor เชษฐพงศ์ ชูประดิษฐ์
Sound Designer & Engineer กฤตพล จียะเกียรติ
Coordinator & Admin อภิสิทธิ์ หรรษาภิรมย์โชค
Art Director อนงค์นาฏ วิวัฒนานนท์
Proofreader ลักษณ์นารา พักตร์เพียงจันทร์
Webmaster จินตนา ประชุมพันธ์