ไม่กี่วันที่ผ่านมาปรากฏข่าวที่สร้างความพรั่นพรึงในวงการเทคโนโลยีปัญญาประดิษฐ์หรือ AI หลังคณะผู้เชี่ยวชาญหลายสิบคน ซึ่งรวมถึงผู้บริหารบริษัทพัฒนา AI แถวหน้าอย่าง OpenAI (ผู้พัฒนา ChatGPT) และ Google Deepmind ออกแถลงการณ์บนหน้าเว็บไซต์ ศูนย์ความปลอดภัย AI (Centre for AI Safety) โดยระบุว่า
“การลดความเสี่ยงต่อการสูญพันธุ์จาก AI ควรเป็นวาระสำคัญระดับโลก ควบคู่ไปกับความเสี่ยงอื่นๆ ในระดับสังคม เช่น โรคระบาดและสงครามนิวเคลียร์”
แถลงการณ์ดังกล่าว สะท้อนชัดเจนถึงความกังวลของผู้เชี่ยวชาญต่อสิ่งที่ AI อาจทำได้ ถึงขั้นก่อภัยพิบัติและหายนะต่อมนุษยชาติ เช่นเดียวกับที่เราเคยเห็นจากในภาพยนตร์ไซไฟหลายต่อหลายเรื่อง
แต่คำถามสำคัญคือท่าทีเหล่านี้ ‘เกินจริง’ ไปหรือไม่ หรือว่าแท้ที่จริงแล้วมันมีโอกาสเป็นไปได้ และเป็นมนุษย์เราต่างหากที่ยังประมาทและมองข้ามอันตรายที่อาจทำให้เผ่าพันธุ์ของเราสูญสิ้น
หวั่น AI ก่อภัยพิบัติในหลายด้าน
เว็บไซต์ ศูนย์ความปลอดภัย AI ชี้ให้เห็นฉากทัศน์ของภัยพิบัติร้ายแรงจาก AI ที่อาจเกิดขึ้น เช่น
- AI สามารถกลายเป็นอาวุธได้ เช่น เครื่องมือ AI ที่ใช้ในการค้นพบยา ก็สามารถใช้สร้างอาวุธเคมีได้
- ข้อมูลที่ผิดที่สร้างขึ้นโดย AI อาจทำให้สังคมสั่นคลอนและไร้เสถียรภาพ และบั่นทอนการตัดสินใจร่วมกันของคนในสังคม
- พลังของ AI อาจกระจุกตัวอยู่ในกลุ่มคนที่น้อยลงเรื่อยๆ ซึ่งอาจส่งผลให้เกิด ระบอบการปกครองที่บีบบังคับให้ผู้คนต้องยอมรับค่านิยมแคบๆ ที่กลุ่มผู้ถืออำนาจ AI กำหนด โดยผ่านการสอดแนมและการเซ็นเซอร์หรือปิดกั้นการแสดงความคิดเห็น ซึ่งเป็นการกดขี่เสรีภาพของมนุษย์
- อาจส่งผลให้ความสามารถและศักยภาพของมนุษย์ลดลง และต้องพึ่งพา AI ในด้านต่างๆ
สำหรับ 3 ผู้เชี่ยวชาญที่มีผลงานก้าวล้ำด้าน AI จนได้รับการขนานนามให้เป็น ‘เจ้าพ่อแห่ง AI’ ได้แก่ ดร.เจฟฟรีย์ ฮินตัน (Geoffrey Hinton) อดีตวิศวกร AI ที่ลาออกจาก Google, โยชัว เบนจิโอ (Yoshua Bengio) ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่งมหาวิทยาลัยมอนทรีออล และ ยานน์ เลอคุน (Yann LeCun) ศาสตราจารย์ประจำมหาวิทยาลัยนิวยอร์ก และรองประธานหัวหน้านักวิทยาศาสตร์ด้าน AI ที่ Meta ต่างก็แสดงความเห็นต่อคำเตือนดังกล่าว
โดย ดร.ฮินตัน และศาสตราจาร์ยเบนจิโอ ต่างก็สนับสนุนคำเตือนของศูนย์ความปลอดภัย AI ขณะที่ศาสตราจารย์เลอคุนมองว่าคำเตือนเกี่ยวกับความเสี่ยงจากอันตรายของ AI ที่ราวกับก่อให้เกิดวันสิ้นโลกเหล่านี้เป็นความคิดที่เกินจริง
ความจริงที่แตกร้าว (Fracturing Reality)
ผู้เชี่ยวชาญหลายคนเชื่อคล้ายๆ กันว่าสมมติฐานที่ AI จะกำจัดมนุษยชาตินั้นไม่เป็นจริง และเป็นการเบี่ยงเบนความสนใจจากปัญหาต่างๆ เช่น ความเอนเอียงหรืออคติในระบบที่เป็นปัญหาอยู่แล้ว
อาร์วินด์ นารายานัน (Arvind Narayanan) นักวิทยาศาสตร์คอมพิวเตอร์แห่งมหาวิทยาลัยพรินซ์ตัน มองว่า สถานการณ์ภัยพิบัติจาก AI ที่เหมือนกับภาพยนตร์ไซไฟนั้นไม่เป็นจริง โดยกล่าวว่า “AI ในปัจจุบันไม่มีความสามารถเพียงพอที่จะทำให้ความเสี่ยงเหล่านี้เกิดขึ้นได้จริง แต่ผลที่เกิดขึ้นก็คือ มันเบี่ยงเบนความสนใจของเราไปจากอันตรายระยะใกล้จาก AI”
ขณะที่ เอลิซาเบธ เรไนเอริส (Elizabeth Renieris) นักวิจัยอาวุโสจากสถาบันจริยธรรมใน AI (Institute for Ethics in AI) ของมหาวิทยาลัยออกซ์ฟอร์ด เผยว่า เธอเป็นกังวลมากขึ้นเกี่ยวกับความเสี่ยงจาก AI ที่กำลังใกล้เข้ามาในปัจจุบัน
“ความก้าวหน้าของ AI จะขยายขอบเขตของการตัดสินใจโดยอัตโนมัติที่มีความลำเอียง เลือกปฏิบัติ กีดกัน หรือไม่ยุติธรรม ในขณะเดียวกันก็ไม่อาจเข้าใจได้ และไม่สามารถโต้แย้งได้ พวกมันจะผลักดันให้ปริมาณและการแพร่กระจายข้อมูลผิด เพิ่มขึ้นแบบทวีคูณ ซึ่งจะส่งผลให้ความจริงนั้นแตกร้าว และกัดกร่อนความไว้วางใจของสาธารณชน ขณะที่ผลักดันให้เกิดความไม่เท่าเทียมกันมากขึ้น โดยเฉพาะอย่างยิ่งสำหรับผู้ที่ยังคงอยู่ในด้านที่ไม่ถูกต้องของการแบ่งแยกทางดิจิทัล” เรไนเอริสกล่าว
นอกจากนี้เธอยังชี้ว่า เครื่องมือ AI หลายตัวได้เรียนรู้ประสบการณ์ทั้งหมดของมนุษย์จนถึงปัจจุบัน อีกทั้งยังได้ฝึกฝนในเนื้อหา ข้อความ ศิลปะ หรือดนตรีที่มนุษย์สร้างขึ้น ซึ่งพวกมันสามารถเลียนแบบได้ โดยมนุษย์ที่สร้าง AI ได้ถ่ายโอนความมั่งคั่งและอำนาจมหาศาลจากพื้นที่สาธารณะไปยังหน่วยงานหรือบริษัทเอกชนเพียงไม่กี่แห่ง
อย่างไรก็ตาม แดน เฮนดริกส์ (Dan Hendrycks) ผู้อำนวยการศูนย์ความปลอดภัย AI มองว่าความเสี่ยงของ AI ในอนาคต และความกังวลที่มีอยู่ ณ ปัจจุบัน “ไม่ควรที่จะมองไปในทางตรงกันข้าม และการแก้ไขบางปัญหาในวันนี้ อาจเป็นประโยชน์สำหรับการจัดการกับความเสี่ยงในวันพรุ่งนี้”
การพัฒนา AI อัจฉริยะระดับสุดยอดต้องควบคุมแบบนิวเคลียร์
การรายงานข่าวของสื่อเกี่ยวกับภัยคุกคาม ‘ที่มีอยู่จริง’ ของ AI เริ่มปรากฏขึ้นตั้งแต่เดือนมีนาคมที่ผ่านมา หลังกลุ่มผู้เชี่ยวชาญรวมถึง อีลอน มัสก์ (Elon Musk) มหาเศรษฐีชาวอเมริกันและผู้บริหาร Tesla ได้ลงนามในจดหมายเปิดผนึก เพื่อเรียกร้องให้หยุดการพัฒนาเทคโนโลยี AI รุ่นต่อไป
จดหมายฉบับดังกล่าว ยังตั้งคำถามถึงความเหมาะสมว่าเราควรพัฒนา AI ที่ไร้จิตใจแบบมนุษย์ ซึ่งท้ายที่สุดมันอาจมีจำนวนมากกว่า ฉลาดกว่า และแทนที่เราได้ในที่สุดหรือไม่?
นอกจากนี้ยังมีการเปรียบเทียบความเสี่ยงของ AI กับสงครามนิวเคลียร์ โดยในบล็อกโพสต์ของ OpenAI เมื่อไม่นานนี้ มีข้อแนะนำว่า Superintelligence หรือ AI ที่มีความอัจฉริยะระดับสุดยอดนั้น อาจต้องถูกควบคุมอย่างรัดกุมในลักษณะที่คล้ายกับ ‘พลังงานนิวเคลียร์’ และมองว่าอาจต้องมีองค์กรหรือหน่วยงานควบคุม สำหรับการพัฒนา Superintelligence
จะมั่นใจได้แค่ไหน?
สำหรับในสหราชอาณาจักร ประเด็นภัยคุกคามและความเสี่ยงจาก AI ถูกหยิบยกขึ้นพูดคุยเมื่อไม่นานนี้ โดย แซม อัลต์แมน (Sam Altman) ซีอีโอของ OpenAI และ ซุนดาร์ พิชัย (Sundar Pichai) ซีอีโอของ Google ซึ่งเป็นหนึ่งในผู้นำด้านการพัฒนาเทคโนโลยี AI ได้เข้าพบกับ ริชี ซูนัค (Rishi Sunak) นายกรัฐมนตรีแห่งสหราชอาณาจักร เพื่อหารือเกี่ยวกับแนวทางในการกำกับดูแลและกฎระเบียบสำหรับ AI
โดยซูนัคให้สัมภาษณ์สื่อมวลชนเกี่ยวกับคำเตือนล่าสุดเรื่องความเสี่ยงของ AI ซึ่งเขามองไปที่ผลดีต่อเศรษฐกิจและสังคม
“คุณคงเห็นแล้วว่าเมื่อเร็วๆ นี้ AI ช่วยให้คนเป็นอัมพาตเดินได้ ช่วยค้นพบยาปฏิชีวนะใหม่ๆ แต่เราต้องทำให้แน่ใจว่าสิ่งนี้ (การพัฒนา AI) ทำด้วยวิธีที่ปลอดภัยและมั่นคง” เขากล่าว
“นั่นคือเหตุผลที่ผมได้พบกับซีอีโอของบริษัท AI รายใหญ่เมื่อสัปดาห์ที่แล้ว เพื่อหารือเกี่ยวกับแนวทางป้องกันที่เราต้องกำหนด และกฎระเบียบหรือการกำกับดูแลแบบใดที่ควรนำมาใช้เพื่อทำให้เราปลอดภัย ผู้คนจะกังวลกับรายงานที่ว่า AI ก่อให้เกิดความเสี่ยง เช่น โรคระบาดหรือสงครามนิวเคลียร์ ผมต้องการให้พวกเขามั่นใจได้ว่า รัฐบาลกำลังตรวจสอบเรื่องนี้อย่างรอบคอบ”
ขณะที่ ซูนัค ยังได้หารือประเด็นความเสี่ยงของ AI กับผู้นำคนอื่นๆ ในการประชุมสุดยอดผู้นำ G7 ที่กรุงโตเกียวเมื่อไม่นานนี้ ซึ่งกลุ่ม G7 ได้เริ่มจัดตั้งคณะทำงานด้าน AI แล้ว
ภาพ: Yu Ruidong / China News Service / Visual China Group via Getty Images)
อ้างอิง: