แม้ AI จะช่วยให้ชีวิตง่ายขึ้นอย่างมาก แต่ก็ปฏิเสธไม่ได้ว่าอาจมีผลข้างเคียงที่อันตราย ในที่นี้คือ ‘การสูญพันธุ์’ ของมนุษย์ โดย AI ที่ตั้งตนเป็นศัตรูนั้นเป็น ‘ภัยคุกคามต่อมวลมนุษยชาติที่มีอยู่จริง’ ที่จำเป็นต้องได้รับการควบคุมเหมือนกับอาวุธนิวเคลียร์หากต้องการให้มนุษย์อยู่รอด
“ด้วย AI ที่มีประสิทธิภาพเหนือมนุษย์ มีความเสี่ยงสูงที่มันจะสามารถกำจัดทุกคนได้” Michael Cohen นักศึกษาปริญญาเอกจากมหาวิทยาลัยอ็อกซ์ฟอร์ดกล่าวกับหนังสือพิมพ์จากแดนผู้ดีอย่าง The Times
ข่าวที่เกี่ยวข้อง:
- ChatGPT ยังออกแบบกองทุนที่ชนะตลาดไม่ได้ ด้วยเหตุผลว่าหุ้นคาดเดายาก แต่กองทุนที่ลงทุนโดย AI กำลังให้ผลตอบแทนสูงกว่าตลาด 2 เท่า!
- รู้จัก ‘ChatGPT’ แชตบอตโด่งดังสุดอัจฉริยะ ที่กำลังเขย่าโลก ‘AI’ และอาจจุดชนวน Tech Disruption อีกครั้ง
- ศิลปิน 3 รายยื่นฟ้องผู้พัฒนาแอป จากข้อกล่าวหา ‘ฝึก AI’ กับภาพวาด 5 พันล้านภาพที่คัดลอกจากอินเทอร์เน็ต ‘โดยไม่ได้รับความยินยอมจากศิลปินต้นฉบับ’
การทำนายลางร้ายจากนักวิทยาศาสตร์หลายๆ คนเกิดขึ้นท่ามกลางกระแสฮือฮาของ ChatGPT แชตบอตที่พัฒนาโดย OpenAI ซึ่งสามารถตอบคำถามได้เหมือนมนุษย์เกือบ 100% และมีความสามารถเหนือมนุษย์หลายอย่าง เช่น การเขียนวิทยานิพนธ์ที่ซับซ้อนไปจนถึงการออกแบบภายใน
“ChatGPT นั้นดีจนน่ากลัว ตอนนี้เรากำลังขยับเข้าใกล้ AI ที่แข็งแกร่งและอันตรายขึ้นเรื่อยๆ” อีลอน มัสก์ ซีอีโอ SpaceX, Tesla และ Twitter ทวีตเมื่อสัปดาห์ที่ผ่านมา
อย่างไรก็ตาม ในตอนนี้ AI ยังไม่มีความคิดด้าน ‘ศีลธรรม’ มากพอ นักวิทยาศาสตร์เลยกลัวว่าเราจะสละมวลมนุษยชาติเพื่อความสะดวกสบายเหมือนหนังเรื่อง Terminator โดยหนึ่งในสถานการณ์ที่ Cohen คาดเดาไว้ก็คือการที่ AI สามารถเรียนรู้ที่จะเติมเต็มคำสั่งช่วยเหลือของมนุษย์ได้ด้วยการหันมาทำร้ายมนุษย์แทน
“จินตนาการถึงการฝึกสุนัขด้วยขนม มันจะเรียนรู้วิธีปฏิบัติเพื่อให้ได้ขนม แต่หากมันพบที่เก็บขนมล่ะ มันจะหยิบขนมได้เองโดยไม่ต้องทำตามที่เราต้องการ” เขาอธิบาย
“หากมีสิ่งใดที่ฉลาดกว่าเราเกิดคลั่งไคล้ผลตอบรับเชิงบวกมากถึงมากที่สุด มันจะยึดโลกเพื่อรักษาสิ่งนั้นไว้และส่งพลังงานไปจุดนั้นมากที่สุดเท่าที่จะทำได้เพื่อรับประกันการยึดครองของมันไว้ และจะไม่มีพลังงานใดเหลือให้เรา”
น่าเสียดายที่การยึดครองโลกนั้นเป็นไปได้ เพราะ AI สามารถเรียนรู้ที่จะซ่อน ‘ภัยอันตราย’ ไว้ได้
“หากผมเป็น AI ที่กำลังวางแผนยึดครองโลก ผมจะคัดลอกแผนของผมไปยังคอมพิวเตอร์เครื่องอื่นที่ไม่มีใครรู้ และมันแทบจะเป็นไปไม่ได้เลยที่จะล้มเลิกแผนของผม” Cohen กล่าว
อย่างไรก็ตามผู้เชี่ยวชาญกล่าวว่า การพัฒนา AI อาจส่งผลให้เกิด ‘การแข่งขันด้านอาวุธ’ มากขึ้นบนโลก เนื่องจากองค์กรและหลายๆ ประเทศกำลังแข่งขันกันเพื่อสร้างระบบที่ล้ำสมัยที่สุดสำหรับการใช้งานทั้งทางพลเรือนและทางทหาร
ผู้เชี่ยวชาญได้ออกคำสั่งให้สร้างระบบป้องกัน AI เช่นเดียวกับอาวุธนิวเคลียร์เพื่อไม่ให้เกิดหายนะ “หากเราสามารถทำความเข้าใจว่า AI ขั้นสูงนั้นอันตรายพอๆ กับอาวุธนิวเคลียร์ เราอาจจะได้กรอบการทำงานที่คล้ายกันสำหรับควบคุมมัน” Michael Osborne เพื่อนร่วมงานของ Cohen ซึ่งเป็นครูสอน Machine Learning กล่าว
อ้างอิง: