เมื่อต้นปี 2023 ช่องทางการสนทนาภายในบริษัท OpenAI หลุดรั่วออกไปจากการถูกเจาะโดยแฮกเกอร์ ซึ่งสามารถล้วงรายละเอียดความลับเกี่ยวกับการออกแบบเทคโนโลยี AI ของบริษัทไปได้ โดยเนื้อหาดังกล่าวถูกเปิดเผยโดย The New York Times จากข้อมูลที่ผ่านการพูดคุยกับแหล่งข่าวสองคนผู้ไม่ประสงค์จะออกนาม
รายงานระบุว่า แฮกเกอร์ได้ดึงรายละเอียดการสนทนาในฟอรัมออนไลน์ที่พนักงานพูดคุยเกี่ยวกับเทคโนโลยีล่าสุดของ OpenAI แต่แหล่งที่เก็บและขั้นตอนการพัฒนาปัญญาประดิษฐ์ (AI) ของบริษัทยังไม่ถูกเจาะเข้าไป
หลังจากที่ความลับบางส่วนของบริษัทรั่วไหล ผู้บริหาร OpenAI จึงแจ้งกับพนักงานรวมทั้งคณะกรรมการบริษัทเกี่ยวกับเหตุการณ์ ณ ที่ประชุม เมื่อเดือนเมษายน ปี 2023 แต่ผู้บริหารตัดสินใจที่จะไม่เปิดเผยข่าวต่อสาธารณะ เนื่องจากเหตุผลที่ว่าข้อมูลลูกค้ากับคู่ค้ายังไม่รั่วไหลออกไป
นอกจากนี้ผู้บริหาร OpenAI ยังมองว่า การเจาะเข้ามาขโมยข้อมูลที่เกิดขึ้นเมื่อปีที่แล้วยังไม่มีแนวโน้มที่จะนำไปสู่ภัยความมั่นคงของสหรัฐฯ เนื่องจากพวกเขาเชื่อว่าแฮกเกอร์เป็นบุคคลธรรมดาทั่วไปที่ไม่มีส่วนเกี่ยวข้องกับหน่วยงานรัฐในต่างประเทศ บริษัทจึงไม่ได้แจ้งกับ FBI หรือหน่วยงานบังคับใช้กฎหมายอื่นๆ ให้ทราบถึงข้อผิดพลาดครั้งนี้
อย่างไรก็ตาม หลายฝ่ายรวมทั้งพนักงาน OpenAI บางคนมองว่า การที่บริษัทถูกแฮ็กระบบเป็นประเด็นที่ไม่ควรมองข้ามหรือมองว่าเป็นความผิดพลาดที่เล็กน้อย แม้ว่าบอร์ดบริหาร OpenAI จะมองเช่นนั้นก็ตาม ซึ่งสิ่งนี้ทำให้เกิดคำถามว่า บริษัทจริงจังกับการสร้างระบบควบคุมความปลอดภัยให้แข็งแกร่งมากแค่ไหน?
ณ ช่วงเวลาที่การรั่วไหลของข้อมูลเกิดขึ้นไม่นาน Leopold Aschenbrenner นักวิจัยประจำ OpenAI ที่เน้นเรื่องการสร้างเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่มีความปลอดภัย ตัดสินใจเขียนจดหมายถึงบอร์ดบริหารเพื่อเตือนว่า บริษัทไม่มีมาตรการหรือเกราะป้องกันที่รัดกุมมากพอสำหรับปกป้องผู้ไม่ประสงค์ดี
เช่น หน่วยงานรัฐที่เป็นปรปักษ์กับสหรัฐฯ หรือแฮกเกอร์ในต่างประเทศที่จ้องจะเข้ามาช่วงชิงข้อมูลออกไป โดยหลังจาก Leopold Aschenbrenner เขียนจดหมายฉบับนั้นได้ประมาณ 1 ปีเขาก็ถูกเชิญให้ออก ด้วยเหตุผลเพราะเขาตั้งคำถามกับบอร์ดบริหารเรื่องความปลอดภัยของ AI
“พวกเขา (บอร์ดบริหาร) บอกกับผมว่า สาเหตุที่ต้องเชิญออกและไม่ใช่แค่ตักเตือนก็เป็นเพราะจดหมายเรื่องความปลอดภัยนั่นแหละ” Leopold Aschenbrenner กล่าวในการให้สัมภาษณ์พอดแคสต์ Dwarkesh Podcast
ในฝั่งของ OpenAI เมื่อทราบเรื่องก็ปฏิเสธคำกล่าวอ้างด้วยการบอกว่า บริษัทมีเป้าหมายไม่ต่างกับ Leopold Aschenbrenner ที่ต้องการจะสร้าง AI ที่ปลอดภัยและโฆษกประจำ OpenAI กล่าวกับ The New York Times ว่า “คำวิจารณ์เกี่ยวกับความอ่อนแอของระบบความปลอดภัยที่เขามีกับบริษัทไม่ได้สะท้อนความจริง”
ทั้งนี้ เพื่อตอบสนองต่อสิ่งที่เกิดขึ้น OpenAI จึงพยายามยกระดับเกราะป้องกัน AI ของตัวเอง ด้วยการสร้างกรอบเพื่อลดการใช้เทคโนโลยีในทางที่ผิด และจัดตั้งคณะกรรมการความปลอดภัยเพื่อรู้ให้ทันความเสี่ยงในอนาคต
เพราะต้องไม่ลืมว่า ถึงแม้วันนี้บริษัทจะมองว่าการรั่วไหลยังไม่เป็นภัยต่อความมั่นคงของชาติ แต่สิ่งสำคัญอย่างข้อมูลลูกค้าหรือข้อมูลส่วนตัวก็เป็นอีกชุดข้อมูลที่แฮกเกอร์จ้องมอง ซึ่งการรั่วไหลของข้อมูลเหล่านี้ก็สามารถสร้างความเสียหายและทำให้ความน่าเชื่อมั่นของบริษัทลดลงตามไปด้วย
นอกจากสิ่งที่บริษัทกำลังทำ หน่วยงานรัฐและนักกฎหมายก็กำลังร่วมกันผลักดันกรอบกำกับดูแลที่จำกัดการเปิดตัว AI บางประเภทที่อาจถูกนำไปใช้ในทางที่ผิดและสร้างความเสียหายได้ พร้อมทั้งตั้งเป้าจะปรับหลายล้านดอลลาร์สหรัฐ หากมันนำไปสู่ความเสียหายให้กับผู้ใช้งาน
แต่นักวิจัยบางกลุ่ม เช่น Daniela Amodei ผู้ร่วมก่อตั้ง Anthropic กลับมองว่า AI ในขั้นปัจจุบันไม่ได้เสี่ยงในระดับที่หลายคนหวาดระแวง ทำให้การควบคุมมากเกินไปอาจชะลอพัฒนาการของเทคโนโลยีได้ ซึ่งระดับความเสี่ยงที่เธอประเมินไว้ในตอนนี้ของ AI ก็แทบไม่ต่างกับเสิร์ชเอนจินธรรมดาเลย และความเสี่ยงที่คนกลัวกันยังอยู่ห่างจากเราอีกหลายปีหรืออาจจะอีก 1 ทศวรรษก็ได้
ภาพ: Kulpreya Chaichatpornsuk / Getty Images
อ้างอิง: