×

OpenAI ถูกแฮ็ก! เจาะระบบล้วงความลับ AI แต่บริษัทเลือกปิดปากเงียบ ซุกเรื่องใต้พรมกว่า 1 ปี

08.07.2024
  • LOADING...
OpenAI ถูกแฮ็ก

เมื่อต้นปี 2023 ช่องทางการสนทนาภายในบริษัท OpenAI หลุดรั่วออกไปจากการถูกเจาะโดยแฮกเกอร์ ซึ่งสามารถล้วงรายละเอียดความลับเกี่ยวกับการออกแบบเทคโนโลยี AI ของบริษัทไปได้ โดยเนื้อหาดังกล่าวถูกเปิดเผยโดย The New York Times จากข้อมูลที่ผ่านการพูดคุยกับแหล่งข่าวสองคนผู้ไม่ประสงค์จะออกนาม

 

รายงานระบุว่า แฮกเกอร์ได้ดึงรายละเอียดการสนทนาในฟอรัมออนไลน์ที่พนักงานพูดคุยเกี่ยวกับเทคโนโลยีล่าสุดของ OpenAI แต่แหล่งที่เก็บและขั้นตอนการพัฒนาปัญญาประดิษฐ์ (AI) ของบริษัทยังไม่ถูกเจาะเข้าไป

 

หลังจากที่ความลับบางส่วนของบริษัทรั่วไหล ผู้บริหาร OpenAI จึงแจ้งกับพนักงานรวมทั้งคณะกรรมการบริษัทเกี่ยวกับเหตุการณ์ ณ ที่ประชุม เมื่อเดือนเมษายน ปี 2023 แต่ผู้บริหารตัดสินใจที่จะไม่เปิดเผยข่าวต่อสาธารณะ เนื่องจากเหตุผลที่ว่าข้อมูลลูกค้ากับคู่ค้ายังไม่รั่วไหลออกไป

 

นอกจากนี้ผู้บริหาร OpenAI ยังมองว่า การเจาะเข้ามาขโมยข้อมูลที่เกิดขึ้นเมื่อปีที่แล้วยังไม่มีแนวโน้มที่จะนำไปสู่ภัยความมั่นคงของสหรัฐฯ เนื่องจากพวกเขาเชื่อว่าแฮกเกอร์เป็นบุคคลธรรมดาทั่วไปที่ไม่มีส่วนเกี่ยวข้องกับหน่วยงานรัฐในต่างประเทศ บริษัทจึงไม่ได้แจ้งกับ FBI หรือหน่วยงานบังคับใช้กฎหมายอื่นๆ ให้ทราบถึงข้อผิดพลาดครั้งนี้

 

อย่างไรก็ตาม หลายฝ่ายรวมทั้งพนักงาน OpenAI บางคนมองว่า การที่บริษัทถูกแฮ็กระบบเป็นประเด็นที่ไม่ควรมองข้ามหรือมองว่าเป็นความผิดพลาดที่เล็กน้อย แม้ว่าบอร์ดบริหาร OpenAI จะมองเช่นนั้นก็ตาม ซึ่งสิ่งนี้ทำให้เกิดคำถามว่า บริษัทจริงจังกับการสร้างระบบควบคุมความปลอดภัยให้แข็งแกร่งมากแค่ไหน? 

 

ณ ช่วงเวลาที่การรั่วไหลของข้อมูลเกิดขึ้นไม่นาน Leopold Aschenbrenner นักวิจัยประจำ OpenAI ที่เน้นเรื่องการสร้างเทคโนโลยีปัญญาประดิษฐ์ (AI) ที่มีความปลอดภัย ตัดสินใจเขียนจดหมายถึงบอร์ดบริหารเพื่อเตือนว่า บริษัทไม่มีมาตรการหรือเกราะป้องกันที่รัดกุมมากพอสำหรับปกป้องผู้ไม่ประสงค์ดี

 

เช่น หน่วยงานรัฐที่เป็นปรปักษ์กับสหรัฐฯ หรือแฮกเกอร์ในต่างประเทศที่จ้องจะเข้ามาช่วงชิงข้อมูลออกไป โดยหลังจาก Leopold Aschenbrenner เขียนจดหมายฉบับนั้นได้ประมาณ 1 ปีเขาก็ถูกเชิญให้ออก ด้วยเหตุผลเพราะเขาตั้งคำถามกับบอร์ดบริหารเรื่องความปลอดภัยของ AI

 

พวกเขา (บอร์ดบริหาร) บอกกับผมว่า สาเหตุที่ต้องเชิญออกและไม่ใช่แค่ตักเตือนก็เป็นเพราะจดหมายเรื่องความปลอดภัยนั่นแหละ” Leopold Aschenbrenner กล่าวในการให้สัมภาษณ์พอดแคสต์ Dwarkesh Podcast

 

ในฝั่งของ OpenAI เมื่อทราบเรื่องก็ปฏิเสธคำกล่าวอ้างด้วยการบอกว่า บริษัทมีเป้าหมายไม่ต่างกับ Leopold Aschenbrenner ที่ต้องการจะสร้าง AI ที่ปลอดภัยและโฆษกประจำ OpenAI กล่าวกับ The New York Times ว่า “คำวิจารณ์เกี่ยวกับความอ่อนแอของระบบความปลอดภัยที่เขามีกับบริษัทไม่ได้สะท้อนความจริง” 

 

ทั้งนี้ เพื่อตอบสนองต่อสิ่งที่เกิดขึ้น OpenAI จึงพยายามยกระดับเกราะป้องกัน AI ของตัวเอง ด้วยการสร้างกรอบเพื่อลดการใช้เทคโนโลยีในทางที่ผิด และจัดตั้งคณะกรรมการความปลอดภัยเพื่อรู้ให้ทันความเสี่ยงในอนาคต 

 

เพราะต้องไม่ลืมว่า ถึงแม้วันนี้บริษัทจะมองว่าการรั่วไหลยังไม่เป็นภัยต่อความมั่นคงของชาติ แต่สิ่งสำคัญอย่างข้อมูลลูกค้าหรือข้อมูลส่วนตัวก็เป็นอีกชุดข้อมูลที่แฮกเกอร์จ้องมอง ซึ่งการรั่วไหลของข้อมูลเหล่านี้ก็สามารถสร้างความเสียหายและทำให้ความน่าเชื่อมั่นของบริษัทลดลงตามไปด้วย

 

นอกจากสิ่งที่บริษัทกำลังทำ หน่วยงานรัฐและนักกฎหมายก็กำลังร่วมกันผลักดันกรอบกำกับดูแลที่จำกัดการเปิดตัว AI บางประเภทที่อาจถูกนำไปใช้ในทางที่ผิดและสร้างความเสียหายได้ พร้อมทั้งตั้งเป้าจะปรับหลายล้านดอลลาร์สหรัฐ หากมันนำไปสู่ความเสียหายให้กับผู้ใช้งาน

 

แต่นักวิจัยบางกลุ่ม เช่น Daniela Amodei ผู้ร่วมก่อตั้ง Anthropic กลับมองว่า AI ในขั้นปัจจุบันไม่ได้เสี่ยงในระดับที่หลายคนหวาดระแวง ทำให้การควบคุมมากเกินไปอาจชะลอพัฒนาการของเทคโนโลยีได้ ซึ่งระดับความเสี่ยงที่เธอประเมินไว้ในตอนนี้ของ AI ก็แทบไม่ต่างกับเสิร์ชเอนจินธรรมดาเลย และความเสี่ยงที่คนกลัวกันยังอยู่ห่างจากเราอีกหลายปีหรืออาจจะอีก 1 ทศวรรษก็ได้

 

ภาพ: Kulpreya Chaichatpornsuk / Getty Images

อ้างอิง: 

  • LOADING...

READ MORE





Latest Stories

Close Advertising
X