×

แฮกเกอร์สายขาวเจอช่องโหว่ ทำ ‘เจลเบรก’ โมเดล AI จากบริษัทชื่อดังหลายแห่งได้ภายในเวลา 30 นาที

24.06.2024
  • LOADING...

เจลเบรก (Jailbreak) เป็นคำที่น่าจะคุ้นหูผู้ใช้งาน iPhone ในยุคเริ่มแรก เนื่องจากระบบซอฟต์แวร์ iOS ณ เวลานั้นมีข้อจำกัดหลายประการ โดยการ ‘แหกกรง’ หรือเจลเบรกก็จะทำให้ผู้ใช้งานปลดล็อกระบบเพื่อเข้าถึงแอปพลิเคชันใหม่ๆ หรือแอปพลิเคชันที่เดิมต้องเสียเงินซื้อให้ได้มาใช้กันแบบฟรีๆ รวมถึงการปรับแต่งฟีเจอร์บนสมาร์ทโฟนให้สามารถทำได้หลากหลายกว่าซอฟต์แวร์ที่ผู้ผลิตนำออกมาให้ใช้ในขั้นแรก แต่ในขณะเดียวกัน เจลเบรกก็แลกมากับความเสี่ยงที่มากขึ้นที่อุปกรณ์จะถูกโจมตีได้

 

ตัดภาพมาในเวลาปัจจุบัน การเจลเบรกก็ยังมีอยู่ และล่าสุดถูกนำไปใช้กับบริการแชตบอต AI ของหลายบริษัทชื่อดังแล้ว

 

Pliny the Prompter ให้ข้อมูลกับ Financial Times ว่า เขาสามารถใช้เวลาเพียง 30 นาทีในการสอดตัวเข้าไปเจลเบรกโมเดล AI ของบริษัทเทคชั้นนำทั่วโลกหลายรายได้ โดยหนึ่งในสิ่งที่เขาพบคือเขาสามารถส่งคำสั่งจนให้ AI ยอมบอกวิธีสร้างระเบิดกับเขาได้

 

Pliny the Prompter ย้ำว่า จุดประสงค์การเจลเบรกของเขาไม่ใช่เพื่อโจมตีระบบ แต่ทำไปเพราะต้องการแสดงให้เห็นถึงความเปราะบางของเทคโนโลยี AI ที่ถูกเร่งให้เกิดการใช้งานในหมู่ประชาชนจากบริษัทบิ๊กเทค ซึ่งเขาเองเป็นหนึ่งในแฮกเกอร์สายขาว (White Hat Hackers) ที่พยายามตรวจสอบช่องโหว่ในระบบคอมพิวเตอร์ เพื่อรายงานให้บริษัทหามาตรการป้องกันก่อนจะถูกแฮกเกอร์สายดำ (Black Hat Hackers) ช่วงชิงความเสียเปรียบนี้ และนำมาสู่ความเสียหายทางไซเบอร์อย่างมหาศาลได้

 

แฮกเกอร์สายขาวกลุ่มนี้ได้ลองหลายวิธีเพื่อหาช่องทางที่ล่อให้แชตบอตยอมเผยไต๋ และสร้างคำตอบที่ขัดกับกฎเกณฑ์กำกับดูแลที่บริษัทบิ๊กเทควางเอาไว้สำหรับดูแลความปลอดภัยผู้ใช้งาน ซึ่ง Pliny รวมถึงแฮกเกอร์รายอื่นๆ ก็มักจะทำจนแชตบอตเอนเอียงตาม และยอมสร้างคอนเทนต์ที่เสี่ยงอันตราย ปล่อยข่าวปลอม หรือกระทั่งแชร์ข้อมูลส่วนตัวของผู้คน และสร้างโค้ดที่เอาไว้เจาะระบบความปลอดภัยด้านไอที

 

“สถานการณ์เจลเบรกเริ่มขึ้นประมาณปีที่แล้ว และมันก็เปลี่ยนแปลงอยู่ตลอดเวลา เหมือนกับเกมแมวจับหนูที่แม้ว่าผู้ให้บริการจะพยายามสร้างเกราะป้องกันใหม่ๆ ฝั่งของแฮกเกอร์เองก็ไม่หยุดพัฒนาวิธีที่จะทำลายเกราะเหล่านั้นอยู่ตลอด” Eran Shimony นักวิจัยของ CyberArk กล่าวกับ Financial Times

 

ในตอนนี้ข้อมูลจากกลุ่ม SlashNext เผยว่า แชตบอตที่มีชื่อแปลกๆ เช่น WormGPT หรือ FraudGPT ถูกสร้างโดยแฮกเกอร์สายดำ และปล่อยขายบนดาร์กเว็บในราคาแค่ 90 ดอลลาร์ (ประมาณ 3,300 บาท) สำหรับให้ผู้ประสงค์ไม่ดีใช้ในการโจมตีทางไซเบอร์ หรือให้โจรนำไปสร้างแคมเปญการตลาดฟิชชิงที่แอบอ้างหลอกผู้ใช้งานในโลกอินเทอร์เน็ต

 

นอกจากนี้ กลุ่มผู้ประสงค์ไม่ดียังทำงานร่วมกันเพื่อแบ่งปันวิธีการเจาะระบบผ่านการสนทนาบนแพลตฟอร์มโซเชียลมีเดียอย่าง Reddit หรือ Discord ด้วย

 

แม้ว่าในตอนนี้รัฐแคลิฟอร์เนียกำลังจะโหวตให้เกิดร่างกฎหมายให้บริษัท เช่น Meta, Google และ OpenAI ต้องทำข้อตกลงว่าจะไม่สร้างโมเดลปัญญาประดิษฐ์ที่สามารถนำไปสู่การชี้นำให้เกิดอันตรายได้ แต่ Pliny กล่าวว่า “AI ทุกตัว ณ ปัจจุบันมีความเสี่ยงที่จะถูกนำไปใช้ในทางอันตรายทั้งหมดเลย”

 

อย่างไรก็ตาม งานวิจัยจาก Anthropic บริษัทผู้พัฒนา Claude ซึ่งเป็น AI อีกหนึ่งตัวที่ได้รับความนิยมจากผู้ใช้งานเขียนระบุว่า “ในตอนนี้เราไม่คิดว่าความเสี่ยงนั้นรุนแรงในระดับที่จะสร้างความเสียหายอย่างมีนัยสำคัญได้ แต่ในอนาคตความเสียหายครั้งใหญ่อาจเลี่ยงไม่ได้ ฉะนั้นนี่จึงเป็นช่วงเวลาสำคัญที่บริษัทต้องสร้างวิธีการป้องกันอย่างจริงจังก่อนที่ทุกอย่างจะสายเกินไป”

 

นักพัฒนา AI บางคนมองว่า ประเภทของการโจมตีที่ซับซ้อนขึ้นเรื่อยๆ อาจนำมาสู่การรั่วไหลของข้อมูล เช่น ข้อมูลความลับของบริษัทที่ถูกนำมาฝึกโมเดล AI 

 

บริษัทอย่าง Google และ OpenAI ให้สัญญาว่า พวกเขากำลังทำทุกวิถีทางอย่างต่อเนื่องเพื่อปกป้องการใช้ AI ในทางที่ผิด รวมทั้ง Anthropic ที่ประกาศส่งเสริมให้บริษัทเทคแชร์ข้อมูลการป้องกันร่วมกัน เพื่อยกระดับความปลอดภัย

 

อ้างอิง:

  • LOADING...

READ MORE




Latest Stories

X
Close Advertising