Starling Bank ธนาคารออนไลน์ของอังกฤษ ออกโรงเตือนภัยการหลอกลวงรูปแบบใหม่ที่ใช้เทคโนโลยีปัญญาประดิษฐ์ (AI) โคลนนิ่งเสียงของบุคคลอื่น โดยอาชญากรสามารถสร้างเสียงเลียนแบบได้จากเสียงเพียง 3 วินาทีที่พบในวิดีโอที่โพสต์ออนไลน์ จากนั้นจึงโทรไปหาเพื่อนหรือญาติของบุคคลนั้นเพื่อขอเงิน
การหลอกลวงด้วย AI โคลนนิ่งเสียงนี้มีศักยภาพที่จะ “หลอกลวงคนได้หลายล้านคน” Starling Bank กล่าวในการแถลงข่าว และจากการสำรวจพบว่า มากกว่า 1 ใน 4 ของผู้ตอบแบบสอบถามกว่า 3,000 คน ระบุว่า พวกเขาตกเป็นเป้าหมายของการหลอกลวงด้วย AI โคลนนิ่งเสียงในช่วง 12 เดือนที่ผ่านมา
นอกจากนี้ 46% ของผู้ตอบแบบสอบถามยังไม่ทราบว่ามีการหลอกลวงประเภทนี้อยู่ และ 8% ยอมรับว่าจะโอนเงินให้ตามที่เพื่อนหรือญาติขอ แม้จะรู้สึกว่าการโทรนั้นแปลกๆ ก็ตาม
Lisa Grahame หัวหน้าเจ้าหน้าที่รักษาความปลอดภัยสารสนเทศของ Starling Bank กล่าวว่า “ผู้คนมักโพสต์เนื้อหาออนไลน์ที่มีการบันทึกเสียงของพวกเขา โดยไม่เคยคิดเลยว่ามันจะทำให้พวกเขาเสี่ยงต่อการถูกหลอกลวงมากขึ้น” เธอเน้นย้ำว่า เสียงเพียงไม่กี่วินาทีก็เพียงพอสำหรับ AI ในการสร้างเสียงเลียนแบบที่เหมือนจริงจนแยกไม่ออก ทำให้ผู้คนตกเป็นเหยื่อได้ง่าย
ธนาคารแนะนำให้ทุกคนตกลง ‘คำที่ปลอดภัย’ กับคนใกล้ชิด ซึ่งเป็นวลีง่ายๆ ที่จำง่ายและแตกต่างจากรหัสผ่านอื่นๆ เพื่อใช้ยืนยันตัวตนทางโทรศัพท์ หากมีคนโทรมาอ้างว่าเป็นเพื่อนหรือญาติและขอให้โอนเงิน ให้ลองถามวลีปลอดภัยนี้เพื่อตรวจสอบว่าเป็นบุคคลนั้นจริงๆ หรือไม่
นอกจากนี้ไม่ควรแชร์วลีนี้ผ่านข้อความ เพราะอาจทำให้อาชญากรค้นพบได้ง่าย และควรระมัดระวังในการแชร์ข้อมูลส่วนตัวบนโลกออนไลน์ รวมถึงวิดีโอที่มีเสียงของเรา
ในขณะที่ AI กำลังพัฒนาอย่างรวดเร็วในการเลียนแบบเสียงมนุษย์ ก็มีความกังวลเพิ่มขึ้นเกี่ยวกับศักยภาพในการสร้างความเสียหาย เช่น การช่วยให้อาชญากรเข้าถึงบัญชีธนาคารของผู้อื่น หรือการเผยแพร่ข้อมูลเท็จที่อาจสร้างความเสียหายต่อบุคคลหรือองค์กร
OpenAI ผู้สร้าง ChatGPT แชตบอต Generative AI ได้เปิดตัวเครื่องมือจำลองเสียง Voice Engine เมื่อต้นปีที่ผ่านมา แต่ยังไม่เปิดให้ใช้งานแก่สาธารณะ เนื่องจากตระหนักถึง ‘ความเสี่ยงในการนำเสียงสังเคราะห์ไปใช้ในทางที่ผิด’
อ้างอิง: