×

‘จวกยับ’ ซีอีโอโดนหนักหลังเยาวชนต้องจบชีวิตเพราะโซเชียลมีเดีย และ AI ยิ่งซ้ำเติม

02.02.2024
  • LOADING...

สืบเนื่องจากความเสียหายจากการถูกล่วงละเมิดทางเพศบนโลกออนไลน์ที่เกิดขึ้นกับเยาวชนที่ยังไม่บรรลุนิติภาวะ มาร์ก ซักเคอร์เบิร์ก ซีอีโอของ Meta เจ้าของแพลตฟอร์มโซเชียลมีเดียยอดนิยมอย่าง Facebook และ Instagram พร้อมด้วยซีอีโอจาก Snap, X, Discord และ TikTok ได้เข้าชี้แจงต่อหน้าวุฒิสภาถึงหนทางการคุ้มครองความปลอดภัยของเด็กและเยาวชนต่อการถูกเอาเปรียบและล่วงละเมิดทางเพศผ่านแพลตฟอร์มของบริษัทกลุ่มนี้ ซึ่งเป็นช่องทางการเสพเนื้อหาออนไลน์ที่ถูกใช้งานอย่างแพร่หลายในกลุ่มเยาวชน

 

ท่ามกลางความดุเดือดของการหารือกว่า 4 ชั่วโมง สมาชิกวุฒิสภาหลายคนตอกย้ำถึงการจัดลำดับความสำคัญที่ไม่เหมาะสมของบริษัทบิ๊กเทคที่ให้คุณค่ากับ ‘กำไร’ บริษัท มากกว่า ‘ความปลอดภัย’ ของผู้ใช้งาน หรือบางคนถึงขนาดพูดว่า “มือของพวกคุณเปื้อนเลือดไปแล้ว” และ “ชีวิตของพวกเด็กๆ คงจะต้องมีการสูญเสียอีก” กว่าบรรดาบริษัทเทคต่างๆ จะตัดสินใจลงมือทำอะไรสักอย่างเพื่อแก้ไขปัญหาอย่างจริงจัง

 

สำนักข่าว TIME รายงานว่า การแถลงถูกเปิดฉากมาด้วยวิดีโอจากวุฒิสมาชิกนามว่า ริชาร์ด เดอร์บิน จากพรรคเดโมแครต ที่ฉายภาพเกี่ยวกับเหยื่อผู้ถูกล่วงละเมิดทางเพศบนแพลตฟอร์มออนไลน์ รวมทั้งครอบครัวที่ต้องสูญเสียลูกหลานของพวกเขาไปเพราะสาเหตุความเครียดจากประเด็นดังกล่าวที่นำไปสู่การจบชีวิตของเด็กผู้เป็นเหยื่อ

 

AI ป่วนโลกโซเชียล ล้ำหน้าหนทางการรับมือปัญหา

 

Washington Post ได้รายงานข้อมูลจากองค์กรคุ้มครองเด็กในสหรัฐอเมริกา (NCMEC) ที่เผยว่าในปี 2023 มีเนื้อหาที่เกี่ยวข้องกับการคุกคามและล่วงละเมิดทางเพศในเด็กถึง 36 ล้านรายการ และการมาของเทคโนโลยี Generative AI ก็ดูจะยิ่งเพิ่มความซับซ้อนให้กับปัญหาที่เดิมยังไม่มีหนทางในการรับมืออย่างจริงจัง

 

ผู้ควบคุมกฎหมายทั่วโลกกำลังเจอกับสถานการณ์รูปแบบใหม่ที่น่าปวดหัวกว่าเดิม เมื่อคอนเทนต์ที่มีเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศในเด็กและเยาวชนถูกสร้างขึ้นโดยเทคโนโลยี AI

 

ในวันที่ 10 มกราคมที่ผ่านมา โซชิตล์ โกเมซ นักแสดงผู้รับบท America Chavez ในภาพยนตร์เรื่อง Doctor Strange in the Multiverse of Madness เคยออกมาพูดว่าเธอไม่สามารถหลีกเลี่ยงภาพล่อแหลมที่มีภาพของเธอเองซึ่งถูกสร้างโดย AI บนแพลตฟอร์ม X ได้เลย โดยเธอยังอธิบายเพิ่มว่าทั้งแม่และทีมงานของเธอพยายามหาวิธีกำจัดโพสต์ต่างๆ แล้ว แต่ก็ไม่เป็นผลสำเร็จ

 

เมื่อเทคโนโลยี AI พัฒนาเร็วขึ้นและเข้าถึงได้มากขึ้น หน่วยงานที่มีหน้าที่รับผิดชอบกำลังเจอกับโจทย์ใหญ่ที่ท้าทายที่จะต้องปราบปรามกิจกรรมเหล่านี้ให้ได้โดยเร็วที่สุด แต่ประเด็นก็กลับมาที่การหาหนทางแก้ไขให้ได้ทันเวลา

 

“ยิ่งเราปล่อยให้ปัญหาดำเนินต่อไปโดยที่วิธีป้องกันยังไม่ชัดเจน ปัญหาพวกนี้ก็จะยิ่งทวีคูณในจำนวนและความรุนแรงมากขึ้น ซึ่งสุดท้ายเราก็จะอยู่ในบทบาทของผู้ไล่ตามปัญหาที่ทำได้เพียงตามปิดแผลของสิ่งที่ได้เกิดขึ้นไปแล้ว” แดน เซกส์ตอน หัวหน้าฝ่ายเทคโนโลยี Internet Watch Foundation ในสหราชอาณาจักร กล่าวถึงความเร่งด่วนในการป้องกันก่อนปัญหาจะลุกลามจนสายเกินแก้

 

ในปัจจุบัน AI มีความสามารถในการใช้รูปของเยาวชนตัวจริงหรือบุคคลในจินตนาการเพื่อสร้างภาพที่มีเนื้อหาล่อแหลมได้ผ่านการคลิกไม่กี่ครั้ง โดยศูนย์สังเกตการณ์อินเทอร์เน็ตของมหาวิทยาลัยสแตนฟอร์ดในสหรัฐฯ (SIO) พบว่าภาพล่อแหลมประมาณ 3,000 ภาพ ถูกใช้ในการฝึกฝนโมเดล AI ต่างๆ ที่เป็นแบบ Open Source ซึ่งทางศูนย์ยังค้นเจอหลักฐานเพิ่มเติมว่าโมเดลเหล่านี้ใช้ข้อมูลสาธารณะจากแหล่งที่มีชื่อว่า LAION-5B ซึ่งมีส่วนประกอบของภาพล่อแหลมที่ถูกดึงมาจากแพลตฟอร์มโซเชียลมีเดีย เช่น X และ Reddit มาใช้เป็นส่วนหนึ่งของฐานข้อมูลอีกด้วย

 

เดวิด ธีล หัวหน้าฝ่ายเทคโนโลยีของ SIO อธิบายถึงเหตุผลความท้าทายของวิธีการรับมือในปัจจุบันเพื่อป้องกันการแพร่ระบาดของภาพที่ไม่เหมาะสมเหล่านี้ว่า “ความยากของเรื่องนี้คือภาพใหม่ถูกสร้างและปล่อยออกมาอยู่ตลอด ซึ่งต่างจากเมื่อก่อนที่เราสามารถชี้ชัดภาพต่างๆ ได้เพราะมันเป็นของเดิมที่ถูกใช้ซ้ำ แต่ตอนนี้ไม่ใช่แล้ว”

 

การแข่งกับเวลาเพื่อรับมือปัญหาภาพล่อแหลมจาก AI

 

นักพัฒนาเครื่องมือ AI ต่างให้ข้อมูลว่าสิ่งที่เขาพัฒนาขึ้นนั้นมีมาตรการป้องกันการใช้ที่ไม่ถูกต้องอยู่แล้ว เช่น DALL·E จาก OpenAI มีวิธีกีดกันไม่ให้ผู้ใช้งานสร้างภาพล่อแหลม และในฝั่งของ Stability AI ก็เพิ่งอัปเดตซอฟต์แวร์เพื่อลดโอกาสการเกิดขึ้นของเหตุการณ์แบบนี้

 

อย่างไรก็ตาม ActiveFence องค์กรรักษาความปลอดภัยทางอินเทอร์เน็ตพบว่าผู้ใช้งานบางคนก็สามารถล่อลวงให้ระบบยอมคล้อยตามคำสั่งในท้ายที่สุดอยู่ดี แม้ว่าทางบริษัทผู้พัฒนา AI จะออกมาบอกว่าเครื่องมือของพวกเขามีมาตรการป้องกันแล้วก็ตาม

 

ด้วยปัญหาที่เกิดขึ้นในปัจจุบัน บริษัทเทคโนโลยีอย่าง Google ได้จับมือกับองค์กรต่อต้านการค้าบริการทางเพศ Thorn ซึ่งได้พัฒนานวัตกรรมตัวหนึ่งที่เรียกว่า ‘Hash Matching’ สำหรับการตรวจจับ ลบทิ้ง และรีพอร์ตโพสต์ที่มีเนื้อหาล่อแหลม ผ่านการตรวจค้นด้วยปัญญาประดิษฐ์ที่คอยหาไฟล์ผิดกฎหมายและเชื่อมโยงไปสู่ไฟล์ที่คล้ายกันเพื่อให้การพบเจอมีประสิทธิภาพมากขึ้น

 

อีกหนึ่งหนทางในการแก้ไขปัญหานี้ก็คือ ‘จำกัด’ การเข้าถึงเทคโนโลยี โดยผู้สนับสนุนฝั่งนี้ให้เหตุผลว่าเมื่อเราปล่อยให้เทคโนโลยีที่มีอำนาจมากขนาดนี้ไปอยู่ในมือของทุกคน มันก็หมายความว่าเราเอาเครื่องมือดังกล่าวไปให้กับผู้ไม่ประสงค์ดีด้วย ไปอยู่กับคนที่ต้องการหาผลประโยชน์จากภาพล่อแหลม

 

ทว่าในอีกฟากหนึ่งที่สนับสนุนการเข้าถึงเทคโนโลยีอย่างกว้างขวาง (Open Source) กลับโต้ว่า การจำกัดการเข้าถึงเฉพาะกลุ่มคนเป็นเพียงวิธีการแก้ปัญหาในรูปแบบของการตอบสนองตามสิ่งที่เกิดขึ้น แต่ไม่ได้แก้ที่ต้นตอ ซึ่งวิธีที่คนกลุ่มนี้เสนอคือการให้ความสำคัญกับการสร้างมาตรการป้องกันตั้งแต่ต้นทางแทนที่จะแก้ปัญหาที่ปลายเหตุ

 

อย่างไรก็ดี ประเด็นนี้ไม่ใช่เหรียญสองด้าน แต่เป็นปัญหาที่มีความละเอียดอ่อนและยังเป็นที่ถกเถียงกันถึงความชัดเจนของวิธีแก้ไข ความถูกต้องทางศีลธรรม และโอกาสในการเข้าถึงเทคโนโลยีอย่างเท่าเทียม

 

“ปัญหาภาพล่อแหลมนี้ไม่มีแนวโน้มว่าจะชะลอตัวลงเลย ดังนั้นเวลาเหลือไม่มากแล้ว เราจึงควรใช้เครื่องมือทุกอย่างที่มีเพื่อรับมือกับมัน ซึ่งจะต้องอาศัยการทำงานร่วมกันกับภาครัฐในเชิงกฎหมายและความร่วมมือจากบริษัทเทคโนโลยี” รีเบคก้า พอร์ตนอฟฟ์ กล่าวทิ้งท้าย

 

ภาพ: Tom Williams / Getty Images, ricochet64 / Getty Images

อ้างอิง:

  • LOADING...

READ MORE




Latest Stories

Close Advertising
X