×

สำรวจตัวอย่างแนวคิดเกี่ยวกับเด็กและการคุ้มครองเด็กจากเทคโนโลยี (ที่มาพร้อมเสียงวิจารณ์) จากบริษัทยักษ์ใหญ่อย่าง Facebook (Meta) และ Apple

29.10.2021
  • LOADING...

เทคโนโลยีอย่างอุปกรณ์เคลื่อนที่และแพลตฟอร์มสื่อสังคมออนไลน์นั้นเป็นสิ่งที่ทำให้ชีวิตสะดวกสบายมากขึ้น แต่กับ ‘เด็ก’ ซึ่งเป็นที่ทราบกันว่าการใช้เทคโนโลยีอาจส่งผลกระทบต่อเด็กทั้งโดยตรงและโดยอ้อม มีอะไรที่เราควรรู้ในการใช้เทคโนโลยีเหล่านี้บ้าง

 

เราจะพาไปสำรวจตัวอย่างแนวคิดเกี่ยวกับเด็ก และความพยายามในการป้องกันและคุ้มครองเด็กจากบริษัทเทคโนโลยีอย่าง Facebook (ที่เพิ่งเปลี่ยนชื่อเป็น Meta แบบสดๆ ร้อนๆ) และ Apple ทั้งในฐานะที่เด็กเป็นผู้ที่ได้รับผลจากการใช้งานเทคโนโลยีของบุคคลอื่น และในฐานะที่เด็กเป็นผู้ใช้เทคโนโลยีเอง ที่แม้จะมาพร้อมกับเสียงวิจารณ์ หรือบางแนวคิดก็ยังรอการพิจารณาอย่างรอบด้าน แต่กับข้อมูลต่อไปนี้ บางส่วนก็เป็นสิ่งที่ผู้ปกครอง ผู้เชี่ยวชาญด้านเด็ก หรือรัฐสามารถรับทราบและช่วยดูแลเด็กจากผลของการใช้เทคโนโลยีได้ หรือแม้แต่รับรู้ว่าบริษัทเหล่านี้อาจจะกำลังคิดอะไรอยู่

 

  • เริ่มจากแพลตฟอร์มสื่อสังคมออนไลน์อย่าง Facebook ที่นอกจากจะมีการกำหนดอายุขั้นต่ำ 13 ปีในการสมัครใช้งาน Facebook แล้ว ยังมีการกำหนด ‘มาตรฐานชุมชน’ ไว้อย่างชัดเจน เกี่ยวกับเยาวชนและความเป็นส่วนตัว Facebook ระบุมาตรฐานชุมชนว่า รูปภาพหรือวิดีโอที่ถูกรายงาน ซึ่งบุคคลในภาพหรือวิดีโอนั้นเป็น ‘ผู้เยาว์ที่มีอายุต่ำกว่า 13 ปี โดยตัวผู้เยาว์ ผู้ปกครอง หรือผู้ปกครองตามกฎหมายเป็นผู้รายงานเนื้อหาดังกล่าว’ หรือ ‘ผู้เยาว์ที่มีอายุระหว่าง 13-18 ปี โดยผู้เยาว์เป็นผู้รายงานเนื้อหาดังกล่าวเอง’ นั้นเป็นเนื้อหาที่ ‘อาจถูกลบออก’

 

  • ส่วนประเด็นทางเพศนั้น เนื้อหาอย่างภาพโป๊เปลือยของเด็ก การแสวงหาประโยชน์ทางเพศจากเด็ก เช่น เพศสัมพันธ์, เนื้อหาเกี่ยวกับเด็กที่มีองค์ประกอบทางเพศ, เนื้อหาที่สนับสนุน ส่งเสริม หรือกระตุ้นให้มีส่วนร่วมในการกระทำอนาจารต่อเด็ก (เว้นแต่จะเป็นการพูดคุยอย่างเป็นกลางในบริบทวิชาการหรือสุขภาพซึ่งได้รับการตรวจสอบยืนยันแล้ว) หรือแม้แต่เนื้อหาที่ระบุตัวตนหรือเยาะเย้ยผู้ที่มีการอ้างว่าเป็นเหยื่อของการแสวงหาประโยชน์ทางเพศจากเด็กด้วยชื่อเรียกหรือรูปภาพ การค้าบริการทางเพศ ฯลฯ เหล่านี้ล้วน ‘ห้ามโพสต์’ บน Facebook

  • นอกจากนี้เนื้อหาที่ก่อให้เกิดหรือเอื้อให้เกิดการมีปฏิสัมพันธ์ที่ไม่เหมาะสมกับเด็ก เนื้อหาที่พยายามแสวงหาประโยชน์จากผู้เยาว์ด้วยการบีบบังคับเรียกเอาเงิน ความช่วยเหลือ หรือภาพส่วนตัวโดยข่มขู่ว่าจะเปิดเผยภาพหรือข้อมูลลับส่วนตัว, การแชร์ การข่มขู่ หรือการระบุเจตนาที่จะแชร์ข้อความสนทนาส่วนตัวเกี่ยวกับเรื่องเพศหรือภาพส่วนตัว หรือแม้แต่การทารุณเด็กที่ไม่เกี่ยวข้องกับเรื่องเพศซึ่งไม่จำกัดเจตนาในการแชร์ เนื้อหาว่าด้วยการการขายเด็กเพื่อการอุปการะแบบผิดกฎหมาย การสรรหาเด็กเข้ามาในสถานเลี้ยงเด็กกำพร้าเพื่อแสวงหาประโยชน์ หรือการรับสมัครทหารเด็ก เหล่านี้ก็ ‘ห้ามโพสต์’ เช่นกัน

  • มาตรฐานชุมชนของ Facebook ยังระบุถึง ‘การกลั่นแกล้งและคุกคาม’ ซึ่งเมื่อกล่าวถึงผู้เยาว์ก็มีเกณฑ์หลายข้อ อาทิ ห้ามพุ่งเป้าไปที่ผู้เยาว์ใดๆ ด้วยคำกล่าวหาเกี่ยวกับพฤติกรรมที่เป็นอาชญากรรมหรือผิดกฎหมาย หรือด้วยวิดีโอบันทึกการกลั่นแกล้งทางกายซึ่งแชร์ในบริบทที่ไม่ใช่การประณามการกลั่นแกล้งนั้น หรือห้ามพุ่งเป้าไปที่ผู้เยาว์ทั่วไปใดๆ หรือบุคคลสาธารณะที่เป็นผู้เยาว์และไม่สมยอม ด้วยการสบถใส่บุคคลหนึ่งโดยเฉพาะ หรืออ้างอิงความสัมพันธ์เชิงชู้สาว รสนิยมทางเพศ หรืออัตลักษณ์ทางเพศ ฯลฯ (เกณฑ์ที่ว่ามาทั้งหมดนี้เป็นเพียงส่วนหนึ่งและยังมีอีกมาก อ่านเพิ่มเติมได้ที่: https://transparency.fb.com/policies/community-standards/)

 

  • Facebook ยังบอกว่าได้ปฏิบัติตามคำขอลบบัญชีผู้ใช้ของผู้ที่มีอายุต่ำกว่าเกณฑ์, คำขอจากรัฐบาลให้ลบภาพการล่วงละเมิดเด็ก และคำขอจากผู้ปกครองตามกฎหมายให้ลบเนื้อหาที่มีการโจมตีผู้เยาว์ที่กลายเป็นที่รู้จักโดยไม่ได้ตั้งใจ และยังอาจลบเนื้อหาที่สร้างขึ้นเพื่อวัตถุประสงค์ในการระบุตัวตนของบุคคลทั่วไปที่เป็นผู้เยาว์ออก ในกรณีที่มีความเสี่ยงต่อความปลอดภัยของผู้เยาว์ดังกล่าว หากได้รับคำขอจากผู้ใช้ รัฐบาล หน่วยงานบังคับใช้กฎหมาย หรือผู้เชี่ยวชาญด้านความปลอดภัยของเด็กจากภายนอก
  • และเมื่อเดือนกุมภาพันธ์ที่ผ่านมา Facebook ระบุว่าได้เริ่มทดสอบเครื่องมือใหม่จำนวน 2 ตัวด้วยกัน ตัวแรกคือข้อความที่แสดงขึ้นมาเตือนเมื่อผู้ใช้ค้นหาคำในแอปฯ Facebook ที่เกี่ยวข้องกับการแสวงหาประโยชน์จากเด็ก และจะมีปุ่มที่นำไปยังเว็บไซต์ขององค์กรที่จะช่วยแนะนำหรือให้ความช่วยเหลือในการหันเหผู้กระทำผิดได้ อีกตัวหนึ่งคือการแจ้งเตือนด้านความปลอดภัย ที่จะแจ้งแก่ผู้ที่แชร์เนื้อหาที่มีการแสวงประโยชน์จากเด็กแบบมีมและไวรัลเกี่ยวกับอันตรายที่อาจเกิดขึ้น และเตือนว่าเนื้อหาดังกล่าวขัดต่อนโยบายของ Facebook ตลอดจนการมีผลทางกฎหมายจากการแชร์เนื้อหาดังกล่าว ซึ่งเป็นการดำเนินการที่เพิ่มเติมขึ้นมาจากการลบเนื้อหาเหล่านั้น หรือรายงานไปยังศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติของสหรัฐอเมริกา (NCMEC) ซึ่ง NCMEC ก็ทำงานร่วมกับหน่วยงานบังคับใช้กฎหมายทั่วโลกเพื่อช่วยเหลือเหยื่อด้วย

  • หรืออย่างกรณีของ Instagram ซึ่งก็เป็นอีกหนึ่งแพลตฟอร์มภายใต้ Facebook ก็มีการจัดทำคำแนะนำสำหรับผู้ปกครองเป็นการเฉพาะ ซึ่งสามารถเข้าไปดูได้ที่ https://help.instagram.com/154475974694511/ แต่สำหรับแง่ของการที่เด็กเป็นผู้ใช้งานแพลตฟอร์มเองนั้น เมื่อปลายเดือนกรกฎาคมก็เริ่มมีการกำหนดให้ผู้ที่มีอายุต่ำกว่า 16 ปี (หรือ 18 ปีในบางประเทศ) เมื่อสมัครใช้ Instagram จะได้บัญชีที่มีสถานะเป็นบัญชีส่วนตัว (Private Account) เป็นค่าเริ่มต้น แต่ก็สามารถปรับเป็นบัญชีสาธารณะ (Public Account) ได้หากต้องการ รวมถึงมีการพัฒนาเทคโนโลยีที่ค้นหาบัญชีผู้ใช้ของผู้ที่แสดงพฤติกรรมอันน่าสงสัย และป้องกันไม่ให้บัญชีเหล่านี้สามารถมีปฏิสัมพันธ์กับผู้เยาว์ได้ เช่น ไม่แสดงบัญชีผู้ใช้ของผู้เยาว์ในฟังก์ชัน Explore, Reels หรือ ‘Accounts Suggested For You’ รวมถึงหากบัญชีของผู้ที่แสดงพฤติกรรมอันน่าสงสัยไปค้นหาบัญชีของผู้เยาว์ก็จะไม่สามารถกด Follow บัญชีของผู้เยาว์ได้ เป็นต้น

  • แต่อีกด้านหนึ่งก็ปรากฏรายงานข่าวในซีรีส์ The Facebook Files ของเว็บไซต์ The Wall Street Journal (WSJ) ซึ่งเป็นซีรีส์ข่าวที่รายงานจากเอกสารภายในของ Facebook ก็ระบุว่า Facebook นั้นทราบดีจากการวิจัยว่า Instagram นั้นมีความ ‘เป็นพิษ’ ต่อวัยรุ่น ทั้งการที่มีวัยรุ่นหญิงเกือบ 1 ใน 3 บอกว่าเมื่อพวกเธอรู้สึกแย่เกี่ยวกับร่างกายของพวกเธอเอง Instagram จะทำให้พวกเธอรู้สึกแย่ลงไปอีก หรือการที่วัยรุ่นกล่าวโทษ Instagram ในเรื่องการเพิ่มขึ้นของอัตราความวิตกกังวลและภาวะซึมเศร้า หรือปัญหาการ ‘เปรียบเทียบทางสังคม’ ที่ผู้คนมักประเมินคุณค่าของตนเองโดยสัมพันธ์กับความน่าดึงดูดใจ, ความมั่งคั่ง หรือความสำเร็จของผู้อื่น เป็นต้น โดยเฉพาะปัญหาการเปรียบเทียบทางสังคมในแง่ของรูปลักษณ์ภายนอกของวัยรุ่น

  • ปรากฏว่ารองประธานและหัวหน้าฝ่ายวิจัยของ Facebook ออกมาตอบโต้การนำเสนอเรื่องนี้ของ WSJ เช่น บอกว่าการบรรยายว่างานวิจัยดังกล่าวแสดงให้เห็นว่า Instragram มีความ ‘เป็นพิษ’ สำหรับวัยรุ่นหญิงนั้น ‘ไม่แม่นยำ’ หรือบอกว่าภาพลักษณ์ในเรื่องร่างกายเป็นเพียงประเด็นเดียวจาก 12 ประเด็นที่วัยรุ่นหญิงที่ต่อสู้กับปัญหานี้บอกว่า Instagram ทำให้ปัญหาแย่ลง แต่มีอีก 11 ประเด็นปัญหาอื่น เช่น ความเหงา เศร้า วิตกกังวล ที่วัยรุ่นหญิงซึ่งระบุว่าพวกเขาต่อสู้กับปัญหายากๆ เหล่านั้นระบุว่า Instagram ทำให้พวกเขาดีขึ้นมากกว่าแย่ลง และการวิจัยนี้ก็รายงานประสบการณ์ทั้งด้านบวกและด้านลบกับสื่อสังคมออนไลน์ เป็นต้น และต่อมาก็มีการเผยแพร่สไลด์นำเสนองานวิจัยจำนวน 2 ชิ้นออกมาจาก Facebook โดยตรงพร้อมคำอธิบายประกอบสไลด์ ซึ่งเป็นสิ่งที่เว็บไซต์ The New York Times พาดหัวข่าวว่าเป็นการ ‘Downplay’ หรือทำให้ผลการวิจัยนี้ดูสำคัญหรือแย่น้อยลง

  • ส่วนเมื่อปลายเดือนกันยายนที่ผ่านมา Instagram ก็เพิ่งประกาศหยุดการพัฒนา Instagram สำหรับผู้ที่มีอายุต่ำกว่า 13 ปีในชื่อ ‘Instagram Kids’ ไว้ชั่วคราว หลังจากถูกวิจารณ์ในวงกว้าง ด้วยความกังวลถึงการเป็นอันตรายต่อสุขภาพและความเป็นส่วนตัวของเด็ก หรือการมีแรงกดดันเชิงพาณิชย์ที่ไม่จำเป็นต่อเด็กบนแพลตฟอร์ม เป็นต้น แม้จะมีความพยายามชี้แจงจาก Facebook อาทิ Instagram Kids มีไว้สำหรับเด็กอายุ 10-12 ปี หรือคำชี้แจงที่ว่าเด็กๆ นั้นอยู่บนออนไลน์อยู่แล้วและควรจะช่วยให้เด็กๆ ใช้งานได้อย่างเหมาะสมและปลอดภัย รวมถึงการบอกว่าต้องการหาวิธีแก้ปัญหาที่ใช้ได้จริงสำหรับปัญหาเด็กโกหกเรื่องอายุเพื่อเข้าถึงแอปพลิเคชันต่างๆ และจะไม่มีการแสดงโฆษณาสำหรับผู้มีอายุต่ำกว่า 13 ปี

  • อีกบริษัทเทคโนโลยีที่เราขอยกตัวอย่างคือ Apple เพราะเมื่อเดือนก่อนเพิ่งจะประกาศ ‘เลื่อน’ การปล่อยฟีเจอร์ที่ช่วยป้องกันเด็กจากการแสวงหาผลประโยชน์และจำกัดการแพร่กระจายของสื่อที่แสดงการล่วงละเมิดทางเพศต่อเด็ก (Child Sexual Abuse Material: CSAM) ออกไป โดยฟีเจอร์เหล่านี้ ได้แก่ การตรวจสอบรูปภาพที่รับหรือส่งผ่านแอป Messages โดยใช้ Machine Learning ว่าเป็นรูปภาพที่มีความโจ่งแจ้งทางเพศหรือไม่ และแจ้งเตือนกับเด็ก รวมถึงแจ้งไปยังผู้ปกครองหากเด็กยังยืนยันที่จะรับหรือส่งภาพเหล่านั้น หรือฟีเจอร์สแกนภาพถ่ายเพื่อหาภาพที่อยู่ในประเภท CSAM ก่อนจะมีการอัปโหลดขึ้นไปยัง iCloud และหากตรวจพบภาพที่ตรงกับฐานข้อมูลภาพที่เป็น CSAM ในจำนวนมากพอ Apple จึงจะเข้ามาตรวจภาพเหล่านั้นด้วยมือเพื่อยืนยันความตรงกัน ก่อนปิดการใช้งานบัญชีผู้ใช้และส่งรายงานไปยัง NCMEC นอกจากนี้ยังมีการอัปเดตให้ Siri และ Search แทรกแซงเมื่อผู้ใช้ทำการค้นหาคำค้นหาที่เกี่ยวข้องกับ CSAM ด้วย

  • แต่ก็ชัดเจนว่ามีหลายแรงกดดันที่ทำให้การปล่อยฟีเจอร์เหล่านี้ต้องเลื่อนออกไป สำนักข่าว Reuters รายงานโดยอ้างแหล่งข่าวว่าพนักงานของ Apple มีการพูดคุยกันภายในผ่านแอป Slack โดยหลายคนแสดงความกังวลว่าฟีเจอร์นี้อาจถูกใช้ประโยชน์โดยรัฐบาลที่มีลักษณะยับยั้งหรือจำกัดเสรีภาพ ซึ่งกำลังมองหาเนื้อหาอื่นๆ สำหรับการเซ็นเซอร์หรือการจับกุม ในขณะที่บางคนก็กังวลว่า Apple กำลังทำลายชื่อเสียงระดับแนวหน้าในการปกป้องความเป็นส่วนตัว แต่ก็มีพนักงานบางส่วนที่ไม่เห็นด้วยกับคำวิจารณ์ หรือบอกว่า Slack ไม่ใช่พื้นที่ที่เหมาะสมในการอภิปรายประเด็นดังกล่าว

  • นอกจากนี้ยังมีเสียงจากองค์กรภายนอกที่แสดงความไม่เห็นด้วยต่อการดำเนินการดังกล่าวของ Apple ด้วย ซึ่ง Apple ก็บอกว่าจะปฏิเสธคำขอจากรัฐบาลที่จะใช้ระบบเพื่อตรวจสอบโทรศัพท์สำหรับสิ่งอื่นนอกเหนือไปจากเนื้อหาประเภท CSAM และบอกว่าการตรวจสอบภาพดังกล่าวจะใช้ฐานข้อมูลที่มีเฉพาะภาพที่ตรงกันจากองค์กรคุ้มครองเด็กสององค์กรที่อยู่ภายใต้คนละรัฐบาลกัน อย่างไรก็ตาม ในที่สุดเมื่อ 3 กันยายน Apple ก็ประกาศว่าจากเสียงของลูกค้า กลุ่มผู้สนับสนุน นักวิจัย และอื่นๆ ทำให้ Apple ตัดสินใจที่จะใช้เวลาเพิ่มเติมในช่วงหลายเดือนข้างหน้าเพื่อ ‘รวบรวมข้อมูลและปรับปรุง’ ก่อนที่จะเปิดตัวฟีเจอร์เหล่านี้ออกมา

  • แต่ในมุมมองของเด็กกับการใช้งานอุปกรณ์เคลื่อนที่ Apple เองก็ระบุว่ามีฟีเจอร์เพื่อให้ผู้ปกครองควบคุมการใช้งานอุปกรณ์เคลื่อนที่ของเด็กๆ ไม่ว่าจะเป็นการจำกัดเวลาหรือแอปพลิเคชันที่ใช้งานได้ การจำกัดการดูคอนเทนต์ เช่น เพลง ภาพยนตร์ รายการโทรทัศน์ ที่อาจจะมีเนื้อหาไม่เหมาะสม หรือการจำกัดการเข้าถึงเนื้อหาสำหรับผู้ใหญ่บนเว็บเบราว์เซอร์ เป็นต้น

 

ภาพ: Tinnakorn jorruang via ShutterStock 

อ้างอิง:

  • LOADING...

READ MORE






Latest Stories

Close Advertising