×

Facebook เผย ใช้ AI ทำงานแทนคนเพื่อตรวจจับคอนเทนต์ไม่เหมาะสมได้เกือบ 100% แล้ว

02.11.2018
  • LOADING...

ปัญหาคอนเทนต์ที่มีเนื้อหาไม่เหมาะสมแพร่ระบาดบนช่องทางโซเชียลมีเดียยังคงมีให้เห็นอยู่ทุกวัน โดยเฉพาะบนเฟซบุ๊ก แพลตฟอร์มสื่อสังคมออนไลน์ที่ขึ้นชื่อว่าเป็นอันดับหนึ่งในวันนี้ด้วยยอดผู้ใช้ประมาณ 2 พันล้านคนทั่วโลก

 

วันนี้ (2 พ.ย.) เฟซบุ๊ก ประเทศไทย ได้แถลงความคืบหน้าของนโยบายในการควบคุมเนื้อหาบนเฟซบุ๊กต่อสื่อมวลชน เพื่อบอกเล่ากลยุทธ์การป้องกันไม่ให้เนื้อหาที่ไม่เหมาะสม มีความรุนแรง หรือส่อไปทางลามกอนาจารแพร่ระบาดและถูกแชร์บนแพลตฟอร์ม โดยมีพันธกิจหลักคือช่วยเหลือผู้คนในการสร้างชุมชน และเชื่อมต่อผู้ใช้งานทั่วโลกเข้าถึงกัน

 

จากความตั้งใจข้างต้นจึงผุดเป็นนโยบายมาตรฐานชุมชน (Community Standards) ซึ่งเป็นกฎเกณฑ์ที่มีไว้เพื่อช่วยควบคุมว่าเนื้อหาประเภทใดเหมาะสมหรือไม่อย่างไรที่จะถูกแชร์บนแพลตฟอร์ม โดยคำนึงถึงหลักการ 3 ข้อ ได้แก่ ปลอดภัย (ช่วยให้ผู้ใช้รู้สึกปลอดภัย), แสดงความคิดเห็น (เปิดโอกาสให้ผู้ใช้ทุกรายมีอิสระในการแสดงความคิดเห็น) และความเท่าเทียม (ไม่นำความต่างด้านวัฒนธรรมและชาติพันธุ์มาเป็นข้อจำกัดในการเข้าถึงแพลตฟอร์ม)

 

ไซมอน ฮารารี ผู้จัดการฝ่ายนโยบายด้านเนื้อหาประจำภูมิภาคเอเชียแปซิฟิกของเฟซบุ๊ก เปิดเผยว่าเฟซบุ๊กจะให้ความสำคัญกับการควบคุมดูแลเนื้อหาเป็นอย่างมาก โดยเฉพาะคอนเทนต์หรือการแชร์โพสต์ต่างๆ ที่มีเนื้อหาส่อไปในทางรุนแรง การใช้ถ้อยความแสดงความเกลียดชัง การบูลลี่ผู้อื่น ตลอดจนคอนเทนต์ที่มีเนื้อหาส่อไปในทางลามกอนาจารหรือปลุกปั่นให้เกิดความแตกแยก

 

“โดยปกติแล้วทีมงานของเราจะดำเนินการเปลี่ยนแปลงและพัฒนานโยบายควบคุมเนื้อหาบนแพลตฟอร์มในทุกๆ 2 เดือน และทุกครั้งที่มีการเปลี่ยนแปลง เราก็จะทำงานร่วมกับผู้เชี่ยวชาญ รวมถึงภาคประชาสังคมในการตรวจสอบ”

 

ข้อมูลที่น่าสนใจคือในช่วงเดือนมกราคมถึงมีนาคมที่ผ่านมา นโยบายควบคุมเนื้อหาของเฟซบุ๊กได้ดำเนินการกำจัดคอนเทนต์ที่ไม่เหมาะสม โดยแจกแจงเป็นรายละเอียดตัวเลขที่น่าสนใจได้ดังนี้

  • ลบแอ็กเคานต์บัญชีผู้ใช้ปลอมไปมากถึง 583 ล้านราย ในจำนวนนี้กว่า 99% สามารถตรวจสอบเจอภายใน 1 นาทีที่เริ่มลงทะเบียน
  • นำคอนเทนต์สแปมออกจากแพลตฟอร์มไปมากกว่า 837 ล้านชิ้น และคอนเทนต์ลามกออกไปกว่า 21 ล้านชิ้น ในจำนวนนี้เกือบจะ 100% และ 96% ตามลำดับเป็นการตรวจพบโดยปัญญาประดิษฐ์ ก่อนจะมีการแจ้งรายงานเข้ามา
  • นำคอนเทนต์ที่มีเนื้อหาส่อไปในเชิงปลุกปั่นให้เกิดความรุนแรงและการก่อการร้ายมากกว่า 1.9 ล้านชิ้นออกจากระบบ ในจำนวนนี้กว่า 99.5% คือการตรวจพบโดยปัญญาประดิษฐ์ ก่อนจะมีการแจ้งรายงาน
  • นำคอนเทนต์เฮตสปีชออกไปมากกว่า 2.5 ล้านชิ้น ในจำนวนนี้กว่า 38% เป็นการแจ้งเตือนโดยปัญญาประดิษฐ์

 

หากยึดจากสถิติดังกล่าวก็จะเห็นว่า ณ วันนี้เฟซบุ๊กนำเทคโนโลยีปัญญาประดิษฐ์เข้ามาทำงานร่วมกับมนุษย์ในการตรวจสอบคอนเทนต์ที่ไม่เหมาะสมอยู่พอสมควรในตลอด 24 ชั่วโมง 7 วันต่อสัปดาห์ โดยปัจจุบันเฟซบุ๊กมีทีมงานทำหน้าที่ตรวจสอบเนื้อหาเหล่านี้กว่า 2 หมื่นคนทั่วโลก เพิ่มขึ้น 100% เมื่อเทียบกับช่วงต้นปีที่ผ่านมา

 

ขณะที่แนวทางต่อจากนี้จะให้ความสำคัญกับระบบอัตโนมัติมากขึ้นเพื่อพัฒนาให้สามารถตรวจสอบเนื้อหาได้ครอบคลุม เพราะปัจจุบันปัญญาประดิษฐ์ของเฟซบุ๊กยังมีช่องโหว่ในการคัดกรองเนื้อหาประเภทถ้อยคำแสดงความเกลียดชังอยู่ เพราะยังไม่สามารถเรียนรู้ความแตกต่างของภาษาท้องถิ่นในแต่ละประเทศและแยกแยะว่าข้อความแบบไหนเข้าข่ายมีเนื้อหาไม่เหมาะสมได้แบบ 100%

 

ยังมีการเปิดเผยอีกด้วยว่าปัจจุบันเฟซบุ๊ก ประเทศไทย ได้ทำงานร่วมกับหน่วยงานและองค์กรภาคประชาสังคมหลายๆ แห่ง รวมถึงสะมาริตันส์ ประเทศไทย (Samaritans Thailand) เพื่อช่วยเหลือผู้ใช้ในไทยที่มีแนวโน้มจะฆ่าตัวตาย เพิ่มโอกาส-ทางเลือกให้กับพวกเขา และเข้าให้ความช่วยเหลือได้อย่างทันท่วงที

 

พิสูจน์อักษร: ภาสิณี เพิ่มพันธุ์พงศ์

  • LOADING...

READ MORE






Latest Stories

Close Advertising