จีนวางแผนที่จะจำกัด AI Chatbot ไม่ให้ส่งอิทธิพลต่ออารมณ์ของมนุษย์ในลักษณะที่อาจนำไปสู่การฆ่าตัวตายหรือการทำร้ายตนเอง ตามร่างกฎระเบียบที่เผยแพร่เมื่อ 27 ธันวาคมที่ผ่านมา
CNBC แปลเอกสารภาษาจีนฉบับดังกล่าวระบุว่า กฎระเบียบที่เสนอนี้มาจากสำนักงานบริหารไซเบอร์สเปซแห่งประเทศจีน (CAC) โดยมุ่งเป้าไปที่สิ่งที่เรียกว่า “บริการ AI เชิงโต้ตอบเสมือนมนุษย์” (Human-like interactive AI services)
เมื่อมาตรการเหล่านี้มีผลบังคับใช้ จะครอบคลุมถึงผลิตภัณฑ์หรือบริการ AI ที่เปิดให้บริการแก่สาธารณะในจีน ซึ่งมีการจำลองบุคลิกภาพของมนุษย์และสร้างปฏิสัมพันธ์ทางอารมณ์กับผู้ใช้ผ่านข้อความ รูปภาพ เสียง หรือวิดีโอ โดยจะเปิดรับฟังความคิดเห็นจากสาธารณชนจนถึงวันที่ 25 มกราคมนี้
Winston Ma อาจารย์พิเศษจากคณะนิติศาสตร์ มหาวิทยาลัยนิวยอร์ก (NYU) กล่าวว่า กฎระเบียบที่ทางการจีนวางแผนไว้นี้ถือเป็นความพยายามครั้งแรกของโลกในการกำกับดูแล AI ที่มีลักษณะเหมือนมนุษย์หรือมีการเลียนแบบมนุษย์ ข้อเสนอล่าสุดนี้มีขึ้นในขณะที่บริษัทจีนต่างเร่งพัฒนา “เพื่อนคู่คิด AI” และคนดังในโลกดิจิทัลอย่างรวดเร็ว
เมื่อเทียบกับกฎระเบียบเกี่ยวกับ Generative AI ของจีนในปี 2023 หม่ากล่าวว่ากฎระเบียบเวอร์ชันนี้ “เน้นให้เห็นถึงการก้าวกระโดดจากความปลอดภัยด้านเนื้อหาไปสู่ความปลอดภัยทางอารมณ์”
สาระสำคัญของร่างกฎระเบียบเสนอว่า
- แชตบอต AI ห้ามสร้างเนื้อหาที่ยุยงให้เกิดการฆ่าตัวตายหรือทำร้ายตนเอง หรือใช้วาจารุนแรงและการชักจูงทางอารมณ์ที่สร้างความเสียหายต่อสุขภาพจิตของผู้ใช้
- หากผู้ใช้ระบุถึงการฆ่าตัวตายอย่างชัดเจน ผู้ให้บริการเทคโนโลยีจะต้องให้มนุษย์เข้ามาดูแลบทสนทนาแทน และติดต่อผู้ปกครองหรือบุคคลที่กำหนดไว้ของผู้ใช้ทันที
- แชตบอต AI ห้ามสร้างเนื้อหาที่เกี่ยวข้องกับการพนัน ลามกอนาจาร หรือความรุนแรง
- ผู้เยาว์ต้องได้รับความยินยอมจากผู้ปกครองในการใช้ AI เพื่อเป็นเพื่อนคู่คิดทางอารมณ์ โดยมีการจำกัดเวลาในการใช้งาน
- แพลตฟอร์มควรมีความสามารถในการระบุได้ว่าผู้ใช้เป็นผู้เยาว์หรือไม่ แม้ว่าผู้ใช้จะไม่ได้เปิดเผยอายุ และในกรณีที่มีข้อสงสัย ให้ใช้การตั้งค่าสำหรับผู้เยาว์ไว้ก่อน โดยเปิดโอกาสให้ยื่นอุทธรณ์ได้
นอกจากนี้ ข้อกำหนดเพิ่มเติมจะบังคับให้ผู้ให้บริการต้องแจ้งเตือนผู้ใช้หลังจากมีการโต้ตอบกับ AI ต่อเนื่องเป็นเวลา 2 ชั่วโมง และกำหนดให้มีการประเมินความปลอดภัยสำหรับแชตบอต AI ที่มีผู้ลงทะเบียนมากกว่า 1 ล้านคน หรือมีผู้ใช้งานรายเดือน (MAU) มากกว่า 100,000 คน
เอกสารดังกล่าวยังสนับสนุนการใช้ AI เสมือนมนุษย์ในด้าน “การเผยแพร่วัฒนธรรมและการเป็นเพื่อนคู่คิดสำหรับผู้สูงอายุ” อีกด้วย
การเสนอขายหุ้น IPO ของแชตบอต AI จีน
ข้อเสนอนี้มีขึ้นไม่นานหลังจากที่สตาร์ทอัพแชตบอต AI ชั้นนำของจีนสองราย คือ Z.ai และ Minimax ได้ยื่นขอเสนอขายหุ้นต่อประชาชนทั่วไปเป็นครั้งแรก (IPO) ในฮ่องกงเมื่อเดือนนี้
Minimax เป็นที่รู้จักในระดับสากลจากแอป Talkie AI ซึ่งให้ผู้ใช้พูดคุยกับตัวละครเสมือน แอปนี้และเวอร์ชันในจีนชื่อ Xingye ทำรายได้กว่า 1 ใน 3 ของบริษัทในช่วง 3 ไตรมาสแรกของปี โดยมีผู้ใช้งานรายเดือนเฉลี่ยกว่า 20 ล้านคนในช่วงเวลาดังกล่าว
Z.ai หรือที่รู้จักในชื่อ Zhipu ยื่นไฟลิ่งในชื่อ “Knowledge Atlas Technology” แม้บริษัทไม่ได้เปิดเผยยอดผู้ใช้งานรายเดือน แต่ระบุว่าเทคโนโลยีของตน “ขับเคลื่อน” อุปกรณ์ราว 80 ล้านเครื่อง รวมถึงสมาร์ทโฟน คอมพิวเตอร์ส่วนบุคคล และยานยนต์อัจฉริยะ
ความกังวลระดับโลก
อิทธิพลที่ชัดเจนของ AI ต่อพฤติกรรมมนุษย์ถูกจับตามองมากขึ้นในปีนี้
แซม อัลต์แมน ซีอีโอของ OpenAI ผู้ให้บริการ ChatGPT ในสหรัฐฯ กล่าวเมื่อเดือนกันยายนว่า หนึ่งในปัญหาที่ยากที่สุดสำหรับบริษัทคือวิธีที่แชตบอตตอบสนองต่อบทสนทนาเกี่ยวกับการฆ่าตัวตาย โดยเมื่อเดือนก่อนหน้านั้น ครอบครัวหนึ่งในสหรัฐฯ ได้ยื่นฟ้อง OpenAI หลังจากบุตรชายวัยรุ่นเสียชีวิตจากการฆ่าตัวตาย
เพื่อสะท้อนถึงความเร่งด่วนที่เพิ่มขึ้น OpenAI ประกาศเมื่อสุดสัปดาห์ที่ผ่านมาว่ากำลังจ้างหัวหน้าฝ่ายเตรียมความพร้อม เพื่อประเมินความเสี่ยงของ AI ตั้งแต่ผลกระทบต่อสุขภาพจิตไปจนถึงความมั่นคงปลอดภัยทางไซเบอร์
นอกจากนี้ ผู้คนจำนวนมากยังหันมาพึ่งพา AI ในด้านความสัมพันธ์ โดยในเดือนนี้มีรายงานหญิงชาวญี่ปุ่นแต่งงานกับแฟนหนุ่ม AI ของเธอ
แพลตฟอร์มที่เน้นการโต้ตอบกับตัวละครเสมือนสองแห่ง คือ Character.ai และ Polybuzz.ai ติดอันดับ 1 ใน 15 แชตบอตและเครื่องมือ AI ยอดนิยม ตามการจัดอันดับของ SimilarWeb ในเดือนพฤศจิกายน
มาตรการภายในประเทศที่เสนอขึ้นนี้ เป็นส่วนหนึ่งของความพยายามในวงกว้างของจีนตลอดปีที่ผ่านมาในการกำหนดกฎระเบียบระดับโลกเกี่ยวกับการกำกับดูแล AI
อ้างอิง:


