×

เทคโนโลยีโคลนเสียง: เราเป็นเจ้าของเสียงตัวเองจริงหรือ?

09.05.2024
  • LOADING...
เทคโนโลยีโคลนเสียง

ไม่นานมานี้ เทคโนโลยีโคลนเสียงตัวใหม่ของ OpenAI บริษัทเจ้าของ ChatGPT ได้สร้างความตื่นตาตื่นใจให้กับคนจำนวนมากถึงความสามารถที่ใช้คลิปเสียงเพียง 15 วินาที ในการสังเคราะห์เสียงชุดใหม่ออกมา ซึ่งเหมือนกับเสียงต้นฉบับแบบแยกกันไม่ออก หลายคนอาจตกใจกับความสามารถในการสังเคราห์เสียงด้วยเทคโนโลยี AI ตัวใหม่นี้ แต่รู้หรือไม่ว่าจริงๆ แล้วเราทุกคนก็ใช้เสียงสังเคราะห์กันมาหลายสิบปีแล้ว โดยคนที่สังเคราะห์เสียงตัวเองแล้วส่งไปให้คนอื่นฟังก็คือตัวเราเอง!

 

ขออนุญาตปูพื้นก่อนว่า เสียงของเราทุกคนนั้นประกอบไปด้วยโทนเสียงหรือความถี่ที่หลากหลายปนอยู่ด้วยกัน เช่น เสียงของนาย A อาจประกอบไปด้วยความถี่ที่ 1, 2, 3, 4 ซึ่งส่วนใหญ่เป็นโทนเสียงความถี่ต่ำ (เสียงทุ้ม) ส่วนเสียงของนาง B อาจประกอบไปด้วยความถี่ที่ 7, 8, 9, 10 โดยส่วนใหญ่เป็นโทนเสียงความถี่สูง (เสียงแหลม) 

 

คราวนี้เสียงสังเคราะห์ที่ใช้มาเป็นเวลานานก็คือเสียงของเรานี่แหละ ที่สื่อสารกันผ่านระบบสื่อสารอย่างโทรศัพท์ โดยเวลาที่เราโทรหาคนอื่นหรือส่งเสียงหากันผ่านระบบอินเทอร์เน็ต เสียงต้นฉบับของเราจะถูกแยกออกเป็นองค์ประกอบย่อย (Decompose) ซึ่งก็คือโทนหรือความถี่ต่างๆ นั่นเอง โดยที่ข้อมูลเหล่านี้ ท้ายที่สุดจะถูกส่งไปประมวลผลก่อนเข้ารหัสให้อยู่ในรูปที่สามารถส่งผ่านเครือข่ายสื่อสารได้ เช่น เลขฐานสอง หรือ 0100010101010101 เพื่อส่งต่อไปยังปลายทาง หลังจากที่ข้อมูลเหล่านี้ถูกส่งไปถึงปลายทางแล้วก็จะถูกถอดรหัสเพื่อแปลงจากเลขฐานสองกลับมาเป็นข้อมูลที่เข้าใจได้ จากนั้นจึงประมวลผลแล้วประกอบกลับมาเป็นเสียงใหม่ (Reconstruct) เพื่อให้คนปลายสายได้ฟัง ซึ่งการ ‘ประกอบเสียงใหม่’ ที่ปลายสายนี่แหละที่เราอาจมองว่าเป็นการ ‘สังเคราะห์’ เสียงใหม่เลยก็ได้

 

แปลว่าเสียงที่เราได้ยินในปลายสายนั้น จริงๆ แล้วไม่ใช่เสียงต้นฉบับของจริงของคนพูด หากแต่เป็นเสียงสังเคราะห์ที่เหมือนกับเสียงต้นฉบับแบบแยกกันไม่ออกต่างหาก พูดง่ายๆ คือเราส่งเสียงสังเคราะห์ของเราให้กับคนอื่นมานานแล้ว

 

หากเราจะอธิบายการทำงานของ AI ที่โคลนเสียงแบบให้เข้าใจง่าย ก็มีความคล้ายกับกระบวนการเบื้องต้นที่มีการแตกองค์ประกอบของเสียงต้นฉบับ เพื่อให้ AI ได้เรียนรู้ว่าเป็นโทนเสียงแบบไหน มีจังหวะการพูดเป็นอย่างไร จากนั้นก็สร้างแบบแปลนหรือ Blueprint ของเสียงนั้นด้วยโมเดล AI เพื่อสังเคราะห์ใหม่ด้วยคำพูดอื่นๆ ที่เจ้าตัวไม่เคยพูดมาก่อน 

 

การใช้ AI เพื่อสังเคราะห์เสียงนั้นเป็นที่ถกเถียงกันมานาน โดยเฉพาะในวงการเพลง ว่าเป็นการละเมิดลิขสิทธิ์ของศิลปินเจ้าของเสียงหรือไม่ ล่าสุดมีศิลปินที่ใช้ชื่อว่า SIXFOOT 5 แต่งเพลงเอง รวมถึงยังร้องเพลงด้วยเสียงของตัวเองก่อน จากนั้นจึงค่อยแปลงเพลงที่ตัวเองร้องไปเป็นเสียงของนักร้องสาวชื่อดังอย่าง Adele แทน โดย SIXFOOT 5 ใช้เทคโนโลยีโคลนเสียงด้วย AI จากคลิปของ Adele ที่มีอยู่มากมายในโลกออนไลน์สำหรับการเรียนรู้องค์ประกอบของเสียงก่อนที่จะโคลนเสียง

 

หรือก่อนหน้านี้ก็มีข่าวคนที่ใช้ชื่อว่า Ghostwriter สังเคราะห์เสียงศิลปินชื่อดังอย่าง Drake และ The Weeknd มาใช้ในเพลง Heart on My Sleeve ก่อนถูกเจ้าของค่ายเพลงยักษ์ใหญ่อย่าง Universal Music ยื่นคำขาดให้แพลตฟอร์มสตรีมมิงต่างๆ ถอดเพลงนี้ออก เนื่องจากเป็นการละเมิดสิ่งที่เรียกว่า Right of Publicity ซึ่งก็คือสิทธิในการใช้อัตลักษณ์ของบุคคลในเชิงพาณิชย์ เช่น นามปากกา นามแฝง เสียง หน้าตา พูดง่ายๆ คือ ศิลปินชื่อดังเหล่านี้มีสิทธิในอัตลักษณ์ของเขาเอง โดยคนอื่นไม่สามารถนำไปใช้เพื่อผลประโยชน์ส่วนตนได้

 

ปัญหาของเรื่องนี้ไม่ได้จบอยู่ที่การลอกเลียนเสียงของคนดังเพื่อผลประโยชน์เชิงพาณิชย์เพียงอย่างเดียว อีกปัญหาที่ซับซ้อนกว่าคือการยืนยันว่าเสียงชุดนี้เป็นเสียงของเราจริงๆ เนื่องจากเสียงของเราทุกคน นอกจากสามารถแตกองค์ประกอบย่อยเป็นโทนความถี่ต่างๆ ได้แล้ว จริงๆ มีตัวเลขอีกชุดที่สำคัญ ซึ่งคืออัตราส่วนของโทน

 

สมมตินาย A เป็นศิลปินชื่อดังและมีโทนเสียง 1, 2, 3, 4 โดยที่มีอัตราส่วนของแต่ละความถี่ดังนี้

 

ความถี่ที่ 1 มีอยู่ 20% 

ความถี่ที่ 2 มีอยู่ 10% 

ความถี่ที่ 3 มีอยู่ 50% 

ความถี่ที่ 4 มีอยู่ 20% 

 

หากเราเอาเสียงของนาย A มาเปลี่ยนอัตราส่วนใหม่เป็น 

 

ความถี่ที่ 1 มีอยู่ 19% 

ความถี่ที่ 2 มีอยู่ 11% 

ความถี่ที่ 3 มีอยู่ 49% 

ความถี่ที่ 4 มีอยู่ 21% 

 

อัตราส่วนใหม่นี้มีความใกล้เคียงกับต้นฉบับก็จริง แต่ก็ไม่เหมือนเสียทีเดียว ถ้าเสียงที่สร้างจากแปลนใหม่นี้มีความคล้ายกับต้นฉบับ เจ้าของเสียงต้นฉบับจะยังสามารถเคลมได้ไหมว่าเสียงชุดที่สองนี้ก็นับว่าเป็นเสียงของเขาด้วย

 

การที่นาย A สามารถเคลมได้หรือไม่ก็ตาม จะส่งผลให้เกิดคำถามตามมาว่า คล้ายแค่ไหนคือการลอกเลียนแบบเสียงต้นฉบับ ความคล้ายที่ว่านี้วัดได้ด้วยตัวเลขหรือไม่ (ความถี่และอัตราส่วน) ถ้าได้ เราต้องใช้ตัวเลขชุดไหนในการตัดสิน หากเราใช้วิจารณญาณของผู้ฟังเป็นเกณฑ์ (Human Judgement) ก็จะก่อให้เกิดความเอนเอียงหรือ Bias อยู่ดี เนื่องจากความเซนสิทีฟของกระดูกภายในหูของแต่ละคนมีความไวที่แตกต่างกัน ทำให้ต่างคนต่างฟังแล้วอาจได้คำตอบที่ไม่เหมือนกัน บางคนฟังแล้วบอกว่าเหมือน บางคนบอกว่าแค่คล้าย แต่ไม่เหมือน

 

นอกเหนือจากการโคลนเสียงให้คล้ายกับเจ้าของแล้ว ยังมีเรื่องของคนที่เสียงคล้ายกันอีก สมมติว่านาย A คนเดิมเป็นศิลปินที่โด่งดัง แต่ว่าโทนเสียงดันไปคล้ายกับนาย C ซึ่งเป็นคนธรรมดา ไม่ได้เป็นศิลปินที่มีชื่อเสียง การที่เราโคลนเสียงของนาย C โดยที่ได้รับอนุญาต จะถือว่าเป็นการละเมิดสิทธิของนาย A ด้วยหรือไม่

 

ในปัจจุบันคำถามเหล่านี้ยังไม่มีคำตอบที่ชัดเจน แต่สิ่งหนึ่งที่ตัดสินได้คือเจตนาของผู้กระทำ ซึ่งต่อให้ทางเทคนิคแล้ว เสียงที่โคลนมีแบบแปลนที่ไม่เหมือนกับศิลปินเจ้าของเสียง 100% หรือการที่เราโคลนเสียงของคนที่คล้ายศิลปิน เราสามารถดูเจตนาของผู้กระทำได้ว่า ต้องการเลียนแบบเสียงของศิลปินเพื่อผลประโยชน์ส่วนตนทั้งสองกรณี ส่วนจะมีผลทางกฎหมายหรือมีการกำกับดูแลสิ่งนี้หรือไม่ อาจต้องรอให้มีการถกเถียงกันมากขึ้น เพื่อหาบทสรุปว่าควรจะจัดการเรื่องนี้อย่างไร

 

ทางออกหนึ่งที่ศิลปินสาว Grimes แฟนเก่าของ Elon Musk จัดการกับปัญหาเรื่องการโคลนเสียงของเธอคือ การเปิดช่องทางให้ทุกคนสามารถโคลนเสียงไปใช้เชิงพาณิชย์ได้เลย หากแต่ว่าต้องแบ่งผลประโยชน์กัน 50-50 สำหรับศิลปินท่านใดที่อยากแก้ปัญหานี้พร้อมกับเพิ่มช่องทางในการหารายได้ ก็อาจใช้วิธีเดียวกับ Grimes ไปก่อนก็ได้

  • LOADING...

READ MORE




Latest Stories

Close Advertising
X