“ตอนนี้คือช่วงเวลาที่ทุกฝ่ายควรให้ความสำคัญกับเรื่องความปลอดภัยและการบริหารจัดการ AI เพราะส่วนหนึ่งความเสี่ยงใหม่หรือแม้กระทั่งขยายความเสี่ยงเดิมที่มีอยู่ก็มาจากการใช้งาน AI แต่ในเวลาเดียวกัน AI ก็ได้สร้างประโยชน์ให้กับพวกเราอย่างมีนัยสำคัญ ดังนั้นการหาสมดุลระหว่างประโยชน์และความเสี่ยงคือประเด็นที่สำคัญมากในเวลานี้” Christina Montgomery – Vice President, Chief Privacy & Trust Officer ของ IBM กล่าว
การใช้งานอย่างแพร่หลายที่เกิดขึ้นในปลายปี 2022 กับแชตบอตอย่าง ChatGPT ถือเป็นจุดเริ่มต้นของการนำเทคโนโลยีปัญญาประดิษฐ์ หรือ AI ที่ทำให้คนนับล้านเข้าถึงรูปแบบใหม่ในการคิดไอเดียสร้างสรรค์มากมายให้กับการทำงานหรือสร้างคอนเทนต์ ด้วยความสามารถในการตอบคำถามที่ทำได้อย่างรวดเร็วและตรงจุดมากขึ้น แม้จะยังไม่แม่นยำร้อยเปอร์เซ็นต์ ซึ่งสิ่งนี้ทำให้ขอบเขตการใช้งานแผ่ขยายไปสู่แวดวงธุรกิจจากโอกาสที่ AI จะเข้ามาปฏิวัติการทำงานแบบเดิมได้
แต่ท่ามกลางความน่าตื่นเต้นนี้ บริษัทจำนวนมากก็แสดงให้เห็นถึงความลังเลที่จะปรับใช้เทคโนโลยีดังกล่าว เนื่องจากพวกเขาห่วงเรื่อง ‘ความเชื่อมั่น’ โดยผลการสำรวจของสถาบันการศึกษาคุณค่าทางธุรกิจของไอบีเอ็ม (IBV) เปิดเผยว่า เหตุผลหลักที่องค์กรเหล่านี้ยังไม่เริ่มปรับใช้ AI มาจากข้อกังวลความเป็นส่วนตัวของข้อมูล (57%) และความโปร่งใสของ AI (43%) ที่อาจก่อให้เกิดความเสียหายมหาศาลกับ ‘ความเชื่อมั่น’ ในธุรกิจของพวกเขาได้หากเกิดข้อผิดพลาดที่มาจาก AI
หนึ่งความเสี่ยงใหม่ที่มีเพิ่มขึ้นและถูกพูดถึงกันอย่างกว้างขวางบนเวทีโลก ณ ตอนนี้คงจะหนีไม่พ้นประเด็นของ Deepfake หรือการสร้างบุคคลเสมือน และนำไปใช้ในทางที่ผิด เช่น การปลอมแปลงภาพและเสียงของประธานาธิบดีหรือผู้มีอิทธิพล ที่อาจนำไปสู่ความวุ่นวายทางการเมืองและสังคมได้จากการให้ข้อมูลเท็จ
เพื่อที่จะแก้ไขปัญหาดังกล่าว บริษัท IBM จึงได้เสนอแนวทางกำกับดูแลการใช้งาน AI ให้ทุกคนสามารถได้รับประโยชน์จากเทคโนโลยีภายใต้ความเสี่ยงที่จำกัด โดยเฉพาะในภูมิภาคอาเซียนที่ทั้งสิงคโปร์ ไทย เวียดนาม มาเลเซีย อินโดนีเซีย และฟิลิปปินส์ ซึ่งมีดัชนีความพร้อมของรัฐบาลในการใช้งาน AI มากที่สุดเมื่อเทียบกับภูมิภาคอื่น พร้อมทั้งศักยภาพที่จะก้าวขึ้นมาเป็นศูนย์กลาง AI ของโลกด้วยปัจจัยเชิงประชากรที่มีอายุเฉลี่ยต่ำและมีอัตราการใช้งานเทคโนโลยีสูง ทำให้บริษัทคาดการณ์ว่า อาเซียนมีโอกาสเติบโตได้สูงขึ้นถึง 24.4% ในกรอบเวลาปี 2023-2030
ด้วยแนวโน้มนี้เอง IBM มองว่า นี่คือโอกาสที่อาเซียนจะยกระดับเศรษฐกิจของตนด้วย AI เพราะวัตถุประสงค์ที่แท้จริงของเทคโนโลยีนี้คือ การช่วยเพิ่มความคิดสร้างสรรค์และผลิตภาพของมนุษย์ แต่ทว่าใจความสำคัญของการนำ AI มาใช้งานจะต้องอยู่บนพื้นฐานของ ‘Responsible AI’ หรือปัญญาประดิษฐ์ที่มีความรับผิดชอบ มีความโปร่งใส และยึดถือความเป็นเจ้าของข้อมูลของผู้ใช้งานเป็นสำคัญ ซึ่งจะนำไปสู่การยอมรับและใช้งานอย่างแพร่หลายในธุรกิจต่างๆ
การกำกับดูแล ‘กรณีการใช้งาน’ ที่อาจนำไปสู่ปัญหา Deepfake การละเมิดความเป็นส่วนตัวของข้อมูลและความเสียหายทางชื่อเสียง มีความจำเป็นอย่างมากที่จะต้องวางกรอบให้รัดกุม และจะต้องมีมาตรการเอาผิดกับกลุ่มคนที่ใช้ AI อย่างไม่มีความรับผิดชอบ จนสร้างความเสียหายให้กับผู้อื่น แต่ในขณะเดียวกันการตั้งกฎเกณฑ์จะต้องไม่นำไปสู่การปิดกั้นและกีดกันแก่ผู้ใช้งานให้ไม่สามารถสร้างนวัตกรรมเพื่อพัฒนาสังคมได้
สำหรับการใช้ AI อย่างมีจริยธรรม IBM ได้จำแนกปัจจัยหลักออกมา 5 ปัจจัย ได้แก่
- อธิบายที่มาที่ไปของข้อมูลได้: โมเดล AI จะต้องตอบคำถามได้ว่า ‘ทำไม?’ คำตอบถึงออกมารูปแบบที่เป็น ต้องอธิบายให้ผู้ใช้งานเข้าใจได้อย่างถี่ถ้วน
- ความยุติธรรม: โมเดล AI จะต้องคำนึงถึงความเท่าเทียม เพื่อป้องกันความลำเอียงที่อาจกระทบกับบุคคลหรือกลุ่มคนอย่างไม่ยุติธรรม
- ความแข็งแรง: โมเดล AI จะต้องเข้าใจและระบุข้อมูลที่ลำเอียงและไม่ได้มาจากแหล่งที่น่าเชื่อถือหรือไม่อยู่บนพื้นฐานความจริงได้
- ความโปร่งใส: โมเดล AI จะต้องอธิบายตัวเองได้ว่าโมเดลถูกออกแบบมาอย่างไร เช่น ชุดข้อมูลที่ใช้พัฒนาและข้อจำกัดต่างๆ เพื่อให้การใช้งานเป็นไปอย่างมีความรับผิดชอบและแก้ไขได้ตรงจุดในกรณีที่เกิดปัญหา
- ความเป็นส่วนตัว: โมเดล AI จะต้องยึดถือความเป็นส่วนตัวและปกป้องความเป็นเจ้าของข้อมูล เพื่อลดหรือขจัดความเสี่ยงที่ข้อมูลเหล่านั้นจะถูกนำไปใช้ในทางที่ผิด
“หากเราปราศจาก AI ที่เชื่อถือได้ ความหวังที่จะทำให้ทุกคนเข้าถึงเทคโนโลยีนี้และได้รับประโยชน์จากมันอย่างเต็มประสิทธิภาพในวงกว้าง ก็ไม่สามารถที่จะกลายเป็นความจริงได้” Purushothama Shenoy – CTO, Ecosystem Technical Leader ของ IBM เอเชีย-แปซิฟิก กล่าวทิ้งท้าย
อ้างอิง: IBM