เว็บไซต์ OpenAI เปิดเผยบทความงานวิจัยชื่อว่า ‘Early methods for studying affective use and emotional well-being on Chat GPT’ ที่ร่วมกับ MIT Media Lab
ในบทความระบุว่า ปัจจุบันแชตบอต AI อย่าง ChatGPT กลายเป็นเครื่องมือที่ผู้คนใช้ในหลากหลายแง่มุม ตั้งแต่การค้นหาคำตอบ จุดประกายความคิดสร้างสรรค์ ไปจนถึงการพูดคุยเรื่องส่วนตัว แม้ AI จะช่วยเสริมประสบการณ์ในชีวิตประจำวันได้อย่างมีประสิทธิภาพ แต่คำถามสำคัญที่ตามมาคือ การมีปฏิสัมพันธ์กับ AI มีผลกระทบต่อสุขภาวะทางสังคมและอารมณ์ของผู้ใช้อย่างไร?
แม้ว่า ChatGPT ไม่ได้ถูกออกแบบมาเพื่อทดแทนหรือเลียนแบบความสัมพันธ์ของมนุษย์โดยตรง แต่ด้วยลักษณะการโต้ตอบที่เป็นธรรมชาติ และความสามารถที่พัฒนาอย่างต่อเนื่อง ทำให้บางคนเลือกใช้ในลักษณะที่คล้ายกับการมีปฏิสัมพันธ์กับบุคคลจริง การศึกษาพฤติกรรมเหล่านี้อย่างลึกซึ้งจะช่วยให้การพัฒนา AI ก้าวไปในทิศทางที่ส่งเสริมความปลอดภัยและสุขภาวะของผู้ใช้ได้ดียิ่งขึ้น
ด้วยเหตุนี้ นักวิจัยจาก MIT Media Lab และ OpenAI ได้ดำเนินการศึกษาหลายชุดเพื่อทำความเข้าใจว่า การใช้ AI ในลักษณะที่มีส่วนร่วมทางอารมณ์ หรือที่เรียกว่า ‘การใช้งานเชิงอารมณ์’ (Affective Use) ส่งผลกระทบต่อความเป็นอยู่ของผู้ใช้อย่างไร
🟡 วิธีการวิจัย
🔺 การศึกษาที่ 1: การวิเคราะห์การใช้งานจริง
ทีมของ OpenAI วิเคราะห์การโต้ตอบของ ChatGPT จำนวนเกือบ 40 ล้านครั้ง โดยใช้การประมวลผลอัตโนมัติที่ไม่มีการเข้าถึงข้อมูลของมนุษย์เพื่อรักษาความเป็นส่วนตัวของผู้ใช้ นอกจากนี้ยังมีการสำรวจความคิดเห็นของผู้ใช้เพื่อทำความเข้าใจเกี่ยวกับรูปแบบการใช้งานเชิงอารมณ์
🔺 การศึกษาที่ 2: การทดลองแบบสุ่มมีกลุ่มควบคุม (RCT)
ทีม MIT Media Lab ดำเนินการทดลองแบบสุ่มควบคุม (Randomized Controlled Trial – RCT) กับผู้เข้าร่วมเกือบ 1,000 คน เป็นเวลา 4 สัปดาห์ การศึกษานี้ได้รับการอนุมัติจากคณะกรรมการจริยธรรม (IRB) เพื่อสังเกตพฤติกรรมการใช้งานที่อาจส่งผลต่อสภาวะทางสังคมและจิตใจของผู้ใช้ โดยเน้นที่
🔸 ความเหงา (Loneliness)
🔸 การมีปฏิสัมพันธ์กับผู้คนในชีวิตจริง (Social interactions with real people)
🔸 การพึ่งพาทางอารมณ์ต่อ AI (Emotional dependence on the AI chatbot)
🔸 การใช้งาน AI อย่างไม่เหมาะสม (Problematic use of AI)
ดร.พัทน์ ภัทรนุธาพร หรือ พีพี นักวิจัยไทยแห่ง MIT Media Lab ผู้เชี่ยวชาญเรื่อง AI ให้สัมภาษณ์กับ THE STANDARD ถึงผลลัพธ์ที่น่าสนใจว่า
- การมีปฏิสัมพันธ์ทางอารมณ์กับ ChatGPT ในการใช้งานจริงพบได้น้อย
หรือคนที่พูดคุยกับ AI เสมือนแฟน หรือมีปฏิสัมพันธ์ทางอารมณ์ที่โรแมนติกกับ AI นั้นมีไม่มากนัก โดยผู้ใช้งานส่วนใหญ่จะมุ่งเน้นไปที่ Productivity เป็นหลัก จึงทำให้เห็นว่า ความกังวลของมนุษย์ในการใช้ AI ในทางโรแมนติกนั้น ในโลกแห่งความจริงอาจไม่ได้น่ากลัวอย่างที่คิด
- แม้ในกลุ่มผู้ใช้ที่ใช้ ChatGPT บ่อยมาก แต่การแสดงออกทางอารมณ์อย่างชัดเจนพบได้ในกลุ่มผู้ใช้จำนวนน้อยเท่านั้น โดยเฉพาะผู้ใช้ Advanced Voice Mode
- การใช้งาน Text หรือแชตบอตปกติ ให้ผลลัพธ์ที่รุนแรงกว่าการใช้เสียง เพราะการใช้ Text นั้นคนสามารถพูดในเรื่องเชิงอารมณ์หรือความเป็นส่วนตัวได้มากกว่าการสั่งการรูปแบบเสียง เนื่องจากอาจมีคนรอบข้างได้ยิน ดังนั้นโมเดลของเสียงอาจไม่นำไปสู่การทำให้คนเสพติดมากที่สุด
- การใช้โมเดลเสียงทำให้คนใช้เวลามากขึ้นกว่าการคุยผ่าน Text ความน่าสนใจคือเมื่อคนใช้เวลานานมากขึ้นอาจทำให้มนุษย์โดดเดี่ยวขึ้น มีปฏิสัมพันธ์กับมนุษย์น้อยลง และเสี่ยงมากขึ้นอย่างมีนัยสำคัญเมื่อเทียบกับ Condition อื่น
- ปัจจัยส่วนบุคคลมีบทบาทสำคัญ เมื่อคนใช้เวลากับ AI มากขึ้น อาจนำมาสู่การเสพติด AI ในเชิงอารมณ์มากขึ้น โดยไม่ได้เสพติดโมเดลในทันที หรือการใช้งาน AI เป็นเวลานานต่อวันมีความสัมพันธ์กับผลกระทบเชิงลบ
แม้การศึกษานี้จะเป็นการวิจัยครั้งแรกที่ทำให้เราเข้าใจความสัมพันธ์ทางอารมณ์ของมนุษย์และ AI มากขึ้น อย่างไรก็ตามผลลัพธ์ยังไม่สามารถสรุปได้ชัดเจน ต้องมีการวิจัยเพิ่มเติม เนื่องจากยังมีข้อจำกัดหลายอย่างที่ต้องพิจารณา เช่น
🔸 ยังไม่ได้รับการตรวจสอบโดยเพื่อนนักวิจัย (Peer Review)
🔸 ศึกษาผู้ใช้ ChatGPT เท่านั้น ซึ่งอาจไม่สะท้อนถึงผู้ใช้แพลตฟอร์ม AI อื่นๆ
🔸 ข้อมูลส่วนหนึ่งอิงจากแบบสำรวจ ซึ่งอาจไม่สะท้อนความรู้สึกจริงของผู้ใช้
🔸 การศึกษาใช้เฉพาะการสนทนาภาษาอังกฤษในสหรัฐฯ จำเป็นต้องมีงานวิจัยเพิ่มเติมในบริบทภาษาและวัฒนธรรมอื่นๆ
อ้างอิง: