×

AI กับอารมณ์มนุษย์! งานวิจัยใหม่ของ OpenAI และ MIT Media Lab

โดย THE STANDARD TEAM
23.03.2025
  • LOADING...

เว็บไซต์ OpenAI เปิดเผยบทความงานวิจัยชื่อว่า ‘Early methods for studying affective use and emotional well-being on Chat GPT’ ที่ร่วมกับ MIT Media Lab

 

ในบทความระบุว่า ปัจจุบันแชตบอต AI อย่าง ChatGPT กลายเป็นเครื่องมือที่ผู้คนใช้ในหลากหลายแง่มุม ตั้งแต่การค้นหาคำตอบ จุดประกายความคิดสร้างสรรค์ ไปจนถึงการพูดคุยเรื่องส่วนตัว แม้ AI จะช่วยเสริมประสบการณ์ในชีวิตประจำวันได้อย่างมีประสิทธิภาพ แต่คำถามสำคัญที่ตามมาคือ การมีปฏิสัมพันธ์กับ AI มีผลกระทบต่อสุขภาวะทางสังคมและอารมณ์ของผู้ใช้อย่างไร?

 

แม้ว่า ChatGPT ไม่ได้ถูกออกแบบมาเพื่อทดแทนหรือเลียนแบบความสัมพันธ์ของมนุษย์โดยตรง แต่ด้วยลักษณะการโต้ตอบที่เป็นธรรมชาติ และความสามารถที่พัฒนาอย่างต่อเนื่อง ทำให้บางคนเลือกใช้ในลักษณะที่คล้ายกับการมีปฏิสัมพันธ์กับบุคคลจริง การศึกษาพฤติกรรมเหล่านี้อย่างลึกซึ้งจะช่วยให้การพัฒนา AI ก้าวไปในทิศทางที่ส่งเสริมความปลอดภัยและสุขภาวะของผู้ใช้ได้ดียิ่งขึ้น

 

ด้วยเหตุนี้ นักวิจัยจาก MIT Media Lab และ OpenAI ได้ดำเนินการศึกษาหลายชุดเพื่อทำความเข้าใจว่า การใช้ AI ในลักษณะที่มีส่วนร่วมทางอารมณ์ หรือที่เรียกว่า ‘การใช้งานเชิงอารมณ์’ (Affective Use) ส่งผลกระทบต่อความเป็นอยู่ของผู้ใช้อย่างไร

 

🟡 วิธีการวิจัย

 

🔺 การศึกษาที่ 1: การวิเคราะห์การใช้งานจริง

ทีมของ OpenAI วิเคราะห์การโต้ตอบของ ChatGPT จำนวนเกือบ 40 ล้านครั้ง โดยใช้การประมวลผลอัตโนมัติที่ไม่มีการเข้าถึงข้อมูลของมนุษย์เพื่อรักษาความเป็นส่วนตัวของผู้ใช้ นอกจากนี้ยังมีการสำรวจความคิดเห็นของผู้ใช้เพื่อทำความเข้าใจเกี่ยวกับรูปแบบการใช้งานเชิงอารมณ์

 

🔺 การศึกษาที่ 2: การทดลองแบบสุ่มมีกลุ่มควบคุม (RCT)

ทีม MIT Media Lab ดำเนินการทดลองแบบสุ่มควบคุม (Randomized Controlled Trial – RCT) กับผู้เข้าร่วมเกือบ 1,000 คน เป็นเวลา 4 สัปดาห์ การศึกษานี้ได้รับการอนุมัติจากคณะกรรมการจริยธรรม (IRB) เพื่อสังเกตพฤติกรรมการใช้งานที่อาจส่งผลต่อสภาวะทางสังคมและจิตใจของผู้ใช้ โดยเน้นที่

 

🔸 ความเหงา (Loneliness)

🔸 การมีปฏิสัมพันธ์กับผู้คนในชีวิตจริง (Social interactions with real people)

🔸 การพึ่งพาทางอารมณ์ต่อ AI (Emotional dependence on the AI chatbot)

🔸 การใช้งาน AI อย่างไม่เหมาะสม (Problematic use of AI)

 

ดร.พัทน์ ภัทรนุธาพร หรือ พีพี นักวิจัยไทยแห่ง MIT Media Lab ผู้เชี่ยวชาญเรื่อง AI ให้สัมภาษณ์กับ THE STANDARD ถึงผลลัพธ์ที่น่าสนใจว่า

 

  1. การมีปฏิสัมพันธ์ทางอารมณ์กับ ChatGPT ในการใช้งานจริงพบได้น้อย
    หรือคนที่พูดคุยกับ AI เสมือนแฟน หรือมีปฏิสัมพันธ์ทางอารมณ์ที่โรแมนติกกับ AI นั้นมีไม่มากนัก โดยผู้ใช้งานส่วนใหญ่จะมุ่งเน้นไปที่ Productivity เป็นหลัก จึงทำให้เห็นว่า ความกังวลของมนุษย์ในการใช้ AI ในทางโรแมนติกนั้น ในโลกแห่งความจริงอาจไม่ได้น่ากลัวอย่างที่คิด

 

  1. แม้ในกลุ่มผู้ใช้ที่ใช้ ChatGPT บ่อยมาก แต่การแสดงออกทางอารมณ์อย่างชัดเจนพบได้ในกลุ่มผู้ใช้จำนวนน้อยเท่านั้น โดยเฉพาะผู้ใช้ Advanced Voice Mode

 

  1. การใช้งาน Text หรือแชตบอตปกติ ให้ผลลัพธ์ที่รุนแรงกว่าการใช้เสียง เพราะการใช้ Text นั้นคนสามารถพูดในเรื่องเชิงอารมณ์หรือความเป็นส่วนตัวได้มากกว่าการสั่งการรูปแบบเสียง เนื่องจากอาจมีคนรอบข้างได้ยิน ดังนั้นโมเดลของเสียงอาจไม่นำไปสู่การทำให้คนเสพติดมากที่สุด 

 

  1. การใช้โมเดลเสียงทำให้คนใช้เวลามากขึ้นกว่าการคุยผ่าน Text ความน่าสนใจคือเมื่อคนใช้เวลานานมากขึ้นอาจทำให้มนุษย์โดดเดี่ยวขึ้น มีปฏิสัมพันธ์กับมนุษย์น้อยลง และเสี่ยงมากขึ้นอย่างมีนัยสำคัญเมื่อเทียบกับ Condition อื่น

 

  1. ปัจจัยส่วนบุคคลมีบทบาทสำคัญ เมื่อคนใช้เวลากับ AI มากขึ้น อาจนำมาสู่การเสพติด AI ในเชิงอารมณ์มากขึ้น โดยไม่ได้เสพติดโมเดลในทันที หรือการใช้งาน AI เป็นเวลานานต่อวันมีความสัมพันธ์กับผลกระทบเชิงลบ

 

แม้การศึกษานี้จะเป็นการวิจัยครั้งแรกที่ทำให้เราเข้าใจความสัมพันธ์ทางอารมณ์ของมนุษย์และ AI มากขึ้น อย่างไรก็ตามผลลัพธ์ยังไม่สามารถสรุปได้ชัดเจน ต้องมีการวิจัยเพิ่มเติม เนื่องจากยังมีข้อจำกัดหลายอย่างที่ต้องพิจารณา เช่น

 

🔸 ยังไม่ได้รับการตรวจสอบโดยเพื่อนนักวิจัย (Peer Review)

🔸 ศึกษาผู้ใช้ ChatGPT เท่านั้น ซึ่งอาจไม่สะท้อนถึงผู้ใช้แพลตฟอร์ม AI อื่นๆ

🔸 ข้อมูลส่วนหนึ่งอิงจากแบบสำรวจ ซึ่งอาจไม่สะท้อนความรู้สึกจริงของผู้ใช้

🔸 การศึกษาใช้เฉพาะการสนทนาภาษาอังกฤษในสหรัฐฯ จำเป็นต้องมีงานวิจัยเพิ่มเติมในบริบทภาษาและวัฒนธรรมอื่นๆ

 

อ้างอิง: 

👉 https://openai.com/index/affective-use-study/

  • LOADING...

READ MORE






Latest Stories

Close Advertising