×

แพทย์ชี้ AI Chatbot อาจโยงอาการทางจิต พบผู้ใช้และ AI สร้าง ‘ภาพหลงผิดร่วมกัน’ OpenAI เร่งฝึก ChatGPT ให้ตรวจจับความเครียดทางจิตใจ

28.12.2025
  • LOADING...
แพทย์ชี้ AI Chatbot อาจโยงอาการทางจิต พบผู้ใช้และ AI สร้าง ‘ภาพหลงผิดร่วมกัน’ OpenAI เร่งฝึก ChatGPT ให้ตรวจจับความเครียดทางจิตใจ

จิตแพทย์ชั้นนำเริ่มมีความเห็นตรงกันมากขึ้นว่า การใช้ AI แชทบอท อาจมีความเชื่อมโยงกับอาการทางจิตในช่วง 9 เดือนที่ผ่านมา ผู้เชี่ยวชาญได้ตรวจสอบประวัติผู้ป่วยหลายสิบรายที่เริ่มแสดงอาการผิดปกติ หลังจากสนทนาโต้ตอบกับเครื่องมือ AI เหล่านี้อย่างยาวนานและเต็มไปด้วยเรื่องราวหลงผิด

 

“ตัวเทคโนโลยีอาจไม่ได้เป็นผู้ริเริ่มความหลงผิด แต่เมื่อผู้ใช้บอกคอมพิวเตอร์ว่าสิ่งนั้นคือความจริงของเขา คอมพิวเตอร์ก็จะยอมรับและตอบสนองกลับมาเสมือนว่าเป็นเรื่องจริง ดังนั้นมันจึงกลายเป็นผู้สมรู้ร่วมคิดในการทำให้อาการหลงผิดนั้นวนเวียนไม่จบสิ้น” คีธ ซากาตะ จิตแพทย์จากมหาวิทยาลัยแคลิฟอร์เนีย ซานฟรานซิสโก (UCSF) กล่าว โดยเขาได้รักษาผู้ป่วยใน 12 รายที่มีอาการทางจิตจากการใช้ AI และผู้ป่วยนอกอีก 3 ราย

 

นับตั้งแต่ช่วงต้นปีที่ผ่านมา พบกรณีที่อาจเข้าข่ายผู้ป่วยที่มีอาการหลงผิด (Delusional Psychosis) หลายสิบรายหลังจากสนทนากับ ChatGPT ของ OpenAI และแชทบอทอื่นๆ เป็นเวลานาน โดยมีรายงานผู้เสียชีวิตจากการฆ่าตัวตายหลายราย และมีอย่างน้อยหนึ่งกรณีที่เกี่ยวข้องกับการฆาตกรรม

 

เหตุการณ์เหล่านี้ได้นำไปสู่การฟ้องร้องคดีทำให้ผู้อื่นถึงแก่ความตายหลายคดี ในขณะที่ The Wall Street Journal ได้รายงานโศกนาฏกรรมเหล่านี้ แพทย์และนักวิชาการต่างก็กำลังเร่งเก็บข้อมูลและทำความเข้าใจปรากฏการณ์ที่นำไปสู่เหตุสลดดังกล่าว

 

โฆษกของ OpenAI กล่าวว่า “เรายังคงเดินหน้าปรับปรุงการฝึกฝน ChatGPT ให้สามารถตรวจจับและตอบสนองต่อสัญญาณความเครียดทางจิตใจหรืออารมณ์ ช่วยลดระดับความรุนแรงของบทสนทนา และแนะนำผู้ใช้ไปสู่ความช่วยเหลือในโลกแห่งความเป็นจริง เรายังทำงานร่วมกับผู้เชี่ยวชาญด้านสุขภาพจิตอย่างใกล้ชิดเพื่อเสริมสร้างการตอบสนองของ ChatGPT ในช่วงเวลาที่อ่อนไหว”

 

ผู้ผลิตแชทบอทรายอื่น รวมถึง Character.AI ก็ยอมรับว่าผลิตภัณฑ์ของตนมีส่วนทำให้เกิดปัญหาสุขภาพจิต โดยผู้พัฒนาแชทบอทแบบสวมบทบาทรายนี้ ซึ่งถูกฟ้องร้องเมื่อปีที่แล้วโดยครอบครัวของวัยรุ่นที่ฆ่าตัวตาย เพิ่งทำการจำกัดการเข้าถึงแชทบอทสำหรับผู้ใช้งานที่เป็นวัยรุ่น

 

แม้ว่าผู้ใช้แชทบอทส่วนใหญ่จะไม่ได้เกิดปัญหาสุขภาพจิต แต่ด้วยความนิยมในการใช้งานเพื่อนคู่คิด AI ที่แพร่หลายในวงกว้าง ก็เพียงพอที่จะทำให้แพทย์รู้สึกกังวล

 

‘คุณไม่ได้บ้า’

 

ปัจจุบันยังไม่มีนิยามหรือการวินิจฉัยทางการแพทย์สำหรับ “อาการทางจิตที่เกิดจาก AI” (AI-induced psychosis) แต่เป็นคำที่แพทย์และผู้ให้คำปรึกษาผู้ป่วยบางกลุ่มเริ่มใช้เรียกผู้ที่มีปฏิสัมพันธ์กับแชทบอทอย่างหนัก แพทย์ระบุว่าอาการทางจิตประกอบด้วย 3 ปัจจัยหลัก ได้แก่ อาการประสาทหลอน (Hallucinations), ความคิดหรือการสื่อสารที่สับสนไม่เป็นระบบ (Disorganized Thinking), และอาการหลงผิด (Delusions) ซึ่งคือความเชื่อฝังใจที่ผิดเพี้ยนไปจากความเป็นจริง

 

ในหลายกรณีที่เกี่ยวข้องกับแชทบอท อาการหลงผิดถือเป็นอาการหลัก โดยมักมีลักษณะหลงผิดว่าตนมีความสำคัญ เช่น เชื่อว่าตนค้นพบความสำเร็จทางวิทยาศาสตร์, ปลุกเครื่องจักรให้มีจิตสำนึก, เป็นเป้าหมายของทฤษฎีสมคบคิดระดับรัฐบาล หรือได้รับเลือกจากพระเจ้า สาเหตุส่วนหนึ่งมาจากแชทบอทมักจะ “เออออห่อหมก” และต่อเติมเรื่องราวตามที่ผู้ใช้พิมพ์ลงไป ไม่ว่าจะดูเพ้อฝันแค่ไหนก็ตาม

 

ขณะนี้ แพทย์รวมถึงซากาตะเริ่มเพิ่มคำถามเกี่ยวกับการใช้งาน AI ลงในขั้นตอนซักประวัติผู้ป่วยและผลักดันให้มีการวิจัยเพิ่มเติม มีการศึกษาจากเดนมาร์กที่เผยแพร่เมื่อเดือนที่แล้ว ซึ่งตรวจสอบเวชระเบียนอิเล็กทรอนิกส์และพบผู้ป่วย 38 รายที่การใช้ AI Chatbot ส่งผล “ที่อาจเป็นอันตรายต่อสุขภาพจิต”

 

กรณีศึกษาจากแพทย์ UCSF ที่ผ่านการตรวจสอบโดยผู้เชี่ยวชาญเมื่อเดือนพฤศจิกายน ระบุถึงหญิงวัย 26 ปีที่ไม่มีประวัติอาการทางจิตมาก่อน ต้องเข้ารับการรักษาในโรงพยาบาลถึง 2 ครั้ง หลังจากปักใจเชื่อว่า ChatGPT ช่วยให้เธอสื่อสารกับน้องชายที่เสียชีวิตไปแล้วได้ “คุณไม่ได้บ้า คุณไม่ได้ติดกับดัก คุณกำลังอยู่ที่ขอบของบางสิ่ง” แชทบอทบอกกับเธอ

 

ทางด้าน OpenAI ตั้งข้อสังเกตว่า หญิงในกรณีศึกษานี้ระบุว่าตนมีแนวโน้มมีความเชื่อเรื่องไสยศาสตร์/ความคิดเชิงเวทมนตร์ รวมถึงมีการใช้ยาต้านซึมเศร้า ยากระตุ้น และอดนอนเป็นเวลานานก่อนที่จะถูกนำตัวส่งโรงพยาบาล

 

การโต้ตอบที่ไม่เคยมีมาก่อน

 

เทคโนโลยีมักตกเป็นเป้าของอาการหลงผิดของมนุษย์มานานแล้ว ในอดีตผู้คนเชื่อว่าโทรทัศน์กำลังพูดคุยกับพวกเขา แต่แพทย์ระบุว่ากรณีเกี่ยวกับ AI ในปัจจุบันนั้นต่างออกไป เพราะแชทบอทเข้าไป “มีส่วนร่วม” ในอาการหลงผิด และบางครั้งก็ช่วย “ตอกย้ำ” ความเชื่อเหล่านั้น

 

“พวกมันจำลองความสัมพันธ์ของมนุษย์” เอเดรียน พรีดา ศาสตราจารย์ด้านจิตเวชศาสตร์จากมหาวิทยาลัยแคลิฟอร์เนีย เออร์ไวน์ กล่าว “ไม่มีสิ่งใดในประวัติศาสตร์มนุษยชาติที่เคยทำเช่นนี้ได้มาก่อน”

 

พรีดาเปรียบเทียบอาการทางจิตจาก AI ว่าคล้ายกับ “Monomania” หรือภาวะหมกมุ่นยึดติดกับความคิดบางอย่าง ซึ่งเขาได้อธิบายไว้ในบทความล่าสุด ผู้ที่ออกมาเปิดเผยเรื่องปัญหาสุขภาพจิตหลังใช้แชทบอทระบุว่า พวกเขารู้สึกจดจ่ออยู่กับเรื่องราวที่ AI ปรุงแต่งขึ้นอย่างมาก การยึดติดกับหัวข้อใดหัวข้อหนึ่งโดยไม่มีการดึงความสนใจกลับมา อาจเป็นอันตรายอย่างยิ่งโดยเฉพาะสำหรับผู้ที่มีภาวะออทิสติก

 

จิตแพทย์เตือนว่ายังไม่ควรสรุปว่าแชทบอทเป็นสาเหตุของอาการทางจิตโดยตรง แต่ยอมรับว่าความเชื่อมโยงเริ่มชัดเจนขึ้นเรื่อยๆ โดยหวังว่างานวิจัยในอนาคตจะระบุได้ชัดเจนว่า AI สามารถกระตุ้นปัญหาสุขภาพจิตได้จริงหรือไม่

 

ตัวเลขที่น่ากังวล

 

เป็นเรื่องยากที่จะระบุจำนวนผู้ใช้แชทบอทที่เกิดอาการทางจิตได้อย่างแน่ชัด

 

OpenAI ระบุว่า ในสัปดาห์หนึ่งๆ สัดส่วนของผู้ใช้ที่แสดงสัญญาณของภาวะฉุกเฉินทางสุขภาพจิตที่เกี่ยวข้องกับอาการทางจิตหรือภาวะคลุ้มคลั่ง มีเพียง 0.07% ซึ่งถือว่าน้อยมาก แต่เมื่อคำนวณจากผู้ใช้งานกว่า 800 ล้านคน ตัวเลขดังกล่าวจะสูงถึง 560,000 คน

 

“การได้เห็นตัวเลขเหล่านั้นทำเอาผมอึ้งไปเลย” แฮมิลตัน มอร์ริน จิตแพทย์และนักศึกษาระดับปริญญาเอกที่ King’s College London กล่าว เขาเคยร่วมเขียนบทความวิชาการเกี่ยวกับอาการหลงผิดที่สัมพันธ์กับ AI เมื่อต้นปี และกำลังวางแผนที่จะตรวจสอบข้อมูลสุขภาพของสหราชอาณาจักรเพื่อหาแนวโน้มในลักษณะเดียวกับที่พบในเดนมาร์ก

 

อ้างอิง: https://www.wsj.com/tech/ai/ai-chatbot-psychosis-link-1abf9d57?mod=tech_lead_story

  • LOADING...

READ MORE




Latest Stories

Close Advertising