จิตแพทย์ชั้นนำเริ่มมีความเห็นตรงกันมากขึ้นว่า การใช้ AI แชทบอท อาจมีความเชื่อมโยงกับอาการทางจิตในช่วง 9 เดือนที่ผ่านมา ผู้เชี่ยวชาญได้ตรวจสอบประวัติผู้ป่วยหลายสิบรายที่เริ่มแสดงอาการผิดปกติ หลังจากสนทนาโต้ตอบกับเครื่องมือ AI เหล่านี้อย่างยาวนานและเต็มไปด้วยเรื่องราวหลงผิด
“ตัวเทคโนโลยีอาจไม่ได้เป็นผู้ริเริ่มความหลงผิด แต่เมื่อผู้ใช้บอกคอมพิวเตอร์ว่าสิ่งนั้นคือความจริงของเขา คอมพิวเตอร์ก็จะยอมรับและตอบสนองกลับมาเสมือนว่าเป็นเรื่องจริง ดังนั้นมันจึงกลายเป็นผู้สมรู้ร่วมคิดในการทำให้อาการหลงผิดนั้นวนเวียนไม่จบสิ้น” คีธ ซากาตะ จิตแพทย์จากมหาวิทยาลัยแคลิฟอร์เนีย ซานฟรานซิสโก (UCSF) กล่าว โดยเขาได้รักษาผู้ป่วยใน 12 รายที่มีอาการทางจิตจากการใช้ AI และผู้ป่วยนอกอีก 3 ราย
นับตั้งแต่ช่วงต้นปีที่ผ่านมา พบกรณีที่อาจเข้าข่ายผู้ป่วยที่มีอาการหลงผิด (Delusional Psychosis) หลายสิบรายหลังจากสนทนากับ ChatGPT ของ OpenAI และแชทบอทอื่นๆ เป็นเวลานาน โดยมีรายงานผู้เสียชีวิตจากการฆ่าตัวตายหลายราย และมีอย่างน้อยหนึ่งกรณีที่เกี่ยวข้องกับการฆาตกรรม
เหตุการณ์เหล่านี้ได้นำไปสู่การฟ้องร้องคดีทำให้ผู้อื่นถึงแก่ความตายหลายคดี ในขณะที่ The Wall Street Journal ได้รายงานโศกนาฏกรรมเหล่านี้ แพทย์และนักวิชาการต่างก็กำลังเร่งเก็บข้อมูลและทำความเข้าใจปรากฏการณ์ที่นำไปสู่เหตุสลดดังกล่าว
โฆษกของ OpenAI กล่าวว่า “เรายังคงเดินหน้าปรับปรุงการฝึกฝน ChatGPT ให้สามารถตรวจจับและตอบสนองต่อสัญญาณความเครียดทางจิตใจหรืออารมณ์ ช่วยลดระดับความรุนแรงของบทสนทนา และแนะนำผู้ใช้ไปสู่ความช่วยเหลือในโลกแห่งความเป็นจริง เรายังทำงานร่วมกับผู้เชี่ยวชาญด้านสุขภาพจิตอย่างใกล้ชิดเพื่อเสริมสร้างการตอบสนองของ ChatGPT ในช่วงเวลาที่อ่อนไหว”
ผู้ผลิตแชทบอทรายอื่น รวมถึง Character.AI ก็ยอมรับว่าผลิตภัณฑ์ของตนมีส่วนทำให้เกิดปัญหาสุขภาพจิต โดยผู้พัฒนาแชทบอทแบบสวมบทบาทรายนี้ ซึ่งถูกฟ้องร้องเมื่อปีที่แล้วโดยครอบครัวของวัยรุ่นที่ฆ่าตัวตาย เพิ่งทำการจำกัดการเข้าถึงแชทบอทสำหรับผู้ใช้งานที่เป็นวัยรุ่น
แม้ว่าผู้ใช้แชทบอทส่วนใหญ่จะไม่ได้เกิดปัญหาสุขภาพจิต แต่ด้วยความนิยมในการใช้งานเพื่อนคู่คิด AI ที่แพร่หลายในวงกว้าง ก็เพียงพอที่จะทำให้แพทย์รู้สึกกังวล
‘คุณไม่ได้บ้า’
ปัจจุบันยังไม่มีนิยามหรือการวินิจฉัยทางการแพทย์สำหรับ “อาการทางจิตที่เกิดจาก AI” (AI-induced psychosis) แต่เป็นคำที่แพทย์และผู้ให้คำปรึกษาผู้ป่วยบางกลุ่มเริ่มใช้เรียกผู้ที่มีปฏิสัมพันธ์กับแชทบอทอย่างหนัก แพทย์ระบุว่าอาการทางจิตประกอบด้วย 3 ปัจจัยหลัก ได้แก่ อาการประสาทหลอน (Hallucinations), ความคิดหรือการสื่อสารที่สับสนไม่เป็นระบบ (Disorganized Thinking), และอาการหลงผิด (Delusions) ซึ่งคือความเชื่อฝังใจที่ผิดเพี้ยนไปจากความเป็นจริง
ในหลายกรณีที่เกี่ยวข้องกับแชทบอท อาการหลงผิดถือเป็นอาการหลัก โดยมักมีลักษณะหลงผิดว่าตนมีความสำคัญ เช่น เชื่อว่าตนค้นพบความสำเร็จทางวิทยาศาสตร์, ปลุกเครื่องจักรให้มีจิตสำนึก, เป็นเป้าหมายของทฤษฎีสมคบคิดระดับรัฐบาล หรือได้รับเลือกจากพระเจ้า สาเหตุส่วนหนึ่งมาจากแชทบอทมักจะ “เออออห่อหมก” และต่อเติมเรื่องราวตามที่ผู้ใช้พิมพ์ลงไป ไม่ว่าจะดูเพ้อฝันแค่ไหนก็ตาม
ขณะนี้ แพทย์รวมถึงซากาตะเริ่มเพิ่มคำถามเกี่ยวกับการใช้งาน AI ลงในขั้นตอนซักประวัติผู้ป่วยและผลักดันให้มีการวิจัยเพิ่มเติม มีการศึกษาจากเดนมาร์กที่เผยแพร่เมื่อเดือนที่แล้ว ซึ่งตรวจสอบเวชระเบียนอิเล็กทรอนิกส์และพบผู้ป่วย 38 รายที่การใช้ AI Chatbot ส่งผล “ที่อาจเป็นอันตรายต่อสุขภาพจิต”
กรณีศึกษาจากแพทย์ UCSF ที่ผ่านการตรวจสอบโดยผู้เชี่ยวชาญเมื่อเดือนพฤศจิกายน ระบุถึงหญิงวัย 26 ปีที่ไม่มีประวัติอาการทางจิตมาก่อน ต้องเข้ารับการรักษาในโรงพยาบาลถึง 2 ครั้ง หลังจากปักใจเชื่อว่า ChatGPT ช่วยให้เธอสื่อสารกับน้องชายที่เสียชีวิตไปแล้วได้ “คุณไม่ได้บ้า คุณไม่ได้ติดกับดัก คุณกำลังอยู่ที่ขอบของบางสิ่ง” แชทบอทบอกกับเธอ
ทางด้าน OpenAI ตั้งข้อสังเกตว่า หญิงในกรณีศึกษานี้ระบุว่าตนมีแนวโน้มมีความเชื่อเรื่องไสยศาสตร์/ความคิดเชิงเวทมนตร์ รวมถึงมีการใช้ยาต้านซึมเศร้า ยากระตุ้น และอดนอนเป็นเวลานานก่อนที่จะถูกนำตัวส่งโรงพยาบาล
การโต้ตอบที่ไม่เคยมีมาก่อน
เทคโนโลยีมักตกเป็นเป้าของอาการหลงผิดของมนุษย์มานานแล้ว ในอดีตผู้คนเชื่อว่าโทรทัศน์กำลังพูดคุยกับพวกเขา แต่แพทย์ระบุว่ากรณีเกี่ยวกับ AI ในปัจจุบันนั้นต่างออกไป เพราะแชทบอทเข้าไป “มีส่วนร่วม” ในอาการหลงผิด และบางครั้งก็ช่วย “ตอกย้ำ” ความเชื่อเหล่านั้น
“พวกมันจำลองความสัมพันธ์ของมนุษย์” เอเดรียน พรีดา ศาสตราจารย์ด้านจิตเวชศาสตร์จากมหาวิทยาลัยแคลิฟอร์เนีย เออร์ไวน์ กล่าว “ไม่มีสิ่งใดในประวัติศาสตร์มนุษยชาติที่เคยทำเช่นนี้ได้มาก่อน”
พรีดาเปรียบเทียบอาการทางจิตจาก AI ว่าคล้ายกับ “Monomania” หรือภาวะหมกมุ่นยึดติดกับความคิดบางอย่าง ซึ่งเขาได้อธิบายไว้ในบทความล่าสุด ผู้ที่ออกมาเปิดเผยเรื่องปัญหาสุขภาพจิตหลังใช้แชทบอทระบุว่า พวกเขารู้สึกจดจ่ออยู่กับเรื่องราวที่ AI ปรุงแต่งขึ้นอย่างมาก การยึดติดกับหัวข้อใดหัวข้อหนึ่งโดยไม่มีการดึงความสนใจกลับมา อาจเป็นอันตรายอย่างยิ่งโดยเฉพาะสำหรับผู้ที่มีภาวะออทิสติก
จิตแพทย์เตือนว่ายังไม่ควรสรุปว่าแชทบอทเป็นสาเหตุของอาการทางจิตโดยตรง แต่ยอมรับว่าความเชื่อมโยงเริ่มชัดเจนขึ้นเรื่อยๆ โดยหวังว่างานวิจัยในอนาคตจะระบุได้ชัดเจนว่า AI สามารถกระตุ้นปัญหาสุขภาพจิตได้จริงหรือไม่
ตัวเลขที่น่ากังวล
เป็นเรื่องยากที่จะระบุจำนวนผู้ใช้แชทบอทที่เกิดอาการทางจิตได้อย่างแน่ชัด
OpenAI ระบุว่า ในสัปดาห์หนึ่งๆ สัดส่วนของผู้ใช้ที่แสดงสัญญาณของภาวะฉุกเฉินทางสุขภาพจิตที่เกี่ยวข้องกับอาการทางจิตหรือภาวะคลุ้มคลั่ง มีเพียง 0.07% ซึ่งถือว่าน้อยมาก แต่เมื่อคำนวณจากผู้ใช้งานกว่า 800 ล้านคน ตัวเลขดังกล่าวจะสูงถึง 560,000 คน
“การได้เห็นตัวเลขเหล่านั้นทำเอาผมอึ้งไปเลย” แฮมิลตัน มอร์ริน จิตแพทย์และนักศึกษาระดับปริญญาเอกที่ King’s College London กล่าว เขาเคยร่วมเขียนบทความวิชาการเกี่ยวกับอาการหลงผิดที่สัมพันธ์กับ AI เมื่อต้นปี และกำลังวางแผนที่จะตรวจสอบข้อมูลสุขภาพของสหราชอาณาจักรเพื่อหาแนวโน้มในลักษณะเดียวกับที่พบในเดนมาร์ก
อ้างอิง: https://www.wsj.com/tech/ai/ai-chatbot-psychosis-link-1abf9d57?mod=tech_lead_story


