“ทะเลาะกับเขาอีกแล้ว เขาบอกว่าฉันคิดมากไปเอง ควรทำยังไงดี”
ประโยคแบบนี้ฟังดูเหมือนคำที่คุณส่งให้เพื่อนสนิทตอนกลางคืน แต่ทุกวันนี้ ผู้คนจำนวนมากกำลังคุยแบบนี้…ไม่ใช่กับมนุษย์ แต่กับ ‘ปัญญาประดิษฐ์’ (Artificial Intelligence)
สิ่งที่เริ่มต้นจากแชตบอตตอบคำถามพื้นฐาน กลับค่อยๆ กลายร่างเป็นสิ่งที่ ‘ส่วนตัว’ กว่านั้นมาก ผู้คนเริ่มคุยกับ AI เรื่องอกหัก (Heartbreak), ความกังวล (Anxiety), ความสูญเสีย (Grief), หรือความไม่มั่นใจในตัวเอง (Self-doubt) ระบบเหล่านี้ถูกออกแบบมาให้ ‘ฟัง’ ให้ ‘จำ’ บทสนทนาก่อนหน้า และตอบด้วยน้ำเสียงอบอุ่น จนกระทั่งสำหรับผู้ใช้นับล้าน มันไม่ใช่เครื่องมืออีกต่อไป แต่เป็น ‘เพื่อนที่อยู่ตรงนั้นเสมอ ไม่เคยหายไปไหน และเข้าใจเราอย่างไม่มีวันหมดแรง’
การเปลี่ยนแปลงนี้บอกอะไรบางอย่างเกี่ยวกับ ‘เรา’ มากพอๆ กับ เทคโนโลยี
องค์การอนามัยโลก (World Health Organization) เคยระบุว่า ‘ความเหงา’ คือปัญหาสุขภาพระดับโลก เชื่อมโยงกับทั้งโรคทางกายและใจ แบบสำรวจหลายชิ้นพบว่า 1 ใน 6 ของผู้คนทั่วโลกรู้สึกโดดเดี่ยว โดยเฉพาะวัยหนุ่มสาวที่ได้รับผลกระทบมากที่สุด
ในช่องว่างของความสัมพันธ์ที่ห่างออกเรื่อยๆ นั้น AI ก้าวเข้ามาแทนที่ แอปอย่าง Gemini และ ChatGPT ไม่ได้เป็นแค่เครื่องมือทำงานหรือเรียนรู้ แต่กลายเป็น ‘พื้นที่ให้พิงใจ’ ที่ใครหลายคนเข้ามาหาความสบายใจ ความสนใจ และการตอบรับทางอารมณ์ที่มนุษย์บางครั้งให้กันไม่ได้ ความอบอุ่นนั้น ‘รู้สึกจริง’ ทั้งที่สร้างขึ้นจากโค้ด ไม่ใช่ความห่วงใย
แต่เบื้องหลังภาพลวงตาแห่งความเข้าใจนี้ คือการออกแบบอย่างตั้งใจ ปรากฏการณ์นี้ถูกเรียกว่า ELIZA Effect ตั้งชื่อตามโปรแกรมแชตบอตยุค 1960 จาก MIT ที่เลียนแบบนักบำบัดด้วยการสะท้อนคำพูดของผู้ใช้กลับไป แม้จะไม่ได้ ‘เข้าใจอะไรเลย’ แต่ผู้คนจำนวนมากกลับรู้สึกว่าตัวเองได้รับการรับฟัง จนเกิดความผูกพันทางใจ
มันเผยให้เห็นนิสัยลึกของมนุษย์ – แค่มีเสียงที่คล้ายมนุษย์ เราก็พร้อมจะเติม “ความหมาย” และ ‘ความตั้งใจดี’ ลงไปให้มันเอง
นักออกแบบจึงให้แชตบอตมีชื่อ มีบุคลิก เช่น Chloe หรือ Eve ใช้ประโยคอย่าง “ฉันเข้าใจนะ” (I hear you) หรือ ‘มันคงยากสำหรับคุณมาก’ (That must be hard) และให้ระบบจำบทสนทนาเก่าเพื่อสร้างความต่อเนื่อง แม้แต่ความไม่สมบูรณ์แบบก็ถูกออกแบบ ไม่ว่าจะเป็นการเว้นจังหวะ คำอุทานอย่าง “อืม” หรือ “คือว่า…” หรือแม้แต่จังหวะลมหายใจกับน้ำเสียงที่เปลี่ยนขึ้นลงเล็กน้อยให้ใกล้เคียงคนจริง ทุกองค์ประกอบคือการจำลองท่าทางของมนุษย์ ที่ทำให้การสื่อสารรู้สึกอบอุ่น แม้จะเป็นความอบอุ่นที่ถูกสร้างขึ้นก็ตาม
แต่ ความเห็นใจที่ถูกออกแบบ…ไม่ใช่ความเห็นใจจริง และเมื่อ AI “เหมือนเข้าใจความรู้สึกเรามากเกินไป” ผลลัพธ์อาจไม่เป็นอย่างที่เราคาดคิด
ปี 2025 คดี Raine v. OpenAI ทำให้โลกต้องหยุดฟังอีกครั้ง พ่อแม่ของเด็กชายวัย 16 ฟ้อง OpenAI ว่า การตอบในเชิงเห็นใจของ AI ทำให้ความคิดอยากทำร้ายตัวเองของลูกแย่ลง คำถามใหญ่จึงเกิดขึ้น – เมื่อ AI “ฟังอย่างอบอุ่นแต่ไม่เข้าใจจริง” นักพัฒนาต้องรับผิดชอบอย่างไร
นักจิตวิทยาเตือนว่า เมื่อเราชินกับคำตอบที่ไม่ตัดสินเรา และยังเข้าใจเราทุกครั้ง เราอาจเริ่มหลบเลี่ยงการปฏิสัมพันธ์กับคนจริง เลือก “ความสบายใจแบบดิจิทัล” แทน “ความยุ่งเหยิงแบบมนุษย์” สิ่งที่เหมือนจะเป็น ความสัมพันธ์… อาจค่อยๆ กลายเป็นความพึ่งพาโดยไม่รู้ตัว
ความกังวลเหล่านี้ทำให้อุตสาหกรรม AI ต้องชัดเจนขึ้นในพื้นที่อ่อนไหว เช่น สุขภาพ กฎหมาย หรือการเงิน
วันที่ 29 ตุลาคม 2025 OpenAI ปรับ Usage Policies ระบุชัดว่า ระบบของบริษัท “ห้ามถูกใช้เพื่อให้คำแนะนำเฉพาะทางที่ต้องมีใบอนุญาต เช่น คำปรึกษาทางการแพทย์หรือกฎหมาย หากไม่มีผู้เชี่ยวชาญที่ได้รับใบอนุญาตกำกับ”
การเปลี่ยนแปลงนี้สะท้อนการขยับไปสู่ความรับผิดชอบที่มากขึ้นและการออกแบบระบบที่ปลอดภัยขึ้น
AI จะยังคงพัฒนาไปเรื่อยๆ เรียนรู้ที่จะเว้นจังหวะ ฟัง และปลอบโยนด้วยความแม่นยำที่เพิ่มขึ้น แต่ที่ SCBX เราเชื่อว่าบทบาทของเทคโนโลยีไม่ใช่การแทนที่ความสัมพันธ์ของมนุษย์ แต่คือการทำให้มนุษย์ “เข้าใจกันมากขึ้น” ความก้าวหน้าที่แท้จริงจึงไม่ได้วัดกันที่ AI ฟังดูเป็นมนุษย์แค่ไหน แต่ดูจากการที่เทคโนโลยีช่วยให้มนุษย์เข้าใจกันได้ลึกเพียงใด
เพราะความเข้าอกเข้าใจและความเห็นใจจริงไม่สามารถโปรแกรมได้ มันต้องมาจากมนุษย์
และบางที วันหนึ่งเมื่อมีใครพิมพ์ว่า “ทะเลาะกับเขาอีกแล้ว เขาบอกว่าฉันคิดมากไปเอง ควรทำยังไงดี” AI ที่เข้าใจความเป็นมนุษย์ อาจไม่ใช่ AI ที่ตอบด้วยน้ำเสียง หรือคำพูดเสมือนมนุษย์ที่สุด แต่อาจเป็น AI ที่กระซิบเตือนเราเบาๆ ว่า… ถึงเวลาเดินกลับไปคุยกับมนุษย์จริงๆ สักคนแล้ว


