ในช่วงไม่กี่ปีที่ผ่านมา หากพูดถึงธีมการลงทุนที่ร้อนแรงที่สุด คงไม่มีอะไรโดดเด่นไปกว่า ‘AI’ เงินทุนระดับหลายแสนล้านดอลลาร์ถูกอัดเข้าสู่ดาต้าเซ็นเตอร์ โครงสร้างพื้นฐานคลาวด์ และเทคโนโลยีที่เกี่ยวข้องกับการประมวลผล จนตลาดต่างมองว่า ‘ยุค AI ระยะแรก’ คือยุคของ GPU แบบเต็มตัว ใครมีพลังประมวลผลมากกว่า ย่อมเป็นผู้ได้เปรียบในสงครามโมเดล แต่ภาพดังกล่าวกำลังเปลี่ยนอย่างสิ้นเชิง เมื่อโลกก้าวเข้าสู่ ‘AI ระยะที่ 2’ ยุคของการใช้งานจริง (Inference & Agentic Era)
จาก Compute สู่ Memory คอขวดใหม่ของอุตสาหกรรม AI
ในยุคแรกความท้าทายคือ ‘ทำให้โมเดลคิดได้เร็ว’ จึงเป็นช่วงทองของ GPU แต่เมื่อ AI ถูกใช้งานในระดับผู้ใช้หลายร้อยล้านคน ปัญหาไม่ใช่ความเร็วอีกต่อไป แต่เป็น ‘AI จะจำได้มากแค่ไหน’
โมเดลสมัยใหม่ต้องรองรับบทสนทนายาวขึ้น เข้าใจบริบทซับซ้อนขึ้น เชื่อมโยงข้อมูลข้ามรูปแบบ ทั้งข้อความ ภาพ เสียง และวิดีโอ การใช้งานจริงจึงต้องพึ่งพาหน่วยความจำหลายชั้น ตั้งแต่ HBM ที่ติดกับ GPU ไปจนถึง DRAM และ NAND ในเซิร์ฟเวอร์
Context window ที่ยาวขึ้น 5 เท่า หรือจำนวนผู้ใช้ที่เพิ่มขึ้น 10 เท่า สามารถทำให้ความต้องการหน่วยความจำเพิ่มขึ้นแบบก้าวกระโดด ซึ่งกลายเป็น ‘ข้อจำกัดด้านฟิสิกส์’ ที่เริ่มฉุดความก้าวหน้าของ AI มากกว่าพลังประมวลผลเสียอีก นี่คือสัญญาณว่าอุตสาหกรรมกำลังก้าวเข้าสู่ Memory Supercycle รอบใหม่
Memory รอบนี้ไม่เหมือนรอบ PC หรือ Smartphone
วัฏจักรหน่วยความจำในอดีตผูกกับสินค้าอิเล็กทรอนิกส์ปลายทาง เช่น PC หรือสมาร์ตโฟน แต่ Memory Supercycle ครั้งนี้มีความแตกต่างเชิงโครงสร้างอย่างชัดเจน
1. ดีมานด์ไม่ได้มาจากผู้บริโภคทั่วไป
ความต้องการหน่วยความจำของ AI มาจาก Hyperscaler และองค์กรระดับโลกที่มีเงินลงทุนมหาศาล ทำให้ดีมานด์มีเสถียรภาพกว่าเดิมมาก
2. อุตสาหกรรมฝั่งอุปทานมีวินัยสูงขึ้น
ผู้ผลิต DRAM รายใหญ่เหลือไม่กี่ราย การแข่งขันแบบขยายกำลังผลิตเกินตัวจึงลดลง ส่งผลให้โครงสร้างราคาแข็งแรงกว่าในอดีต
3. หน่วยความจำไม่ใช่แค่ส่วนประกอบ แต่เป็น ‘เพดานของระบบ’
ยิ่งโมเดลสร้าง reasoning ยาวขึ้น ยิ่งต้องจดจำพฤติกรรมผู้ใช้แบบถาวร ยิ่งต้องใช้ DRAM และ NAND เพิ่มแบบโครงสร้าง ไม่ใช่เพียงชั่วคราว
โครงสร้าง Memory ของยุค AI ตั้งแต่ HBM ถึง NAND
ระบบ AI ต้องใช้หน่วยความจำหลายประเภทพร้อมกัน
- HBM (High Bandwidth Memory): อยู่ติด GPU ใช้กับงานที่ต้องเข้าถึงข้อมูลเร็วระดับมหาศาล
- DRAM: เป็นหน่วยความจำหลักของเซิร์ฟเวอร์ AI
- NAND/SSD: เก็บข้อมูลปริมาณมาก รองรับ context ที่ยาวขึ้นอย่างต่อเนื่อง
เมื่อองค์กรเริ่มนำ AI ไปใช้ในธุรกิจจริง เช่น ระบบผู้ช่วยอัตโนมัติ หรือ Agentic AI ที่ต้องจำข้อมูลของผู้ใช้แบบถาวร ทุกชั้นของ memory hierarchy จึงถูกใช้งานหนักขึ้นไปพร้อมกัน ทำให้ดีมานด์ของ DRAM และ NAND เพิ่มขึ้นแบบโครงสร้างทั่วโลก
ใครคือผู้ได้ประโยชน์ใน Memory Supercycle?
ห่วงโซ่อุตสาหกรรมสามารถมองได้ 2 กลุ่มหลัก
1) Memory Makers – ผู้ผลิต DRAM / HBM / NAND เป็นกลุ่มที่ได้รับผลโดยตรงจากราคาและดีมานด์ที่ไหลเข้ามา
2) EUV Suppliers – ผู้ผลิตเครื่องจักรขั้นสูง เป็นกลุ่มที่ได้ประโยชน์เมื่อผู้ผลิตหน่วยความจำต้องขยายกำลังผลิต
Micron: ตัวแทนของ Pricing Power
ข้อมูลจากทีม Global Investing หลักทรัพย์บัวหลวง ระบุว่า Micron เป็นหนึ่งในผู้ผลิต DRAM/HBM รายใหญ่ของโลก และมีสัดส่วนรายได้จาก Server DRAM และ HBM เพิ่มขึ้นอย่างต่อเนื่อง ซึ่งเป็นสินค้าที่ได้รับแรงหนุนโดยตรงจาก AI ในช่วง Memory Upcycle มักเกิดลำดับเหตุการณ์แบบเดิมเสมอ
- Hyperscaler สั่งซื้อ Server DRAM ปริมาณมาก
- โรงงานหันไปผลิตสินค้าที่มาร์จินสูง
- ตลาด consumer ถูกเบียดออก
- ราคาขายเฉลี่ยปรับขึ้นรวดเร็ว
ธุรกิจ DRAM มีต้นทุนคงที่สูง ทำให้เมื่อราคาเพิ่มเพียงเล็กน้อย กำไรสามารถขยายตัวอย่างก้าวกระโดด ซึ่งเป็นเหตุผลที่ Micron ถูกมองว่าเป็นตัวแทน ‘กำไรเร่งตัว’ ในรอบขาขึ้น โดยนักลงทุนไทยเข้าถึงได้ผ่าน DR ‘MICRON01’
ASML ผู้ถือกุญแจของข้อจำกัดด้านอุปทาน
อีกฟากหนึ่งของห่วงโซ่ทีม Global Investing หลักทรัพย์บัวหลวง ระบุว่า ASML ผู้ผลิตเครื่อง EUV รายใหญ่เพียงรายเดียวของโลก เทคโนโลยี DRAM/HBM ยุคใหม่ต้องพึ่ง EUV จำนวนมากขึ้นในแต่ละ node ทำให้ ASML กลายเป็นผู้กำหนดเพดานการผลิตของทั้งอุตสาหกรรม
เครื่อง EUV ผลิตยาก ใช้เวลานาน และมีจำนวนจำกัด จึงเป็น ‘คอขวด upstream’ อย่างแท้จริง นักลงทุนไทยสามารถเข้าถึงได้ผ่าน DR ‘ASML01’
ภาพ: Narumon Bowonkitwanchai / Getty Images


