เมื่อวันอังคารที่ผ่านมา (8 สิงหาคม) NVIDIA บริษัทด้านการออกแบบชิปชั้นนำของโลก ประกาศเปิดตัวชิปรุ่นใหม่ ‘GH200’ ที่จะมารองรับการทำงานของปัญญาประดิษฐ์ หรือ AI (Artificial Intelligence) เพื่อให้ต้นทุนสำหรับการทำงานลดลง ทั้งนี้ การเปิดตัวดังกล่าวยังเป็นไปเพื่อให้รุดหน้าจากคู่แข่งอย่าง AMD, Google และ Amazon
จากข้อมูลของ some estimates เปิดเผยว่า ในปัจจุบัน NVIDIA ถือได้ว่าครองตลาดของชิปสำหรับ AI ไปแล้วกว่า 80% จากการที่บริษัทมีความเชี่ยวชาญเฉพาะด้านสำหรับตัว GPU (Graphics Processing Unit) ซึ่งมีการนำไปใช้กันอย่างมากสำหรับพัฒนาและทำงานของ AI ที่เป็น LLM (Large Language Model) อย่างใน Google Bard หรือ ChatGPT ของ OpenAI
ซึ่งในขณะนี้ GPU ของ NVIDIA กำลังเผชิญภาวะขาดตลาด เนื่องจากบริษัทเทคโนโลยีต่างๆ ของโลกต่างต้องการชิปดังกล่าว เพื่อนำไปพัฒนาโมเดล AI เป็นของตัวเอง
โดย GH200 มี GPU ตัวเดียวกับชิป AI ที่ดีที่สุดในปัจจุบันของบริษัทอย่าง ‘H100’ ซึ่งมีหน่วยความจำที่ 80GB แต่มีจุดต่างตรงที่ว่า GH200 มีการนำไปเชื่อมกับหน่วยความจำที่มีขนาด 141GB และทำงานด้วย Central Processor 72 Core ของ ARM
ด้วยการที่การสร้างโมเดล AI ประกอบไปด้วย 2 ส่วน คือ Training เป็นขั้นตอนการป้อนและรวบรวมข้อมูลปริมาณมหาศาล และ Inference เป็นขั้นตอนการคาดการณ์หรือผลิตเนื้อหา (เช่น ภาพหรือคำบรรยาย) ซึ่งมีต้นทุนการดำเนินการที่ค่อนข้างสูง
ซึ่ง เจนเซน หวง ประธานเจ้าหน้าที่บริหารของ NVIDIA ชี้ว่า ชิป GH200 ตัวใหม่นี้ถูกออกแบบมาเพื่อการ Inference โดยเฉพาะ จึงทำให้ต้นทุนในการพัฒนา LLM ลดลงอย่างมีนัยสำคัญ
เจนเซนยังประกาศอีกด้วยว่า เราได้มีการเพิ่มกำลังให้กับโปรเซสเซอร์อันนี้ เพื่อจะได้รองรับการขยายตัวของ Data Center ไปทั่วโลก
ซึ่งชิปตัวใหม่อันนี้จะเปิดขายจากผู้กระจายสินค้าของ NVIDIA ภายในไตรมาสที่ 2 ของปีหน้า (2024) และจะมีการเปิดตัวอย่างให้ทดลองภายในสิ้นปีนี้ (2023)
การเปิดตัวของ NVIDIA ตามมาหลังจากที่คู่แข่งอย่าง AMD ประกาศเปิดตัวชิป AI ‘MI300X’ ที่สามารถรองรับหน่วยความจำได้ 192GB และถูกทำการตลาดถึงความสามารถต่างๆ ภายในงาน AI Conference ในช่วงที่ผ่านมา
อ้างอิง: