กระแสดิสรัปชันวงการ AI ของสหรัฐอเมริกาจากการมาของ DeepSeek ในสัปดาห์นี้ ทำให้หลายคนเริ่มเห็นถึงแนวโน้มสำคัญที่เกิดขึ้น และ Andrew Ng บุคคลที่เป็น 1 ใน 100 ผู้ทรงอิทธิพลด้าน AI ระดับโลกก็ออกมาแสดงความเห็นในเรื่องนี้ โดยเขามองว่ามี 3 บทเรียนสำคัญที่ DeepSeek กำลังพิสูจน์ให้ทั่วโลกเห็น
- จีนกำลังไล่ตามสหรัฐฯ ในด้าน Generative AI
ในช่วงเดือนพฤศจิกายน 2022 หลังจาก ChatGPT เปิดตัว Ng มองว่าสหรัฐฯ นำหน้าจีนไปไกลมากในด้าน Generative AI แต่เพียงแค่ 2 ปี การทิ้งห่างที่สหรัฐฯ เคยทำได้อย่างมากกับจีนนั้นลดลงอย่างรวดเร็ว
“แม้ว่าคนในสหรัฐฯ และจีนจะมองว่าจีนยังคงล้าหลัง แต่โมเดลจากจีนอย่าง Qwen, Kimi, InternVL และ DeepSeek แสดงให้เห็นว่าจีนปิดช่องว่างได้เร็วมาก และในงานบางประเภท เช่น การใช้ AI สร้างวิดีโอ จีนก็อาจก้าวนำไปแล้ว” Ng กล่าว
DeepSeek-R1 ได้รับเสียงชื่นชมอย่างมาก เพราะเปิดให้ใช้งานแบบ Open Weight พร้อมรายงานทางเทคนิคที่ให้ข้อมูลโดยละเอียด
แต่ในทางกลับกัน บริษัทสหรัฐฯ หลายแห่งกลับไปเน้นการผลักดันให้มีการออกกฎระเบียบที่เข้มงวดกับโมเดลแบบโอเพนซอร์สมากขึ้น โดยใช้ประเด็นเรื่อง ‘ภัยคุกคามจาก AI’ มาเป็นข้ออ้าง ซึ่ง Ng แสดงความเห็นว่า หากสหรัฐฯ ยังคงกดดันโมเดลแบบโอเพนซอร์สต่อไป จีนอาจขึ้นมาครองความเป็นผู้นำในด้านนี้ และภาคธุรกิจจำนวนมากอาจต้องใช้โมเดลที่สะท้อน ‘ค่านิยมจีน’ มากกว่าค่านิยมแบบอเมริกัน
- โมเดลที่เปิดให้ใช้งานได้อย่างอิสระกำลังเปลี่ยนนิยามของโมเดลพื้นฐาน (Foundation Model)
ค่าใช้จ่ายในการใช้งาน AI ลดลงอย่างต่อเนื่อง ตัวอย่างเช่น ค่าใช้จ่ายของ OpenAI o1 อยู่ที่ 60 ดอลลาร์สหรัฐต่อ 1 ล้านโทเคน แต่ DeepSeek-R1 ใช้เพียง 2.19 ดอลลาร์สหรัฐ หรือต่ำกว่าถึง 30 เท่า
Ng มองว่าบริษัทที่ต้องพึ่งพาการฝึกโมเดลพื้นฐานและการขาย API เพื่อสร้างรายได้เป็นการทำธุรกิจที่ไม่ง่าย เพราะบริษัทจำนวนมากยังไม่สามารถคืนทุนจากค่าใช้จ่ายมหาศาลในการฝึกโมเดลได้
ในทางกลับกัน โมเดลการพัฒนาแอปพลิเคชันที่ใช้โมเดลเหล่านี้กลับเปิดโอกาสทางธุรกิจมากมาย ขณะนี้นักพัฒนาแอปสามารถเข้าถึงโมเดลประสิทธิภาพสูงได้ในราคาถูก เพื่อสร้างแชตบอตบริการลูกค้า, เครื่องมือสรุปอีเมล, AI สำหรับการแพทย์, ผู้ช่วยด้านกฎหมาย และอีกมากมาย
- การขยายขนาดโมเดลไม่ใช่ทางเลือกเดียวของความก้าวหน้าใน AI
ที่ผ่านมา Ng เคยเชื่อและสนับสนุนแนวคิดที่ว่า การขยายขนาดโมเดล (Scaling Up) คือกุญแจสู่ความก้าวหน้าของ AI และนั่นก็เป็นแนวคิดเดียวกันที่บริษัทหลายแห่งพยายามผลักดัน จนสามารถระดมทุนได้ระดับพันล้านดอลลาร์สหรัฐ
อย่างไรก็ตาม การมาของ DeepSeek-R1 ทำให้ Ng เปลี่ยนมุมมอง เพราะมันแสดงให้เห็นว่าการพัฒนา AI สามารถไปข้างหน้าต่อได้โดยไม่ต้องใช้กำลังประมวลผลมหาศาล โดยกรณีของ DeepSeek นั้นใช้ชิปประมวลผล GPU ของ NVIDIA รุ่น H800 แทน H100 เนื่องจากมาตรการกีดกันการส่งชิปของสหรัฐฯ แต่ก็สามารถพัฒนาโมเดลที่มีประสิทธิภาพสูง โดยใช้ต้นทุนฝึกโมเดลเพียง 6 ล้านดอลลาร์สหรัฐ (ไม่นับรวมค่าใช้จ่ายด้านการวิจัย)
สิ่งที่เกิดขึ้นทำให้มีการตั้งคำถามว่า ความต้องการด้านการประมวลผลจะลดลงหรือไม่? แต่ Ng กล่าวว่า ยังเป็นสิ่งที่ไม่แน่ชัด เพราะการทำให้เทคโนโลยีถูกลงอาจกระตุ้นให้เกิดความต้องการมากขึ้นในระยะยาว ซึ่งเขายังเชื่อว่ามนุษยชาติจะใช้พลังการประมวลผลและ AI มากขึ้นเรื่อยๆ แม้ว่าต้นทุนจะถูกลงก็ตาม
และนี่ก็เป็น 3 ประเด็นหลักที่ Ng ประเมินจากการผงาดขึ้นของ DeepSeek
อ้างอิง: