×

AI ทำได้แค่ 5% ของงานทั้งหมด! นักวิชาการ MIT ชี้ 10 ปีข้างหน้า คนยังไม่ตกงาน

11.10.2024
  • LOADING...

Daron Acemoglu ศาสตราจารย์ชื่อดังจาก MIT ออกมาเตือนถึงกระแสความคลั่งไคล้ AI ที่เกินจริงใน Wall Street และในหมู่ผู้บริหารระดับสูงของบริษัทต่างๆ ในสหรัฐอเมริกา เขาเชื่อว่า AI มีศักยภาพ แต่โอกาสที่มันจะสามารถตอบสนองความคาดหวังที่สูงเกินจริงนั้นมีน้อยมาก

 

Acemoglu คาดการณ์ว่า AI จะสามารถเข้ามาแทนที่หรือช่วยเหลือมนุษย์ได้เพียง 5% ของงานทั้งหมดในอีก 10 ปีข้างหน้า ซึ่งเป็นข่าวดีสำหรับคนทำงาน แต่เป็นข่าวร้ายสำหรับบริษัทที่ทุ่มเงินหลายพันล้านดอลลาร์ลงทุนในเทคโนโลยีนี้ โดยคาดหวังว่าจะช่วยเพิ่มประสิทธิภาพการทำงาน

 

“เงินจำนวนมากกำลังจะถูกใช้อย่างสูญเปล่า” Acemoglu กล่าว “แค่ 5% นี้ ไม่มีทางทำให้เกิดการเปลี่ยนแปลงครั้งใหญ่ทางเศรษฐกิจได้หรอก”

 

ศาสตราจารย์จาก MIT มองเห็น 3 สถานการณ์ที่อาจเกิดขึ้นกับ AI ในอีกไม่กี่ปีข้างหน้า โดยเริ่มจาก ‘สถานการณ์ที่ดีที่สุด’ กระแสความคลั่งไคล้ AI จะค่อยๆ ลดลงและการลงทุนใน AI จะมุ่งเน้นไปที่การใช้งานในระดับปานกลาง เช่น การนำ AI มาใช้เพื่อเพิ่มประสิทธิภาพในกระบวนการทำงานบางอย่าง หรือเพื่อช่วยในการตัดสินใจในเรื่องที่ไม่ซับซ้อนมากนัก

 

ต่อมาคือ ‘สถานการณ์ที่น่ากังวล’ กระแสความคลั่งไคล้ AI ยังคงดำเนินต่อไปอีกประมาณ 1 ปี นำไปสู่การล่มสลายของหุ้นเทคโนโลยีซึ่งจะทำให้นักลงทุน ผู้บริหาร และนักเรียน ผิดหวังกับเทคโนโลยีนี้ เนื่องจาก AI ไม่สามารถสร้างผลลัพธ์ที่เป็นรูปธรรมได้ตามที่คาดหวังไว้

 

และ ‘สถานการณ์ที่เลวร้ายที่สุด’ กระแสความคลั่งไคล้ AI ยังคงดำเนินต่อไปเป็นเวลาหลายปี ทำให้บริษัทต่างๆ ลดจำนวนพนักงานและทุ่มเงินหลายแสนล้านดอลลาร์ลงทุนใน AI “โดยที่ไม่เข้าใจว่าพวกเขาจะทำอะไรกับมัน”

 

ซึ่งองค์กรต้องดิ้นรนเพื่อจ้างพนักงานกลับคืนมาเมื่อเทคโนโลยีไม่เป็นไปตามที่คาดหวัง “ตอนนี้ผลลัพธ์เชิงลบจะแพร่กระจายไปทั่วทั้งเศรษฐกิจ” Acemoglu กล่าวเสริมว่าอาจเกิดภาวะเศรษฐกิจถดถอยจากการลงทุนที่สูญเปล่า และการว่างงานจำนวนมาก

 

Acemoglu เชื่อว่าสถานการณ์ที่น่าจะเป็นไปได้มากที่สุดคือ การผสมผสานระหว่างสถานการณ์ที่ 2 และ 3 เนื่องจากผู้บริหารหลายคนกลัวที่จะพลาดโอกาสในการเติบโตของ AI จึงยังคงลงทุนอย่างต่อเนื่อง และ “เมื่อกระแสความคลั่งไคล้ทวีความรุนแรงขึ้น การล่มสลายก็ไม่น่าจะเกิดขึ้นโดยไม่สร้างความปั่นป่วน”

 

Acemoglu ยอมรับว่า Large Language Models (LLMs) เช่น ChatGPT ของ OpenAI นั้นน่าประทับใจในหลายๆ ด้าน เช่น การสร้างข้อความที่ดูเป็นธรรมชาติหรือการแปลภาษา แต่เขามองว่า AI ยังไม่สามารถแทนที่มนุษย์ได้ในหลายๆ งาน

 

เนื่องจากปัญหาด้านความน่าเชื่อถือและการขาดสติปัญญาหรือวิจารณญาณในระดับเดียวกับมนุษย์ AI ยังไม่สามารถเข้าใจความหมายที่ซับซ้อนหรือตัดสินใจเชิงกลยุทธ์ในสถานการณ์ที่ซับซ้อนได้

 

นอกจากข้อจำกัดในด้านความน่าเชื่อถือและวิจารณญาณแล้ว AI ยังเผชิญกับความท้าทายอื่นๆ อีก เช่น AI อาจมีความลำเอียงเนื่องจากข้อมูลที่ใช้ในการฝึกฝน ซึ่งอาจนำไปสู่การเลือกปฏิบัติหรือความไม่เป็นธรรม รวมทั้งอาจถูกนำไปใช้ในทางที่ผิด เช่น การสร้างข่าวปลอมหรือการโจมตีทางไซเบอร์

 

และสุดท้าย ในบางกรณีอาจก่อให้เกิดคำถามด้านจริยธรรม เช่น การใช้ AI ในการตัดสินใจที่ส่งผลกระทบต่อชีวิตของผู้คน

 

อ้างอิง:

  • LOADING...

READ MORE




Latest Stories

Close Advertising
X
Close Advertising