×

WWDC 2024 กว่าจะพูดคำว่า AI ยากเหมือนกลัวดอกพิกุลจะร่วง แถมเลี่ยงบาลีด้วยการพูดว่าเป็นการเปิดตัว Apple Intelligence แทน

11.06.2024
  • LOADING...

จบลงไปแล้วสำหรับ Keynote ในงาน WWDC 2024 ซึ่งหลายคนตั้งตารอว่า Apple จะหยิบยกเรื่อง AI ที่กำลังเป็นเทรนด์ที่มาแรงในแวดวงยักษ์ไอทีขึ้นมาพูดหรือไม่ หลังจากที่รายอื่นๆ พูดเรื่องนี้ไปหมดแล้ว

 

แน่นอน Apple ย่อมไม่พลาดที่จะพูดเรื่องนี้ แต่กว่าที่ ทิม คุก ผู้เป็นซีอีโอจะยอมพูดคำว่า AI อย่างจริงจังก็ผ่านไปร่วม 1 ชั่วโมง ซึ่งยากเหมือนกลัวดอกพิกุลจะร่วง ในขณะที่การนำเสนอซอฟต์แวร์อื่นๆ นั้น ไม่ว่าจะเป็น iOS 18, iPadOS 18 หรือ macOS Sequoia แทบจะไม่พูดคำนี้ แต่เลี่ยงบาลีไปใช้คำว่า ‘แมชชีนเลิร์นนิง’ แทน

 

แต่ในที่สุด Apple ก็เทเวลาให้กว่า 40 นาทีสำหรับนำเสนอ AI ของตัวเองที่ตั้งชื่ออย่างเก๋ๆ ว่า ‘Apple Intelligence’ ซึ่ง THE STANDARD WEALTH จะมาสรุปให้ฟังว่ามีอะไรที่ ‘ว้าว’ และสมกับการรอคอยจากยักษ์ใหญ่แบบ Apple หรือไม่

 

ประเด็นไฮไลต์ของงาน Apple ครั้งนี้คือการประกาศชัดว่า Apple Intelligence จะถูกนำมาใช้เป็นระบบอัจฉริยะส่วนบุคคลสำหรับ iPhone, iPad และ Mac ที่จะทำงานร่วมกับซอฟต์แวร์ iOS, iPadOS และ macOS ในทุกส่วน เพื่อทำความเข้าใจภาษา สร้างรูปภาพ และทำสิ่งต่างๆ ข้ามไปมาระหว่างแอป รวมทั้งพิจารณาถึงบริบทเฉพาะตัวบุคคลเพื่อให้สิ่งที่ทำอยู่ทุกวันเป็นเรื่องง่ายและรวดเร็วยิ่งขึ้น

 

ทิมเน้นย้ำว่า การนำ AI มาใช้ในมุมมองของบริษัทนั้นจะต้องตอบโจทย์ความเป็นส่วนตัวและความเฉพาะเจาะจงในระดับบุคคล ทำให้บริษัทไม่อยากใช้คำว่า Artificial Intelligence (AI) เพราะพวกเขาให้เหตุผลว่า “นี่มันคืออีกขั้นของ AI และมันคือ Personalized Intelligence” ที่เข้าใจชีวิตประจำวันของผู้ใช้งานมากกว่าเมื่อเทียบกับ AI ตัวอื่นที่มีอยู่ในตลาด ณ ขณะนี้ เพราะแม้ว่าเทคโนโลยีเหล่านั้นจะมีความฉลาดล้ำหน้า แต่มันยังขาดเสน่ห์ในเรื่องความเข้าใจพฤติกรรมที่คนแต่ละคนมีแตกต่างกันออกไป

 

โดยฟีเจอร์หลักๆ มีดังนี้

 

Priority Notification: การแจ้งเตือนที่ดึงข้อมูลสำคัญที่สุดขึ้นมาแสดง ในขณะที่ Apple Intelligence จะช่วยสแกนและสรุปการแจ้งเตือนยาวๆ เพื่อแสดงใจความหลักของข้อความไว้บนหน้าจอล็อก

 

Writing Tools: Rewrite ฟีเจอร์ที่จะช่วยให้ผู้ใช้มั่นใจกับงานเขียนของตน เปิดโอกาสให้ผู้ใช้ได้เลือกสิ่งที่ตนเขียนหลากหลายเวอร์ชันเพื่อปรับโทนให้เหมาะกับผู้อ่านและงานที่ทำอยู่ หรือ Proofread ที่ช่วยตรวจสอบไวยากรณ์ คำที่เลือกใช้ และโครงสร้างประโยค พร้อมเสนอแนะสิ่งที่ควรแก้ โดยฟีเจอร์นี้จะถูกรวมอยู่ในแอปพลิเคชันของ Apple และผู้ให้บริการแอปต่างๆ

 

การสั่งงานแบบ Cross Application: Apple Intelligence ทำให้ Siri สามารถทำสิ่งใหม่ๆ ได้หลายอย่าง ทั้งในแอปของ Apple และแอปของบริษัทอื่น หรือกระทั่งทำข้ามไปมาระหว่างแอปได้ เช่น ผู้ใช้สามารถพูดว่า “แสดงบทความเกี่ยวกับจิ้งหรีดจาก Reading List ขึ้นมาหน่อย” หรือ “ส่งภาพบาร์บีคิวเมื่อวันเสาร์ไปให้ Malia” Siri ก็จัดการให้ได้

 

Imagen Playground: ให้ผู้ใช้สามารถสร้างภาพครีเอทีฟจากอัลบั้มรูปภาพ (Photo Library) ได้ในไม่กี่วินาที โดยเลือกจาก 3 สไตล์ที่มีให้ ได้แก่ Animation, Illustration หรือ Sketch

 

และแน่นอนว่า Apple จะละเลยการพูดถึงการรักษาความเป็นส่วนตัวไปไม่ได้ โดยทิมเอ่ยถึงประเด็นนี้หลายครั้ง ซึ่ง Apple แถลงว่าฟีเจอร์ AI ส่วนใหญ่สามารถประมวลผลได้บนอุปกรณ์ (On-Device AI) แต่ผู้ใช้งานจำเป็นต้องมีชิป A17 Pro ซึ่ง ณ ปัจจุบันมีแค่ใน iPhone 15 Pro กับ 15 Pro Max หรือชิป M Series (M1, M2, M3 และ M4) ที่อยู่ในหลายผลิตภัณฑ์ใหม่ของ Apple แต่สำหรับผลิตภัณฑ์ที่มีชิปรุ่นเก่าหรืองานประเภทซับซ้อนก็ยังสามารถเข้าถึง AI ได้ด้วย Private Cloud เพื่อรักษาความเป็นส่วนตัวและความปลอดภัยของข้อมูลผู้ใช้งาน

 

“เราอยากทำให้การเข้าถึงคลาวด์ด้วย iPhone ของคุณปลอดภัยและเป็นส่วนตัวมากขึ้น” เครก เฟเดอริงกิ รองประธานอาวุโสฝ่ายวิศวกรรมซอฟต์แวร์ Apple กล่าว

 

นอกจากนี้ Apple ยังประกาศความร่วมมือกับ OpenAI ที่จะนำโมเดล GPT-4o เข้ามาใช้กับ Siri อีกด้วย ซึ่งการใช้งานจะมาในรูปแบบทางอ้อมที่ผู้ใช้จะไม่ได้คุยกับ ChatGPT โดยตรง แต่คุยผ่าน Siri และจะถูกถามความสมัครใจการใช้งานเมื่อ Siri เห็นควรว่าต้องปรึกษา ChatGPT

 

สุดท้ายนี้ ทุกอย่างที่ Apple ประกาศออกมายังไม่เปิดให้ใช้บริการ ณ ปัจจุบัน แต่จะมาอย่างเป็นทางการในช่วงเดือนกันยายน ซึ่งเป็นกรอบเวลาที่ Apple เปิดตัวผลิตภัณฑ์ใหม่ๆ เช่น iPhone หรือ Apple Watch เป็นประจำมาหลายปีติดต่อกัน

 

ภาพ: Apple

อ้างอิง:

  • LOADING...

READ MORE




Latest Stories

X
Close Advertising