หลังจาก OpenAI ชิงประกาศเปิดตัวโมเดล AI ใหม่ไปเมื่อวันอังคารที่ผ่านมา GPT-4o ก็สร้างความตื่นเต้นให้กับคนทั่วโลกด้วยการรองรับรูปแบบการใช้งานหลากหลาย ทั้งเสียง ภาพ และข้อความ ได้ในเวลาเดียวกัน ทำให้ ChatGPT สามารถมีบทสนทนากับผู้ใช้งานที่ทำได้แทบจะเหมือนกับ ‘คนสองคนคุยกัน’ ผ่านความเข้าใจบริบทและอารมณ์ของมนุษย์ที่ AI พูดคุยด้วย โดย Mira Murati หัวหน้าฝ่ายเทคโนโลยีของ OpenAI กล่าวในงานเปิดตัวว่า “นี่ถือเป็นก้าวต่อไปของปฏิสัมพันธ์ระหว่างมนุษย์เราและคอมพิวเตอร์”
อย่างไรก็ตาม ภายในเวลา 24 ชั่วโมง มีอีกหนึ่งอีเวนต์ที่ทำให้วงการ AI ต้องตื่นตัวอีกครั้งเมื่อ Google โต้กลับ OpenAI ด้วยการเปิดตัวนวัตกรรมใหม่ๆ ภายในงานสัมมนานักพัฒนาประจำปี Google I/O 2024 เมื่อเช้ามืดวันพุธที่ผ่านมา โดยมี Gemini โมเดล AI เรือธงของบริษัทเป็นธีมหลักของงาน และเอ่ยถึงคำว่า ‘AI’ ทั้งหมด 121 ครั้งภายในเวลางานประมาณ 2 ชั่วโมง แสดงให้เห็นถึงโฟกัสของ Google กับปัญญาประดิษฐ์อย่างเต็มตัว
จุดที่น่าสังเกตของการประกาศพัฒนาการเทคโนโลยีของทั้งสองบริษัทอยู่ที่ความคล้ายกันของทิศทางที่พวกเขากำลังให้ความสำคัญ นั่นคือความหลากหลายของช่องทางที่ AI ใช้ประมวลผล เพื่อให้เข้าใจสารที่ได้รับและสามารถสร้างผลลัพธ์ออกมาในหลายรูปแบบ ทั้งเสียง ภาพ และข้อความ ซึ่งดูเหมือนว่าทิศทางของ AI ต่อจากนี้คือการแข่งขันเพื่อสร้างหุ่นยนต์ที่มีความสามารถในการสื่อสารเทียบเคียงกับมนุษย์ (Conversational AI)
GPT-4o อัปเกรดใหม่ที่เปลี่ยนแปลงการใช้งาน ChatGPT
หนึ่งในฟีเจอร์ของ GPT-4o ที่ผู้คนให้ความสนใจอย่างมากก็คือความสามารถที่ AI สามารถแสดงอารมณ์ความรู้สึกได้ โดยระหว่างการสาธิตทีมงานของ OpenAI ได้พูดกับ ChatGPT ด้วยคำสั่งที่ขอให้เล่านิทานก่อนนอนที่เกี่ยวกับหุ่นยนต์และความรัก ซึ่งผลลัพธ์ที่ออกมาก็ทำให้หลายคนฮือฮา เพราะ ChatGPT ไม่ได้ตอบกลับด้วยน้ำเสียงเรียบๆ แต่เป็นเสียงที่มีความสดใสและน่าตื่นเต้น
เครดิต: OpenAI
นอกจากนี้ GPT-4o ยังเป็นเสมือนเพื่อนคู่สนทนาที่คอยแนะนำสิ่งต่างๆ สามารถอธิบายภาพที่เห็นได้ เช่น กราฟ และสิ่งของรอบตัว เป็นต้น โดยในตอนนี้ ChatGPT สามารถเข้าใจภาษาได้มากถึง 50 ภาษา พร้อมทั้งยังเป็นล่ามให้ได้อีกด้วย และที่สำคัญผู้ใช้งานเวอร์ชันฟรีก็เข้าถึงบริการเหล่านี้ได้เช่นกัน แต่อาจยังมีข้อจำกัดในจำนวนการส่งคำสั่งที่ผู้ใช้งานแบบจ่ายรายเดือนจะสามารถทำได้มากกว่าถึง 5 เท่า รวมฟีเจอร์ใหม่ๆ ที่คนใช้ฟรีอาจต้องรอไปก่อน
ยุคของ Gemini กับการขยับตัวครั้งใหญ่ของ Google
บริษัทบิ๊กเทคผู้ครองตลาดเสิร์ชเอนจินได้ประกาศว่าการค้นหาข้อมูลแบบเดิมที่เราคุ้นเคยกำลังจะเปลี่ยนไป เมื่อ Google ได้เผยให้เห็นถึงศักยภาพใหม่ในการค้นคว้าข้อมูลที่นำ AI เข้ามาช่วยตอบคำถามที่มีความซับซ้อนและละเอียดมากขึ้น เพื่อสนองความต้องการของผู้ใช้งานที่ให้ความสำคัญกับความแม่นยำและความรวดเร็ว
ก่อนหน้านี้กลไกการค้นหาข้อมูลของเสิร์ชเอนจินคือการพยายามเชื่อมโยง ‘คีย์เวิร์ด’ เพื่อตามหาคอนเทนต์ที่เกี่ยวข้องกับคำที่ผู้ใช้งานป้อนลงไป ผ่านการไล่หาข้อมูลที่ถูกเก็บไว้ในฐานข้อมูล และเมื่อคำถามมีความยาวและซับซ้อน ผลลัพธ์ที่ได้ก็อาจไม่ตรงตามความต้องการผู้ใช้งานเท่าที่ควร แต่ปัญหานั้นกำลังจะถูกแก้เมื่อ Google ประกาศฟีเจอร์ใหม่ AI Overviews ซึ่งเป็นการนำ Gemini เข้ามาประมวลผลและตีความข้อสงสัยของผู้ใช้งาน จากนั้น AI จะทำหน้าที่สรุปคำตอบที่มีความเฉพาะเจาะจงกับคำถาม เปลี่ยนจากการแสดงลิงก์ที่ผู้ใช้งานต้องคลิกดูให้กลายเป็นการสรุปจาก AI พร้อมแสดงแหล่งอ้างอิง ทำให้การหาข้อมูลเป็นไปในเชิงการสนทนาและตอบได้ตรงคำถามมากขึ้น
Liz Reid หัวหน้าทีม Search ได้กล่าวสรุปไว้สั้นๆ เกี่ยวกับการเปลี่ยนแปลงครั้งนี้ว่า “Google จะเป็นผู้ที่ไปกูเกิลข้อมูลเพื่อกลับมาสรุปให้เรา”
อย่างไรก็ตาม AI Overviews จะเริ่มเปิดตัวในสหรัฐอเมริกาเร็วที่สุดสัปดาห์นี้ และมีแผนจะขยายขอบเขตการให้บริการสู่ประเทศอื่นๆ ตามมาในอนาคตอันใกล้
สำหรับตัว Gemini ทาง Google ก็ไม่ยอมน้อยหน้า OpenAI โดยบริษัทแถลงการเปิดตัว Gemini 1.5 Flash ที่ถูกออกแบบให้เป็นโมเดลที่มีน้ำหนักเบา เพื่อประสิทธิภาพการรับมือกับงานที่มีความเฉพาะตัวและมีความถี่บ่อยกว่า อีกทั้งยังช่วยประหยัดต้นทุนกว่าโมเดลที่น้ำหนักมากกว่าด้วย
ภาพ: Google
Gemini 1.5 Pro โมเดล AI ที่เปิดตัวครั้งแรกในเดือนกุมภาพันธ์ปีนี้ก็ถูกอัปเกรดเช่นเดียวกัน โดยขยาย Context Window เพิ่มจาก 1 ล้านให้เป็น 2 ล้านโทเคน ซึ่งเทียบได้กับปริมาณตัวหนังสือประมาณ 1,500 หน้าเลยทีเดียว หมายความว่า AI จะสามารถจดจำบทสนทนาที่เคยเกิดขึ้นย้อนหลังได้นานกว่า ทำให้มันเข้าใจบริบทได้กว้างขึ้น ซึ่งนำมาสู่คำตอบที่ตรงประเด็นมากขึ้น
ความเหมือนที่แตกต่าง (หรือไม่?)
สังเวียนการแข่งขันในการเป็นเบอร์ 1 ในด้าน AI ของทั้งสองบริษัทกำลังดุเดือดขึ้น เพราะนอกจากโมเดลตัวใหม่ที่ประกาศออกมาแล้ว การปล่อยฟีเจอร์ต่างๆ ก็ดูจะคล้ายกันในหลายกรณีการใช้งานด้วย
เริ่มจาก Veo เครื่องมือสำหรับสร้างวิดีโอผ่านการส่งคำสั่งตัวหนังสือที่ Google ประกาศออกมาในงานเมื่อวันที่ 14 พฤษภาคม ซึ่งผู้ใช้งานจะสามารถสร้างคลิปวิดีโอความคมชัด 1080p ได้ง่ายๆ ผ่านการเขียนข้อความสั่ง หรือจะเลือกเสริมด้วยอินพุตรูปภาพพร้อมคำสั่งก็ได้ และหากผลลัพธ์ออกมาไม่ถูกใจ ผู้ใช้งานก็สามารถแก้ไขได้โดยเขียนคำสั่งเพิ่ม ไม่ว่าจะเป็นการทำแบบ Time-Lapse หรือให้ถ่ายจากมุมสูงก็ทำได้ง่ายๆ โดยการประกาศ Veo ครั้งนี้ถือเป็นการโต้กลับ Sora เครื่องมือ Generative AI ในการทำวิดีโออีกตัวของ OpenAI ที่เผยให้สาธารณะเห็นไปเมื่อกลางเดือนกุมภาพันธ์ของปีนี้
ไฮไลต์ถัดมาของ Google ที่ดูคล้ายกับสิ่งที่ OpenAI สาธิตให้ดู กับความสามารถของ GPT-4o ในการขยายความสิ่งต่างๆ ที่ AI มองเห็นผ่านกล้องก็คือ Project Astra หรือเทคโนโลยีที่เป็นความพยายามของ Google ในการสร้างผู้ช่วย AI ที่ทำทุกอย่างเพื่อช่วยให้ชีวิตเราง่ายขึ้นได้ เช่น การช่วยอธิบายโค้ดผ่านกล้องสำหรับคนไม่รู้ ช่วยหาแว่นตาที่ลืมไว้ (จำเป็นต้องเห็นวัตถุก่อนถึงจะบอกตำแหน่งได้) หรือจะเป็นการขอคำแนะนำเกี่ยวกับงานที่วาดบนกระดานก็ทำได้เช่นกัน
ภาพ: Google
อีกหนึ่งสิ่งที่เคยเป็นข้อแตกต่างของ ChatGPT อย่าง GPT Store ก็กำลังจะมีคู่แข่งที่ชื่อว่า Gems ที่จะทำให้ผู้ใช้งานปรับแต่งแชตบอตของตัวเองตามต้องการได้ โดย Google ระบุในบทความแถลงข่าวว่า “ไม่ว่าคุณกำลังมองหาเพื่อนเล่นโยคะ ผู้ช่วยทำอาหาร ผู้ช่วยเขียนงานหรือโค้ด คุณก็สามารถสร้าง Gem ในเวอร์ชันที่ตอบโจทย์ความต้องการของคุณได้”
อย่างไรก็ตาม ฟีเจอร์ Gems ในตอนนี้ก็มีแผนว่าจะเปิดให้แค่ผู้ใช้งานประเภท Gemini Advanced หรือคนที่จ่ายเงินรายเดือนให้กับบริษัทสามารถเข้าถึงได้เท่านั้น ในทางกลับกัน OpenAI กำลังเดินหน้าจะเปิดให้คนใช้ GPT Store ฟรีในอีกไม่กี่สัปดาห์ข้างหน้า ซึ่งเป็นความเคลื่อนไหวที่น่าสนใจว่าการทำเช่นนี้จะส่งผลให้คนที่เคยจ่ายเงินให้กับ Google ย้ายไปพึ่งพิง ChatGPT หรือไม่ และมากน้อยแค่ไหน?
การแข่งขันรอบใหม่ของ Google และ OpenAI ได้เริ่มขึ้นอีกครั้ง หากมองในมุมธุรกิจ พวกเขาก็จำเป็นต้องสร้างนวัตกรรมให้ดีกว่าคู่แข่งเพื่อพยายามดึงดูดลูกค้า แต่สำหรับผู้บริโภค การมีตัวเลือกที่มากขึ้นก็ทำให้เราตัดสินใจได้ว่าบริการไหนเหมาะกับการใช้งานของเรา ซึ่งต่อจากนี้เราคงไม่อาจรู้ได้ว่าแต่ละฝ่ายจะงัดไม้เด็ดอะไรขึ้นมาสู้กันต่อ แต่สิ่งหนึ่งที่มีแนวโน้มจะเกิดขึ้นแน่นอนคือการเข้ามามีบทบาทมากขึ้นของเทคโนโลยี AI ในชีวิตประจำวันของพวกเรา
อ้างอิง: