ความสงบของ Google—ทางออกของ OpenAI?
เผยแพร่แล้ว: 2023-04-19คุณลักษณะใหม่ของ Google มีศักยภาพในการปฏิวัติรูปแบบภาษาขนาดใหญ่ (LLM) เทคโนโลยีสุดล้ำที่เรียกว่า CALM—Confident Adaptive Language Modeling—ได้รับการออกแบบมาเพื่อเพิ่มความเร็ว LLM เช่น GPT-3 และ LaMDA โดยไม่ลดระดับประสิทธิภาพลง
ความสงบคืออะไร?
CALM เป็นเทคโนโลยีรูปแบบภาษาขั้นสูงที่ Google ได้พัฒนาขึ้นเพื่อปรับปรุงความสามารถของเครื่องมือค้นหาในการทำความเข้าใจและตีความคำค้นหาในภาษาธรรมชาติ ย่อมาจาก Continuous Adaptation for Language Model ซึ่งโดยพื้นฐานแล้วหมายความว่าเทคโนโลยีมีการเรียนรู้และปรับตัวอย่างต่อเนื่องเพื่อปรับปรุงประสิทธิภาพ
Google ใช้เทคโนโลยีโมเดลภาษามาหลายปีแล้ว แต่ CALM เป็นก้าวสำคัญเนื่องจากสร้างขึ้นจากสถาปัตยกรรมโครงข่ายประสาทเทียมที่ช่วยให้ประมวลผลข้อความค้นหาด้วยภาษาธรรมชาติได้อย่างมีประสิทธิภาพมากขึ้น CALM ใช้แบบจำลองที่ใช้หม้อแปลงไฟฟ้าซึ่งสามารถวิเคราะห์และทำความเข้าใจบริบทของแบบสอบถาม ทำให้สามารถตัดสินใจได้ว่างานใดต้องใช้ความพยายามมากขึ้น เช่นเดียวกับสมองของมนุษย์ที่มอบพลังงาน ดังนั้น เราจึงไม่ต้องใช้ความพยายามแบบเดียวกันในการเทครีมเทียมในกาแฟของเรา ในขณะที่เราเขียนอีเมลทั่วทั้งบริษัท คำว่า CALM ทำให้โมเดลภาษาของ AI สงบลง
โดยทั่วไปแล้ว LLM จะได้รับการฝึกอบรมเกี่ยวกับข้อมูลข้อความจำนวนมหาศาลเพื่อเรียนรู้รูปแบบและความสัมพันธ์ของเอนทิตีในภาษา ตัวอย่างเช่น GPT เวอร์ชันเริ่มต้นได้รับการฝึกอบรมในปี 2018 บน BookCorpus ซึ่งประกอบด้วย 985 ล้านคำ ในปีเดียวกันนั้น BERT ได้รับการฝึกอบรมเกี่ยวกับการผสมระหว่าง BookCorpus และ Wikipedia ภาษาอังกฤษ รวมเป็น 3.3 พันล้านคำ
LLM ล่าสุด เช่น GPT-3 ได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลที่ใหญ่ขึ้น GPT-3 มีพารามิเตอร์มากกว่า 175 พันล้านพารามิเตอร์ และได้รับการฝึกอบรมเกี่ยวกับข้อความประมาณ 45 TB ข้อมูลการฝึกอบรมที่ใช้สำหรับ GPT-3 ไม่ได้รับการเปิดเผยต่อสาธารณะ แต่เชื่อว่ามีแหล่งข้อมูลที่หลากหลาย เช่น หนังสือ บทความ และเว็บไซต์
ตอนนี้ลองนึกภาพข้อมูลทั้งหมดในห้องสมุด คุณนั่งอยู่คนเดียวในห้องสมุด ทันใดนั้น ผู้คนก็เริ่มเดินเข้ามาที่ประตูพร้อมกับสอบถาม “เล่าประวัติศาสตร์อเมริกาใต้ให้ฟังหน่อย” “นมที่ปราศจากนมชนิดใดดีที่สุดสำหรับฉัน” “ธุรกิจของฉันจะได้ประโยชน์อย่างไรจากการใช้การตลาดแบบอินฟลูเอนเซอร์” “เขียน 10 ตัวเลือกสำหรับสำเนาโซเชียลมีเดียให้ฉัน” “ทำหน้าที่เป็นนักข่าวและเขียนข้อความเกี่ยวกับภาวะเศรษฐกิจถดถอยที่กำลังจะมาถึงให้ฉันฟัง” คุณคงจะรู้สึกหนักใจไม่น้อยเหมือนกันใช่ไหม? คุณไม่รู้ว่าจะจัดลำดับความสำคัญของคำถามเหล่านี้อย่างไร และคุณต้องกลั่นกรองข้อมูลนับล้านเพื่อหาคำตอบที่ถูกต้องเพื่อนำเสนอต่อผู้ถาม
นี่คือสิ่งที่ LLM ทำทุกครั้งที่เราขอให้พวกเขาสร้างบางสิ่ง—และเหตุใดจึงอาจมีประเด็นในวันที่แพลตฟอร์มขอให้คุณกลับมาในภายหลังเนื่องจากมีการเข้าชมสูง แต่ถ้า LLM มีวิธีกรองข้อมูลอย่างมีประสิทธิภาพมากขึ้น—เพื่อรู้ว่าส่วนใดของคำถามแต่ละข้อที่ควรจัดลำดับความสำคัญ อะไรที่ต้องใช้ “ความพยายามอย่างเต็มที่” เทียบกับ “ความพยายามบางส่วน” ก็อาจมีประสิทธิภาพมากกว่า
บทความทางวิชาการเกี่ยวกับ CALM กล่าวไว้ดังนี้:
“ความก้าวหน้าล่าสุดในโมเดลภาษาขนาดใหญ่ (LLM) ที่ใช้ Transformer ได้นำไปสู่การปรับปรุงประสิทธิภาพการทำงานที่สำคัญในหลายงาน
กำไรเหล่านี้มาพร้อมกับขนาดโมเดลที่เพิ่มขึ้นอย่างมาก ซึ่งอาจนำไปสู่การใช้งานที่ช้าและมีค่าใช้จ่ายสูงในเวลาอนุมาน
อย่างไรก็ตาม ในทางปฏิบัติ ชุดรุ่นที่สร้างโดย LLM นั้นประกอบด้วยระดับความยากที่แตกต่างกัน
แม้ว่าการคาดคะเนบางอย่างจะได้รับประโยชน์จากความจุของโมเดลอย่างแท้จริง แต่การดำเนินการต่ออื่นๆ นั้นไม่สำคัญและสามารถแก้ไขได้ด้วยการประมวลผลที่ลดลง
…แม้ว่าโดยทั่วไปแล้วโมเดลขนาดใหญ่จะทำได้ดีกว่า แต่อาจไม่จำเป็นต้องใช้การคำนวณในปริมาณที่เท่ากันสำหรับทุกอินพุตเพื่อให้ได้ประสิทธิภาพที่ใกล้เคียงกัน (เช่น ขึ้นอยู่กับว่าอินพุตนั้นง่ายหรือยาก)”
สีแดง = ความจุเต็ม/สีเขียว = ความจุน้อยกว่าครึ่งหนึ่ง
ภาพด้านบนแสดงแนวคิดนี้ในการดำเนินการ นักวิจัยเขียนว่า:
'สีแสดงถึงจำนวนเลเยอร์การถอดรหัสที่ใช้สำหรับแต่ละโทเค็น—เฉดสีเขียวอ่อนบ่งชี้ว่าน้อยกว่าครึ่งหนึ่งของเลเยอร์ทั้งหมด โทเค็นที่เลือกเพียงไม่กี่ตัวเท่านั้นที่ใช้ความจุเต็มของโมเดล (สีแดง) ในขณะที่โทเค็นส่วนใหญ่ โมเดลจะออกหลังจากเลเยอร์การถอดรหัสหนึ่งหรือสองสามเลเยอร์ (สีเขียว)”
นักวิจัยยังตั้งข้อสังเกตในข้อสรุปของพวกเขาว่าการนำ CALM ไปใช้ใน LLM จำเป็นต้องมีการแก้ไขเพียงเล็กน้อยเพื่อช่วยให้โมเดลภาษาเพิ่มความเร็ว โดยพื้นฐานแล้วสิ่งนี้ทำให้ LLMs ได้รับการฝึกอบรมเร็วขึ้นและมีประสิทธิภาพมากขึ้น หมายความว่าพวกเขาสามารถประมวลผลข้อมูลได้มากขึ้นและให้ผลลัพธ์ที่แม่นยำยิ่งขึ้นในเวลาที่น้อยลง
สิ่งนี้มีความหมายที่ชัดเจนสำหรับธุรกิจในทุกอุตสาหกรรม เนื่องจากหมายความว่าพวกเขาสามารถรวบรวมข้อมูลเชิงลึกและตัดสินใจได้รวดเร็วและแม่นยำยิ่งขึ้น แต่ทั้งหมดนี้มีความหมายอย่างไรสำหรับนักการตลาด B2B?
ผลกระทบของ CALM สำหรับนักการตลาด B2B
การตลาดเนื้อหา
คุณลักษณะ CALM สามารถมีผลกระทบอย่างมีนัยสำคัญต่อกลยุทธ์การตลาดเนื้อหา B2B เนื่องจากสามารถช่วยนักการตลาดสร้างเนื้อหาที่ถูกต้องและเกี่ยวข้องมากขึ้นโดยอิงจากข้อมูลเรียลไทม์และข้อมูลเชิงลึก ด้วยการเข้าถึงข้อมูลที่มากขึ้นและดีขึ้น LLM สามารถช่วยให้นักการตลาดระบุแนวโน้มและโอกาสใหม่ๆ ได้รวดเร็วยิ่งขึ้น ทำให้พวกเขาตอบสนองได้เร็วขึ้นและเป็นผู้นำในการแข่งขัน สิ่งนี้อาจมีความสำคัญอย่างยิ่งในอุตสาหกรรมที่มีการพัฒนาอย่างรวดเร็วหรือเผชิญกับการหยุดชะงัก
การมีส่วนร่วมของลูกค้าและการปรับเปลี่ยนในแบบของคุณ
นักการตลาด B2B สามารถปรับปรุงกลยุทธ์การมีส่วนร่วมกับลูกค้าได้โดยการนำเสนอเนื้อหาส่วนบุคคลที่สอดคล้องกับกลุ่มเป้าหมายของพวกเขา LLM สามารถช่วยระบุรูปแบบในพฤติกรรมและความชอบของลูกค้า ช่วยให้นักการตลาดสามารถปรับแต่งข้อความและเนื้อหาได้อย่างมีประสิทธิภาพมากขึ้น สิ่งนี้มีความสำคัญอย่างยิ่งในอุตสาหกรรมที่มีผลิตภัณฑ์ที่ซับซ้อนหรือทางเทคนิค ซึ่งการส่งข้อความแบบกำหนดเป้าหมายสามารถสร้างความแตกต่างได้มาก นักการตลาดยังสามารถใช้ประโยชน์จากเทคโนโลยีเพื่อปรับปรุงการบริการลูกค้าของพวกเขา โดยการตอบสนองที่ถูกต้องและตรงประเด็นต่อการสอบถามของลูกค้า
แปล
เทคโนโลยี CALM สามารถปรับปรุงความแม่นยำและประสิทธิผลของเครื่องมือแปลภาษาอัตโนมัติ ซึ่งเป็นสิ่งที่ประเมินค่าไม่ได้สำหรับบริษัท B2B ที่ดำเนินงานในตลาดโลก ด้วยการปรับปรุงความแม่นยำในการแปล CALM ช่วยให้บริษัท B2B สามารถสื่อสารกับลูกค้าและคู่ค้าในต่างประเทศได้อย่างมีประสิทธิภาพมากขึ้น
แน่นอน CALM เป็นเพียงส่วนหนึ่งของปริศนาเมื่อพูดถึงการตลาดแบบ B2B สิ่งสำคัญสำหรับนักการตลาดคือการติดตามการพัฒนาล่าสุดทั้งหมดในสายงานของตน ตั้งแต่พฤติกรรมผู้บริโภคที่เปลี่ยนไปไปจนถึงช่องทางการตลาดและกลยุทธ์ทางการตลาดใหม่ๆ หากคุณต้องการความช่วยเหลือในการเรียนรู้การพัฒนา AI ล่าสุดในกลยุทธ์ทางการตลาดของคุณ โปรดติดต่อ