CALM Google—Solusi untuk OpenAI?
Diterbitkan: 2023-04-19Fitur baru Google berpotensi merevolusi bidang model bahasa besar (LLM). Terobosan teknologi yang disebut CALM—Confident Adaptive Language Modeling—dirancang untuk mempercepat LLM seperti GPT-3 dan LaMDA, tanpa mengorbankan tingkat kinerja.
Apa itu TENANG?
CALM adalah teknologi model bahasa tingkat lanjut yang telah dikembangkan Google untuk meningkatkan kemampuan mesin telusurnya untuk memahami dan menginterpretasikan kueri bahasa alami. Ini singkatan dari Adaptasi Berkelanjutan untuk Model Bahasa, yang pada dasarnya berarti bahwa teknologi terus belajar dan beradaptasi untuk meningkatkan kinerjanya.
Google telah menggunakan teknologi model bahasa selama bertahun-tahun, tetapi CALM merupakan langkah maju yang signifikan karena dibangun di atas arsitektur jaringan saraf yang memungkinkannya memproses kueri bahasa alami dengan lebih efisien. CALM menggunakan model berbasis transformator yang dapat menganalisis dan memahami konteks kueri, membuatnya lebih mampu memutuskan tugas mana yang membutuhkan lebih banyak usaha. Seperti otak manusia mendelegasikan energi sehingga kita tidak melakukan upaya yang sama untuk menuangkan krimer ke dalam kopi kita seperti saat kita menulis email di seluruh perusahaan, CALM, yah, menenangkan model bahasa AI.
Secara umum, LLM dilatih pada sejumlah besar data teks untuk mempelajari pola dan hubungan entitas dalam bahasa tersebut. Misalnya, versi awal GPT dilatih pada 2018 di BookCorpus, terdiri dari 985 juta kata. Pada tahun yang sama, BERT dilatih tentang kombinasi BookCorpus dan Wikipedia bahasa Inggris, dengan total 3,3 miliar kata.
LLM yang lebih baru, seperti GPT-3, telah dilatih pada kumpulan data yang lebih besar. GPT-3 memiliki lebih dari 175 miliar parameter dan dilatih pada sekitar 45 TB teks. Data pelatihan yang digunakan untuk GPT-3 tidak diungkapkan kepada publik, namun diyakini mencakup beragam sumber, seperti buku, artikel, dan situs web.
Sekarang bayangkan semua data itu di perpustakaan. Anda duduk sendirian di perpustakaan dan tiba-tiba, orang-orang mulai masuk ke pintu dengan pertanyaan. “Ceritakan tentang sejarah Amerika Selatan.” “Susu bebas susu apa yang terbaik untuk saya?” “Bagaimana bisnis saya mendapat manfaat dari penggunaan influencer marketing?” "Tuliskan saya 10 opsi untuk salinan media sosial" "Bertindak sebagai jurnalis dan tuliskan saya salinan tentang resesi yang akan datang." Anda juga akan sedikit kewalahan, bukan? Anda tidak tahu bagaimana memprioritaskan kueri ini dan Anda harus menyaring jutaan keping data untuk menemukan jawaban yang tepat untuk diberikan kepada penanya.
Inilah yang dilakukan LLM setiap kali kami meminta mereka untuk menghasilkan sesuatu—dan mengapa mungkin ada poin di hari ketika platform meminta Anda untuk kembali lagi nanti karena lalu lintas yang tinggi. Namun jika LLM memiliki cara untuk menyaring data dengan lebih efisien—untuk mengetahui bagian mana dari setiap kueri yang harus diprioritaskan, apa yang memerlukan "upaya penuh" versus "upaya parsial"—mereka bisa lebih efektif.
Makalah akademis tentang CALM menyatakannya sebagai berikut:
“Kemajuan terbaru dalam model bahasa besar (LLM) berbasis Transformer telah menghasilkan peningkatan kinerja yang signifikan di banyak tugas.
Keuntungan ini datang dengan peningkatan drastis dalam ukuran model, yang berpotensi mengarah pada penggunaan yang lambat dan mahal pada waktu inferensi.
Namun dalam praktiknya, rangkaian generasi yang dibuat oleh LLM terdiri dari berbagai tingkat kesulitan.
Sementara prediksi tertentu benar-benar mendapat manfaat dari kapasitas penuh model, kelanjutan lainnya lebih sepele dan dapat diselesaikan dengan komputasi yang dikurangi.
…Sementara model besar bekerja lebih baik secara umum, jumlah perhitungan yang sama mungkin tidak diperlukan untuk setiap input untuk mencapai kinerja yang sama (misalnya, tergantung pada apakah inputnya mudah atau sulit).”
Merah = Kapasitas Penuh/Hijau = Kurang Dari Setengah Kapasitas
Gambar di atas menunjukkan ide ini dalam tindakan. Peneliti menulis:
'Warna mewakili jumlah lapisan decoding yang digunakan untuk setiap token — warna hijau muda menunjukkan kurang dari setengah dari total lapisan. Hanya beberapa token terpilih yang menggunakan kapasitas penuh model (berwarna merah), sedangkan untuk sebagian besar token model keluar setelah satu atau beberapa lapisan decoding (berwarna hijau).
Para peneliti juga mencatat dalam kesimpulan mereka bahwa mengimplementasikan CALM dalam LLM hanya membutuhkan sedikit modifikasi untuk membantu model bahasa meningkatkan kecepatan. Pada dasarnya ini memungkinkan LLM dilatih lebih cepat dan lebih efisien, artinya mereka dapat memproses lebih banyak informasi dan menghasilkan hasil yang lebih akurat dalam waktu yang lebih singkat.
Ini memiliki implikasi yang jelas untuk bisnis di industri apa pun, karena ini berarti mereka dapat mengumpulkan wawasan dan membuat keputusan lebih cepat dan lebih akurat. Tapi apa artinya semua ini bagi pemasar B2B?
Implikasi CALM untuk Pemasar B2B
Pemasaran Konten
Fitur CALM dapat berdampak signifikan pada strategi pemasaran konten B2B, karena dapat membantu pemasar menghasilkan konten yang lebih akurat dan relevan berdasarkan data dan wawasan waktu nyata. Dengan akses ke data yang lebih banyak dan lebih baik, LLM dapat membantu pemasar mengidentifikasi tren dan peluang baru dengan lebih cepat, memungkinkan mereka merespons lebih cepat dan tetap terdepan dalam persaingan. Ini bisa menjadi sangat penting dalam industri yang berkembang pesat atau menghadapi gangguan.
Keterlibatan dan Personalisasi Pelanggan
Pemasar B2B dapat meningkatkan strategi keterlibatan pelanggan dengan menyediakan konten yang disesuaikan dengan audiens target mereka. LLM dapat membantu mengidentifikasi pola dalam perilaku dan preferensi pelanggan, memungkinkan pemasar menyesuaikan pesan dan konten mereka secara lebih efektif. Ini dapat menjadi sangat penting dalam industri dengan produk yang kompleks atau teknis, di mana pengiriman pesan yang ditargetkan dapat membuat perbedaan besar. Pemasar juga dapat memanfaatkan teknologi untuk meningkatkan layanan pelanggan mereka, dengan memberikan tanggapan yang akurat dan relevan terhadap pertanyaan pelanggan.
Terjemahan
Teknologi CALM dapat meningkatkan akurasi dan efektivitas alat penerjemahan otomatis, yang dapat menjadi sangat berharga bagi perusahaan B2B yang beroperasi di pasar global. Dengan meningkatkan akurasi terjemahan, CALM memungkinkan perusahaan B2B berkomunikasi lebih efektif dengan pelanggan dan mitra internasional mereka.
Tentu saja, CALM hanyalah salah satu bagian dari teka-teki dalam pemasaran B2B. Penting bagi pemasar untuk mengikuti semua perkembangan terbaru di bidangnya, mulai dari mengubah perilaku konsumen hingga saluran pemasaran baru dan taktik pemasaran. Jika Anda membutuhkan bantuan untuk menguasai perkembangan AI terbaru ini dalam strategi pemasaran Anda, hubungi kami.