CALM di Google: la soluzione per OpenAI?
Pubblicato: 2023-04-19La nuova funzionalità di Google ha il potenziale per rivoluzionare il campo dei modelli linguistici di grandi dimensioni (LLM). La rivoluzionaria tecnologia chiamata CALM (Confident Adaptive Language Modeling) è progettata per accelerare LLM come GPT-3 e LaMDA, senza compromettere i livelli di prestazioni.
Cos'è la CALMA?
CALM è una tecnologia di modellazione linguistica avanzata che Google ha sviluppato per migliorare la capacità del suo motore di ricerca di comprendere e interpretare le query in linguaggio naturale. È l'acronimo di Continuous Adaptation for Language Model, che essenzialmente significa che la tecnologia apprende e si adatta continuamente per migliorare le sue prestazioni.
Google utilizza da anni la tecnologia del modello linguistico, ma CALM rappresenta un significativo passo avanti in quanto è costruito su un'architettura di rete neurale che gli consente di elaborare le query in linguaggio naturale in modo più efficiente. CALM utilizza un modello basato su trasformatore in grado di analizzare e comprendere il contesto di una query, rendendolo più capace di decidere quali attività richiedono uno sforzo maggiore. Come il cervello umano delega l'energia in modo da non fare lo stesso sforzo nel versare la crema nei nostri caffè mentre scriviamo un'e-mail a livello aziendale, CALM, beh, calma i modelli di linguaggio AI.
In generale, gli LLM vengono addestrati su enormi quantità di dati di testo per apprendere modelli e relazioni di entità nella lingua. Ad esempio, la versione iniziale di GPT è stata addestrata nel 2018 su BookCorpus, composta da 985 milioni di parole. Nello stesso anno, BERT è stato addestrato su una combinazione di BookCorpus e Wikipedia in inglese, per un totale di 3,3 miliardi di parole.
Gli LLM più recenti, come GPT-3, sono stati addestrati su set di dati ancora più grandi. GPT-3 ha più di 175 miliardi di parametri ed è stato addestrato su circa 45 TB di testo. I dati di formazione utilizzati per GPT-3 non sono divulgati pubblicamente, ma si ritiene che includano una vasta gamma di fonti, come libri, articoli e siti web.
Ora immagina tutti quei dati in una libreria. Ti siedi da solo in biblioteca e all'improvviso le persone iniziano a entrare dalla porta con domande. "Raccontami la storia del Sud America." "Che tipo di latte senza latticini è meglio per me?" "In che modo la mia azienda può trarre vantaggio dall'utilizzo dell'influencer marketing?" "Scrivimi 10 opzioni per la copia sui social media" "Agisci come giornalista e scrivimi una copia sulla recessione imminente." Anche tu saresti un po' sopraffatto, vero? Non hai idea di come dare la priorità a queste domande e devi setacciare milioni di dati per trovare la risposta giusta da presentare al richiedente.
Questo è ciò che fanno gli LLM ogni volta che chiediamo loro di generare qualcosa e perché potrebbero esserci momenti della giornata in cui la piattaforma ti chiede di tornare più tardi a causa dell'elevato traffico. Ma se gli LLM avessero un modo per setacciare i dati in modo più efficiente, per sapere a quali parti di ogni query dare la priorità, cosa richiede "sforzo totale" rispetto a "sforzo parziale", potrebbero essere più efficaci.
Il documento accademico su CALM lo mette in questo modo:
“I recenti progressi nei modelli di linguaggio di grandi dimensioni (LLM) basati su Transformer hanno portato a significativi miglioramenti delle prestazioni in molte attività.
Questi vantaggi derivano da un drastico aumento delle dimensioni dei modelli, che potrebbe portare a un utilizzo lento e costoso al momento dell'inferenza.
In pratica, però, la serie di generazioni compiute dai LLM è composta da vari livelli di difficoltà.
Mentre alcune previsioni traggono davvero vantaggio dalla piena capacità dei modelli, altre continuazioni sono più banali e possono essere risolte con un calcolo ridotto.
…Sebbene i modelli di grandi dimensioni funzionino meglio in generale, la stessa quantità di calcolo potrebbe non essere richiesta per ogni input per ottenere prestazioni simili (ad esempio, a seconda che l'input sia facile o difficile).”
Rosso = Piena capacità/Verde = Meno della metà della capacità
L'immagine sopra mostra questa idea in azione. I ricercatori hanno scritto:
«I colori rappresentano il numero di livelli di decodifica utilizzati per ciascun token: le sfumature verde chiaro indicano meno della metà dei livelli totali. Solo pochi token selezionati utilizzano la piena capacità del modello (colorato in rosso), mentre per la maggior parte dei token il modello esce dopo uno o pochi strati di decodifica (colorati in verde).”
I ricercatori hanno anche notato nella loro conclusione che l'implementazione di CALM in un LLM richiede solo modifiche minime per aiutare il modello linguistico ad aumentare la velocità. In sostanza, ciò consente agli LLM di essere addestrati in modo più rapido ed efficiente, il che significa che possono elaborare più informazioni e produrre risultati più accurati in meno tempo.
Ciò ha ovvie implicazioni per le aziende di qualsiasi settore, in quanto significa che possono raccogliere informazioni e prendere decisioni più rapidamente e con maggiore precisione. Ma cosa significa tutto questo per i marketer B2B?
Le implicazioni di CALM per i marketer B2B
Marketing dei contenuti
La funzione CALM può avere un impatto significativo sulle strategie di marketing dei contenuti B2B, in quanto può aiutare i professionisti del marketing a generare contenuti più accurati e pertinenti sulla base di dati e approfondimenti in tempo reale. Con l'accesso a dati più numerosi e migliori, gli LLM potrebbero aiutare i professionisti del marketing a identificare nuove tendenze e opportunità più rapidamente, consentendo loro di rispondere più rapidamente e stare al passo con la concorrenza. Ciò potrebbe essere particolarmente importante nei settori in rapida evoluzione o in fase di interruzione.
Coinvolgimento e personalizzazione del cliente
I marketer B2B possono migliorare le strategie di coinvolgimento dei clienti fornendo contenuti personalizzati che risuonano con il loro pubblico di destinazione. Gli LLM possono aiutare a identificare i modelli nel comportamento e nelle preferenze dei clienti, consentendo ai professionisti del marketing di personalizzare i loro messaggi e contenuti in modo più efficace. Questo può essere particolarmente importante nei settori con prodotti complessi o tecnici, dove la messaggistica mirata può fare una grande differenza. Gli esperti di marketing possono anche sfruttare la tecnologia per migliorare il proprio servizio clienti, fornendo risposte accurate e pertinenti alle richieste dei clienti.
Traduzione
La tecnologia CALM può migliorare l'accuratezza e l'efficacia degli strumenti di traduzione automatica, che possono essere preziosi per le aziende B2B che operano nei mercati globali. Migliorando l'accuratezza della traduzione, CALM può consentire alle aziende B2B di comunicare in modo più efficace con i propri clienti e partner internazionali.
Naturalmente, CALM è solo un pezzo del puzzle quando si tratta di marketing B2B. È importante che i professionisti del marketing tengano il passo con tutti gli ultimi sviluppi nel loro campo, dal cambiamento dei comportamenti dei consumatori ai nuovi canali di marketing e alle tattiche di marketing. Se desideri aiuto per padroneggiare questi ultimi sviluppi dell'IA nella tua strategia di marketing, contattaci.