CALM do Google — a solução para OpenAI?

Publicados: 2023-04-19

O novo recurso do Google tem o potencial de revolucionar o campo de modelos de linguagem grandes (LLMs). A tecnologia inovadora chamada CALM - Confident Adaptive Language Modeling - foi projetada para acelerar LLMs como GPT-3 e LaMDA, sem comprometer os níveis de desempenho.

O que é CALMA?

CALM é uma tecnologia avançada de modelo de linguagem que o Google desenvolveu para melhorar a capacidade de seu mecanismo de pesquisa de entender e interpretar consultas de linguagem natural. Significa Adaptação Contínua para Modelo de Linguagem, o que significa essencialmente que a tecnologia está continuamente aprendendo e se adaptando para melhorar seu desempenho.

O Google usa a tecnologia de modelo de linguagem há anos, mas o CALM é um passo significativo, pois é construído em uma arquitetura de rede neural que permite processar consultas de linguagem natural com mais eficiência. O CALM usa um modelo baseado em transformador que pode analisar e entender o contexto de uma consulta, tornando-o mais capaz de decidir quais tarefas precisam de mais esforço. Assim como o cérebro humano delega energia para que não coloquemos o mesmo esforço em derramar creme em nossos cafés como fazemos ao escrever um e-mail para toda a empresa, CALM, bem, acalma os modelos de linguagem da IA.

De um modo geral, os LLMs são treinados em grandes quantidades de dados de texto para aprender padrões e relacionamentos entre entidades no idioma. Por exemplo, a versão inicial do GPT foi treinada em 2018 no BookCorpus, consistindo em 985 milhões de palavras. No mesmo ano, o BERT foi treinado em uma combinação de BookCorpus e Wikipedia em inglês, totalizando 3,3 bilhões de palavras.

LLMs mais recentes, como GPT-3, foram treinados em conjuntos de dados ainda maiores. O GPT-3 tem mais de 175 bilhões de parâmetros e foi treinado em cerca de 45 TB de texto. Os dados de treinamento usados ​​para GPT-3 não são divulgados publicamente, mas acredita-se que incluam diversas fontes, como livros, artigos e sites.

Agora imagine todos esses dados em uma biblioteca. Você se senta sozinho na biblioteca e, de repente, as pessoas começam a entrar pela porta com dúvidas. “Conte-me sobre a história da América do Sul.” “Que tipo de leite sem lactose é melhor para mim?” “Como minha empresa pode se beneficiar do uso do marketing de influenciadores?” “Escreva-me 10 opções para cópia de mídia social” “Aja como jornalista e escreva-me sobre a recessão iminente.” Você também ficaria um pouco sobrecarregado, certo? Você não tem ideia de como priorizar essas consultas e precisa examinar milhões de dados para encontrar a resposta certa para apresentar ao solicitante.

Isso é o que os LLMs fazem toda vez que pedimos que gerem algo - e por que pode haver momentos no dia em que a plataforma solicita que você retorne mais tarde devido ao alto tráfego. Mas se os LLMs tivessem uma maneira de filtrar os dados com mais eficiência – para saber quais partes de cada consulta priorizar, o que precisa de “esforço total” versus “esforço parcial” – eles poderiam ser mais eficazes.

O artigo acadêmico sobre o CALM coloca desta forma:

“Avanços recentes em modelos de linguagem grande (LLMs) baseados em Transformer levaram a melhorias significativas de desempenho em muitas tarefas.

Esses ganhos vêm com um aumento drástico no tamanho dos modelos, potencialmente levando a um uso lento e caro no momento da inferência.

Na prática, porém, a série de gerações feitas pelos LLMs é composta por vários níveis de dificuldade.

Embora certas previsões realmente se beneficiem da capacidade total dos modelos, outras continuações são mais triviais e podem ser resolvidas com computação reduzida.

…Embora os modelos grandes se saiam melhor em geral, a mesma quantidade de computação pode não ser necessária para cada entrada para alcançar um desempenho semelhante (por exemplo, dependendo se a entrada é fácil ou difícil).”

Vermelho = capacidade total/verde = menos da metade da capacidade

Google CALMA

A imagem acima mostra essa ideia em ação. Os pesquisadores escreveram:

'As cores representam o número de camadas de decodificação usadas para cada token - tons de verde claro indicam menos da metade do total de camadas. Apenas alguns tokens selecionados usam a capacidade total do modelo (coloridos em vermelho), enquanto para a maioria dos tokens o modelo sai após uma ou algumas camadas de decodificação (coloridos em verde).”

Os pesquisadores também observaram em sua conclusão que a implementação do CALM em um LLM requer apenas modificações mínimas para ajudar o modelo de linguagem a aumentar a velocidade. Essencialmente, isso permite que os LLMs sejam treinados com mais rapidez e eficiência, o que significa que eles podem processar mais informações e produzir resultados mais precisos em menos tempo.

Isso tem implicações óbvias para as empresas de qualquer setor, pois significa que elas podem obter insights e tomar decisões com mais rapidez e precisão. Mas o que tudo isso significa para os profissionais de marketing B2B?

Implicações do CALM para profissionais de marketing B2B

Marketing de conteúdo

O recurso CALM pode ter um impacto significativo nas estratégias de marketing de conteúdo B2B, pois pode ajudar os profissionais de marketing a gerar conteúdo mais preciso e relevante com base em dados e insights em tempo real. Com acesso a mais e melhores dados, os LLMs podem ajudar os profissionais de marketing a identificar novas tendências e oportunidades mais rapidamente, permitindo que eles respondam mais rapidamente e fiquem à frente da concorrência. Isso pode ser especialmente importante em setores que estão evoluindo rapidamente ou enfrentando disrupções.

Engajamento e personalização do cliente

Os profissionais de marketing B2B podem melhorar as estratégias de envolvimento do cliente, fornecendo conteúdo personalizado que ressoa com seu público-alvo. Os LLMs podem ajudar a identificar padrões no comportamento e nas preferências do cliente, permitindo que os profissionais de marketing personalizem suas mensagens e conteúdo com mais eficiência. Isso pode ser especialmente importante em setores com produtos complexos ou técnicos, onde mensagens direcionadas podem fazer uma grande diferença. Os profissionais de marketing também podem aproveitar a tecnologia para melhorar o atendimento ao cliente, fornecendo respostas precisas e relevantes às consultas dos clientes.

Tradução

A tecnologia CALM pode aumentar a precisão e eficácia das ferramentas de tradução automática, que podem ser inestimáveis ​​para empresas B2B que operam em mercados globais. Ao melhorar a precisão da tradução, o CALM pode permitir que as empresas B2B se comuniquem de forma mais eficaz com seus clientes e parceiros internacionais.

Claro, CALM é apenas uma peça do quebra-cabeça quando se trata de marketing B2B. É importante que os profissionais de marketing acompanhem todos os desenvolvimentos mais recentes em seu campo, desde mudanças no comportamento do consumidor até novos canais e táticas de marketing. Se você quiser ajuda para dominar esses últimos desenvolvimentos de IA em sua estratégia de marketing, entre em contato.