CALM de Google: ¿la solución para OpenAI?
Publicado: 2023-04-19La nueva función de Google tiene el potencial de revolucionar el campo de los modelos de lenguaje extenso (LLM). La tecnología innovadora llamada CALM (Modelado de lenguaje adaptativo seguro) está diseñada para acelerar los LLM como GPT-3 y LaMDA, sin comprometer los niveles de rendimiento.
¿Qué es CALMA?
CALM es una tecnología de modelo de lenguaje avanzado que Google ha desarrollado para mejorar la capacidad de su motor de búsqueda para comprender e interpretar consultas en lenguaje natural. Significa Adaptación continua para el modelo de lenguaje, lo que esencialmente significa que la tecnología está aprendiendo y adaptándose continuamente para mejorar su rendimiento.
Google ha estado utilizando la tecnología de modelo de lenguaje durante años, pero CALM es un importante paso adelante ya que se basa en una arquitectura de red neuronal que le permite procesar consultas en lenguaje natural de manera más eficiente. CALM utiliza un modelo basado en transformadores que puede analizar y comprender el contexto de una consulta, haciéndolo más capaz de decidir qué tareas requieren más esfuerzo. Al igual que el cerebro humano delega energía para que no pongamos el mismo esfuerzo en verter crema en nuestros cafés que en escribir un correo electrónico en toda la empresa, CALM, bueno, calma los modelos de lenguaje de IA.
En términos generales, los LLM están capacitados en cantidades masivas de datos de texto para aprender patrones y relaciones de entidades en el idioma. Por ejemplo, la versión inicial de GPT se entrenó en 2018 en BookCorpus y constaba de 985 millones de palabras. En el mismo año, BERT se capacitó en una combinación de BookCorpus y Wikipedia en inglés, con un total de 3300 millones de palabras.
Los LLM más recientes, como GPT-3, se han capacitado en conjuntos de datos aún más grandes. GPT-3 tiene más de 175 mil millones de parámetros y se entrenó en aproximadamente 45 TB de texto. Los datos de entrenamiento utilizados para GPT-3 no se divulgan públicamente, pero se cree que incluyen una amplia gama de fuentes, como libros, artículos y sitios web.
Ahora imagina todos esos datos en una biblioteca. Te sientas solo en la biblioteca y, de repente, la gente empieza a entrar por la puerta con preguntas. “Cuéntame sobre la historia de América del Sur”. “¿Qué tipo de leche sin lácteos es mejor para mí?” “¿Cómo puede mi empresa beneficiarse del uso del marketing de influencers?” “Escríbeme 10 opciones para textos en redes sociales” “Actúa como periodista y escríbeme textos sobre la recesión inminente”. Usted también se sentiría un poco abrumado, ¿verdad? No tiene idea de cómo priorizar estas consultas y tiene que analizar millones de datos para encontrar la respuesta correcta para presentársela al autor de la pregunta.
Esto es lo que hacen los LLM cada vez que les pedimos que generen algo, y por qué puede haber momentos en el día en que la plataforma le pida que regrese más tarde debido al alto tráfico. Pero si los LLM tuvieran una manera de filtrar los datos de manera más eficiente, para saber qué partes de cada consulta priorizar, qué necesita "esfuerzo total" versus "esfuerzo parcial", podrían ser más efectivos.
El artículo académico sobre CALM lo expresa de esta manera:
“Los avances recientes en los modelos de lenguaje grande (LLM) basados en Transformer han llevado a mejoras de rendimiento significativas en muchas tareas.
Estas ganancias vienen con un aumento drástico en el tamaño de los modelos, lo que puede conducir a un uso lento y costoso en el momento de la inferencia.
En la práctica, sin embargo, la serie de generaciones realizadas por los LLM se compone de diferentes niveles de dificultad.
Si bien ciertas predicciones realmente se benefician de la capacidad total de los modelos, otras continuaciones son más triviales y se pueden resolver con un cálculo reducido.
…Si bien los modelos grandes funcionan mejor en general, es posible que no se requiera la misma cantidad de cómputo para que cada entrada logre un rendimiento similar (por ejemplo, dependiendo de si la entrada es fácil o difícil)”.
Rojo = Capacidad total/Verde = Menos de la mitad de la capacidad
La imagen de arriba muestra esta idea en acción. Los investigadores escribieron:
'Los colores representan la cantidad de capas de decodificación utilizadas para cada token: los tonos verde claro indican menos de la mitad del total de capas. Solo unas pocas fichas seleccionadas usan la capacidad total del modelo (coloreadas en rojo), mientras que para la mayoría de las fichas el modelo sale después de una o pocas capas de decodificación (coloreadas en verde)”.
Los investigadores también señalaron en su conclusión que implementar CALM en un LLM solo requiere una modificación mínima para ayudar a que el modelo de lenguaje aumente la velocidad. Esencialmente, esto permite que los LLM se capaciten de manera más rápida y eficiente, lo que significa que pueden procesar más información y producir resultados más precisos en menos tiempo.
Esto tiene implicaciones obvias para las empresas de cualquier industria, ya que significa que pueden recopilar información y tomar decisiones más rápidamente y con mayor precisión. Pero, ¿qué significa todo esto para los especialistas en marketing B2B?
Implicaciones de CALM para los vendedores B2B
Mercadeo de Contenidos
La función CALM puede tener un impacto significativo en las estrategias de marketing de contenido B2B, ya que puede ayudar a los especialistas en marketing a generar contenido más preciso y relevante basado en información y datos en tiempo real. Con acceso a más y mejores datos, los LLM podrían ayudar a los especialistas en marketing a identificar nuevas tendencias y oportunidades más rápidamente, permitiéndoles responder más rápido y mantenerse por delante de la competencia. Esto podría ser especialmente importante en industrias que están evolucionando rápidamente o enfrentando interrupciones.
Compromiso con el cliente y personalización
Los especialistas en marketing B2B pueden mejorar las estrategias de participación del cliente al proporcionar contenido personalizado que resuene con su público objetivo. Los LLM pueden ayudar a identificar patrones en el comportamiento y las preferencias de los clientes, lo que permite a los especialistas en marketing adaptar sus mensajes y contenido de manera más efectiva. Esto puede ser especialmente importante en industrias con productos complejos o técnicos, donde los mensajes dirigidos pueden marcar una gran diferencia. Los especialistas en marketing también pueden aprovechar la tecnología para mejorar su servicio al cliente, brindando respuestas precisas y relevantes a las consultas de los clientes.
Traducción
La tecnología CALM puede mejorar la precisión y la eficacia de las herramientas de traducción automática, lo que puede ser muy valioso para las empresas B2B que operan en mercados globales. Al mejorar la precisión de la traducción, CALM puede permitir que las empresas B2B se comuniquen de manera más efectiva con sus clientes y socios internacionales.
Por supuesto, CALM es solo una pieza del rompecabezas cuando se trata de marketing B2B. Es importante que los especialistas en marketing se mantengan al día con los últimos desarrollos en su campo, desde cambios en los comportamientos de los consumidores hasta nuevos canales y tácticas de marketing. Si desea obtener ayuda para dominar estos últimos desarrollos de IA en su estrategia de marketing, comuníquese con nosotros.