Googles CALM – Die Lösung für OpenAI?
Veröffentlicht: 2023-04-19Googles neues Feature hat das Potenzial, den Bereich der Large Language Models (LLMs) zu revolutionieren. Die bahnbrechende Technologie namens CALM – Confident Adaptive Language Modeling – wurde entwickelt, um LLMs wie GPT-3 und LaMDA zu beschleunigen, ohne das Leistungsniveau zu beeinträchtigen.
Was ist RUHE?
CALM ist eine fortschrittliche Sprachmodelltechnologie, die Google entwickelt hat, um die Fähigkeit seiner Suchmaschine zu verbessern, Anfragen in natürlicher Sprache zu verstehen und zu interpretieren. Es steht für Continuous Adaptation for Language Model, was im Wesentlichen bedeutet, dass die Technologie kontinuierlich lernt und sich anpasst, um ihre Leistung zu verbessern.
Google verwendet seit Jahren Sprachmodelltechnologie, aber CALM ist ein bedeutender Fortschritt, da es auf einer neuronalen Netzwerkarchitektur basiert, die es ihm ermöglicht, Anfragen in natürlicher Sprache effizienter zu verarbeiten. CALM verwendet ein transformatorbasiertes Modell, das den Kontext einer Abfrage analysieren und verstehen kann, wodurch es besser in der Lage ist, zu entscheiden, welche Aufgaben mehr Aufwand erfordern. So wie das menschliche Gehirn Energie delegiert, damit wir uns nicht die gleiche Mühe machen, Sahne in unseren Kaffee zu gießen wie eine unternehmensweite E-Mail zu schreiben, beruhigt CALM, nun ja, KI-Sprachmodelle.
Im Allgemeinen werden LLMs mit riesigen Mengen an Textdaten trainiert, um Muster und Entitätsbeziehungen in der Sprache zu lernen. Beispielsweise wurde die ursprüngliche Version von GPT 2018 auf BookCorpus trainiert, das aus 985 Millionen Wörtern besteht. Im selben Jahr wurde BERT in einer Kombination aus BookCorpus und englischer Wikipedia mit insgesamt 3,3 Milliarden Wörtern geschult.
Neuere LLMs wie GPT-3 wurden mit noch größeren Datensätzen trainiert. GPT-3 hat mehr als 175 Milliarden Parameter und wurde mit etwa 45 TB Text trainiert. Die für GPT-3 verwendeten Trainingsdaten werden nicht öffentlich bekannt gegeben, es wird jedoch angenommen, dass sie eine Vielzahl von Quellen wie Bücher, Artikel und Websites umfassen.
Stellen Sie sich nun all diese Daten in einer Bibliothek vor. Du sitzt alleine in der Bibliothek und plötzlich kommen Leute mit Fragen durch die Tür. „Erzählen Sie mir von der Geschichte Südamerikas.“ „Welche milchfreie Milch ist die beste für mich?“ „Wie kann mein Unternehmen vom Einsatz von Influencer-Marketing profitieren?“ „Schreiben Sie mir 10 Optionen für Social-Media-Texte“ „Handeln Sie als Journalist und schreiben Sie mir Texte über die bevorstehende Rezession.“ Da wärst du auch ein bisschen überfordert, oder? Sie haben keine Ahnung, wie Sie diese Anfragen priorisieren sollen, und Sie müssen Millionen von Daten durchsuchen, um genau die richtige Antwort zu finden, die Sie dem Fragesteller präsentieren können.
Dies ist, was LLMs jedes Mal tun, wenn wir sie bitten, etwas zu generieren – und warum es Momente am Tag geben kann, an denen die Plattform Sie auffordert, aufgrund des hohen Datenverkehrs später zurückzukehren. Aber wenn die LLMs eine Möglichkeit hätten, die Daten effizienter zu sichten – um zu wissen, welche Teile jeder Abfrage priorisiert werden müssen, was „volle Anstrengung“ oder „teilweise Anstrengung“ erfordert – könnten sie effektiver sein.
Die wissenschaftliche Arbeit zu CALM drückt es so aus:
„Die jüngsten Fortschritte bei Transformer-basierten Large Language Models (LLMs) haben zu erheblichen Leistungsverbesserungen bei vielen Aufgaben geführt.
Diese Gewinne gehen mit einer drastischen Vergrößerung der Modelle einher, was möglicherweise zu einer langsamen und kostspieligen Verwendung zum Zeitpunkt der Inferenz führt.
In der Praxis setzt sich die Generationsreihe der LLMs jedoch aus unterschiedlichen Schwierigkeitsgraden zusammen.
Während bestimmte Vorhersagen wirklich von der vollen Kapazität der Modelle profitieren, sind andere Fortsetzungen trivialer und können mit reduzierter Rechenleistung gelöst werden.
…Während große Modelle im Allgemeinen besser abschneiden, ist möglicherweise nicht für jede Eingabe der gleiche Rechenaufwand erforderlich, um eine ähnliche Leistung zu erzielen (z. B. je nachdem, ob die Eingabe einfach oder schwierig ist).“
Rot = Volle Kapazität/Grün = Weniger als die Hälfte der Kapazität
Das obige Bild zeigt diese Idee in Aktion. Forscher schrieben:
„Die Farben stellen die Anzahl der Decodierungsschichten dar, die für jedes Token verwendet werden – hellgrüne Schattierungen zeigen weniger als die Hälfte der gesamten Schichten an. Nur wenige ausgewählte Token nutzen die volle Kapazität des Modells (in Rot eingefärbt), während bei den meisten Token das Modell nach einer oder wenigen Decodierungsschichten (in Grün eingefärbt) aussteigt.“
Die Forscher stellten in ihrer Schlussfolgerung auch fest, dass die Implementierung von CALM in einem LLM nur minimale Änderungen erfordert, um die Geschwindigkeit des Sprachmodells zu erhöhen. Dadurch können LLMs im Wesentlichen schneller und effizienter geschult werden, was bedeutet, dass sie mehr Informationen verarbeiten und in kürzerer Zeit genauere Ergebnisse erzielen können.
Dies hat offensichtliche Auswirkungen auf Unternehmen in allen Branchen, da sie schneller und genauer Einblicke gewinnen und Entscheidungen treffen können. Aber was bedeutet das alles für B2B-Vermarkter?
Auswirkungen von CALM auf B2B-Vermarkter
Inhaltsvermarktung
Die CALM-Funktion kann einen erheblichen Einfluss auf B2B-Content-Marketing-Strategien haben, da sie Vermarktern helfen kann, genauere und relevantere Inhalte auf der Grundlage von Echtzeitdaten und -erkenntnissen zu generieren. Durch den Zugriff auf mehr und bessere Daten könnten LLMs Marketern dabei helfen, neue Trends und Chancen schneller zu erkennen, schneller zu reagieren und der Konkurrenz einen Schritt voraus zu sein. Dies könnte besonders in Branchen wichtig sein, die sich schnell entwickeln oder mit Störungen konfrontiert sind.
Kundenbindung und Personalisierung
B2B-Marketer können ihre Kundenbindungsstrategien verbessern, indem sie personalisierte Inhalte bereitstellen, die bei ihrer Zielgruppe ankommen. LLMs können dabei helfen, Muster im Kundenverhalten und in den Vorlieben zu erkennen, sodass Marketingspezialisten ihre Botschaften und Inhalte effektiver anpassen können. Dies kann besonders in Branchen mit komplexen oder technischen Produkten wichtig sein, wo gezielte Botschaften einen großen Unterschied machen können. Vermarkter können die Technologie auch nutzen, um ihren Kundenservice zu verbessern, indem sie genaue und relevante Antworten auf Kundenanfragen geben.
Übersetzung
Die CALM-Technologie kann die Genauigkeit und Effektivität automatisierter Übersetzungstools verbessern, was für B2B-Unternehmen, die auf globalen Märkten tätig sind, von unschätzbarem Wert sein kann. Durch die Verbesserung der Übersetzungsgenauigkeit kann CALM es B2B-Unternehmen ermöglichen, effektiver mit ihren internationalen Kunden und Partnern zu kommunizieren.
Natürlich ist CALM nur ein Puzzleteil im B2B-Marketing. Für Vermarkter ist es wichtig, mit den neuesten Entwicklungen in ihrem Bereich Schritt zu halten, von verändertem Verbraucherverhalten bis hin zu neuen Marketingkanälen und Marketingtaktiken. Wenn Sie Hilfe bei der Bewältigung dieser neuesten KI-Entwicklungen in Ihrer Marketingstrategie benötigen, wenden Sie sich an uns.