Menü umschalten

So skalieren Sie den Einsatz großer Sprachmodelle im Marketing

Veröffentlicht: 2023-05-19

Generative KI und große Sprachmodelle werden die Marketingbranche, wie wir sie kennen, verändern.

„Um wettbewerbsfähig zu bleiben, müssen Sie die Technologie verstehen und wissen, wie sie sich auf unsere Marketingbemühungen auswirkt“, sagte Christopher Penn, Chefdatenwissenschaftler bei TrustInsights.ai, in seiner Rede auf der MarTech-Konferenz.

Erfahren Sie, wie Sie den Einsatz großer Sprachmodelle (LLMs) skalieren können, welchen Wert Prompt Engineering hat und wie sich Vermarkter auf die Zukunft vorbereiten können.

Die Prämisse hinter großen Sprachmodellen

Seit seiner Einführung ist ChatGPT in den meisten Branchen ein Trendthema. Man kann nicht online gehen, ohne zu sehen, was jeder davon hält. Dennoch verstehen nicht viele Menschen die Technologie dahinter, sagte Penn.

ChatGPT ist ein KI-Chatbot, der auf den LLMs GPT-3.5 und GPT-4 von OpenAI basiert.

LLMs basieren auf einer Prämisse des englischen Linguisten John Rupert Firth aus dem Jahr 1957: „Man erkennt ein Wort an der Bedeutung, die es hat.“

Dies bedeutet, dass die Bedeutung eines Wortes anhand der Wörter verstanden werden kann, die typischerweise neben ihm stehen. Einfach ausgedrückt: Wörter werden nicht nur durch ihre Wörterbuchdefinition definiert, sondern auch durch den Kontext, in dem sie verwendet werden.

Diese Prämisse ist der Schlüssel zum Verständnis der Verarbeitung natürlicher Sprache.

Schauen Sie sich zum Beispiel die folgenden Sätze an:

  • „Ich koche den Tee.“
  • „Ich verschütte den Tee.“

Ersteres bezieht sich auf ein heißes Getränk, während letzteres umgangssprachlich für Klatschen ist. „Tee“ hat in diesen Fällen sehr unterschiedliche Bedeutungen.

Auch die Reihenfolge der Wörter ist wichtig.

  • „Ich koche den Tee.“
  • „Der Tee, den ich koche.“

Die obigen Sätze haben unterschiedliche Themenschwerpunkte, obwohl sie dasselbe Verb „brauen“ verwenden.

Wie große Sprachmodelle funktionieren

Unten finden Sie ein Systemdiagramm von Transformatoren, dem Architekturmodell, in dem große Sprachmodelle erstellt werden.

Der Transformer – Modellarchitektur
Zwei wichtige Funktionen sind hier Einbettungen und Positionskodierung . Quelle: Aufmerksamkeit ist alles, was Sie brauchen, Vaswani et al., 2017 .

Einfach ausgedrückt: Ein Transformator nimmt eine Eingabe und wandelt sie in etwas anderes um (dh „transformiert“).

LLMs können zum Schaffen genutzt werden, sind aber besser darin, aus einer Sache etwas anderes zu machen.

OpenAI und andere Softwareunternehmen erfassen zunächst einen riesigen Datenbestand, darunter Millionen von Dokumenten, wissenschaftlichen Arbeiten, Nachrichtenartikeln, Produktrezensionen, Forumskommentaren und vielem mehr.

Bewertungen und Forumskommentare zu Teeprodukten

Bedenken Sie, wie häufig der Satz „Ich koche den Tee“ in all diesen aufgenommenen Texten vorkommt.

Die Amazon-Produktbewertungen und Reddit-Kommentare oben sind einige Beispiele.

Beachten Sie das „die Gesellschaft“, das dieser Satz leistet – das heißt alle Wörter, die in der Nähe von „Ich koche den Tee“ erscheinen.

„Geschmack“, „Geruch“, „Kaffee“, „Aroma“ und mehr verleihen diesen LLMs einen Kontext.

Maschinen können nicht lesen. Um diesen gesamten Text zu verarbeiten, verwenden sie Einbettungen, den ersten Schritt in der Transformer-Architektur.

Durch die Einbettung können Modelle jedem Wort einen numerischen Wert zuweisen, und dieser numerische Wert kommt im Textkorpus wiederholt vor.

Einbetten

Für diese Modelle ist auch die Wortposition von Bedeutung.

Positionskodierung

Im obigen Beispiel bleiben die Zahlenwerte gleich, haben jedoch eine andere Reihenfolge. Dies ist eine Positionskodierung.

Vereinfacht ausgedrückt funktionieren große Sprachmodelle folgendermaßen:

  • Die Maschinen nehmen Textdaten auf.
  • Weisen Sie allen Wörtern Zahlenwerte zu.
  • Schauen Sie sich die statistischen Häufigkeiten und die Verteilungen zwischen den verschiedenen Wörtern an.
  • Versuchen Sie herauszufinden, wie das nächste Wort in der Sequenz lauten wird.

All dies erfordert erhebliche Rechenleistung, Zeit und Ressourcen.



Holen Sie sich MarTech! Täglich. Frei. In Ihrem Posteingang.

Siehe Bedingungen.



Schnelles Engineering: Eine Fähigkeit, die man unbedingt erlernen muss

Je mehr Kontext und Anweisungen wir LLMs bereitstellen, desto wahrscheinlicher ist es, dass sie bessere Ergebnisse liefern. Darin liegt der Wert einer schnellen Entwicklung.

Penn betrachtet Eingabeaufforderungen als Leitplanken dafür, was die Maschinen produzieren werden. Maschinen erfassen die Wörter in unserer Eingabe und greifen bei der Entwicklung der Ausgabe auf sie zurück, um den Kontext zu ermitteln.

Wenn Sie beispielsweise ChatGPT-Eingabeaufforderungen schreiben, werden Sie feststellen, dass detaillierte Anweisungen tendenziell zu zufriedenstellenderen Antworten führen.

In gewisser Weise sind Eingabeaufforderungen für Autoren wie kreative Briefings. Wenn Sie möchten, dass Ihr Projekt korrekt ausgeführt wird, geben Sie Ihrem Autor keine einzeilige Anweisung.

Stattdessen senden Sie ein ausreichend großes Briefing, das alles abdeckt, worüber Sie schreiben sollen, und wie es geschrieben werden soll.

Skalierung des Einsatzes von LLMs

Wenn Sie an KI-Chatbots denken, denken Sie vielleicht sofort an eine Weboberfläche, auf der Benutzer Eingabeaufforderungen eingeben und dann auf die Antwort des Tools warten können. Das ist es, was jeder gewohnt ist zu sehen.

ChatGPT Plus-Bildschirm

„Dies ist keineswegs das Endziel dieser Tools. Das ist der Spielplatz. Hier können die Menschen an dem Werkzeug herumbasteln“, sagte Penn. „So werden Unternehmen das nicht auf den Markt bringen.“

Stellen Sie sich schnelles Schreiben als Programmieren vor. Sie sind ein Entwickler, der Anweisungen an einen Computer schreibt, damit dieser etwas tut.

Sobald Sie Ihre Eingabeaufforderungen für bestimmte Anwendungsfälle optimiert haben, können Sie APIs nutzen und echte Entwickler dazu bringen, diese Eingabeaufforderungen in zusätzlichen Code zu verpacken, sodass Sie Daten in großem Umfang programmgesteuert senden und empfangen können.

Auf diese Weise werden LLMs Unternehmen skalieren und zum Besseren verändern.

Da diese Tools überall eingeführt werden, ist es wichtig zu bedenken, dass jeder ein Entwickler ist.

Diese Technologie wird in Microsoft Office – Word, Excel und PowerPoint – und vielen anderen Tools und Diensten enthalten sein, die wir täglich verwenden.

„Da in natürlicher Sprache programmiert wird, sind es nicht unbedingt die traditionellen Programmierer, die die besten Ideen haben“, fügte Penn hinzu.

Da LLMs auf Autoren basieren, können Marketing- oder PR-Experten – und nicht Programmierer – innovative Wege zur Nutzung der Tools entwickeln.

Ein zusätzlicher Tipp für Suchmaschinen-Vermarkter

Wir beginnen, die Auswirkungen großer Sprachmodelle auf das Marketing zu erkennen, insbesondere auf die Suche.

Im Februar stellte Microsoft das neue Bing vor, das von ChatGPT unterstützt wird. Benutzer können mit der Suchmaschine kommunizieren und erhalten direkte Antworten auf ihre Fragen, ohne auf Links klicken zu müssen.

Die neue Bing-Suchmaschine

„Sie können davon ausgehen, dass diese Tools Ihre markenlose Suche erheblich entlasten, da sie Fragen auf eine Weise beantworten, die keine Klicks erfordert“, sagte Penn.

„Als SEO-Profis haben wir das bereits erlebt, mit Featured Snippets und Zero-Click-Suchergebnissen … aber für uns wird es noch schlimmer werden.“

Er empfiehlt, zu den Bing Webmaster Tools oder der Google Search Console zu gehen und sich den Prozentsatz des Traffics anzusehen, den Ihre Website durch markenlose, informative Suchanfragen erhält, da dies der größte Risikobereich für SEO ist.


Ähnliche Beiträge

    Was Vermarkter bei der Einführung von KI beachten sollten
    Warum KI den größten Einfluss auf die Erkenntnisse der B2B-Zielgruppe haben wird, nicht auf den Inhalt
    Navigieren Sie durch die Welt der KI, bevor es Ihre Konkurrenten tun
    Was verbirgt sich hinter dem MarTechBot-Vorhang?
    Meta stellt ein generatives KI-Tool für Facebook- und Instagram-Werbetreibende vor

Neu bei MarTech

    5 Tipps für die Balance zwischen „Push“ und „Pull“ im Content-Marketing
    Das Wachstum der digitalen Werbeausgaben sinkt in diesem Jahr auf 7,8 %
    KI in Martech: die neuen Funktionen, Produkte und Plattformen dieser Woche
    So entwickeln Sie eine erfolgreiche Event-Strategie: Ein 7-Schritte-Framework
    Überlassen Sie die Zukunft Ihrer Daten nicht den Händen der Anbieter