CALM firmy Google — rozwiązanie dla OpenAI?

Opublikowany: 2023-04-19

Nowa funkcja Google może zrewolucjonizować dziedzinę dużych modeli językowych (LLM). Przełomowa technologia o nazwie CALM — Confident Adaptive Language Modeling — została zaprojektowana w celu przyspieszenia LLM, takich jak GPT-3 i LaMDA, bez uszczerbku dla poziomu wydajności.

Co to jest SPOKÓJ?

CALM to zaawansowana technologia modelowania języka, którą firma Google opracowała w celu poprawy zdolności swojej wyszukiwarki do rozumienia i interpretowania zapytań w języku naturalnym. Skrót oznacza Continuous Adaptation for Language Model, co zasadniczo oznacza, że ​​technologia stale się uczy i dostosowuje, aby poprawić swoją wydajność.

Google od lat korzysta z technologii modelowania języka, ale CALM jest znaczącym krokiem naprzód, ponieważ jest zbudowany na architekturze sieci neuronowej, która pozwala na wydajniejsze przetwarzanie zapytań w języku naturalnym. CALM wykorzystuje model oparty na transformatorze, który może analizować i rozumieć kontekst zapytania, dzięki czemu jest w stanie lepiej decydować, które zadania wymagają więcej wysiłku. Tak jak ludzki mózg przekazuje energię, abyśmy nie wkładali takiego samego wysiłku w nalewanie śmietanki do naszych kaw, jak podczas pisania firmowego e-maila, CALM, no cóż, uspokaja modele językowe AI.

Ogólnie rzecz biorąc, LLM są szkolone na ogromnych ilościach danych tekstowych, aby nauczyć się wzorców i relacji encji w języku. Na przykład początkowa wersja GPT została przeszkolona w 2018 roku na BookCorpus, składającym się z 985 milionów słów. W tym samym roku BERT został przeszkolony w zakresie kombinacji BookCorpus i angielskiej Wikipedii, łącznie 3,3 miliarda słów.

Nowsze LLM, takie jak GPT-3, zostały przeszkolone na jeszcze większych zbiorach danych. GPT-3 ma ponad 175 miliardów parametrów i został przeszkolony na około 45 TB tekstu. Dane szkoleniowe wykorzystywane dla GPT-3 nie są ujawniane publicznie, ale uważa się, że obejmują różnorodne źródła, takie jak książki, artykuły i strony internetowe.

Teraz wyobraź sobie wszystkie te dane w bibliotece. Siedzisz sam w bibliotece i nagle ludzie zaczynają wchodzić do drzwi z pytaniami. „Opowiedz mi o historii Ameryki Południowej”. „Jakie mleko bezmleczne jest dla mnie najlepsze?” „W jaki sposób moja firma może skorzystać na wykorzystaniu influencer marketingu?” „Napisz mi 10 opcji tekstu w mediach społecznościowych” „Zachowuj się jak dziennikarz i napisz mi tekst o zbliżającej się recesji”. Ty też byłbyś trochę przytłoczony, prawda? Nie masz pojęcia, jak ustawić priorytety dla tych zapytań i musisz przekopywać się przez miliony danych, aby znaleźć właściwą odpowiedź i przedstawić ją pytającemu.

To właśnie robią LLM za każdym razem, gdy prosimy ich o wygenerowanie czegoś – i dlaczego mogą być momenty w ciągu dnia, kiedy platforma prosi o powrót później z powodu dużego ruchu. Ale gdyby LLM miały sposób na wydajniejsze przesiewanie danych – aby wiedzieć, którym częściom każdego zapytania nadać priorytet, co wymaga „pełnego wysiłku”, a co „częściowego wysiłku” – mogłyby być bardziej skuteczne.

Artykuł naukowy na temat CALM przedstawia to w następujący sposób:

„Ostatnie postępy w dużych modelach językowych (LLM) opartych na transformatorze doprowadziły do ​​znacznej poprawy wydajności wielu zadań.

Zyski te wiążą się z drastycznym wzrostem rozmiaru modeli, co potencjalnie prowadzi do powolnego i kosztownego użytkowania w czasie wnioskowania.

W praktyce jednak seria generacji tworzonych przez LLM składa się z różnych poziomów trudności.

Podczas gdy niektóre prognozy naprawdę korzystają z pełnej wydajności modeli, inne kontynuacje są bardziej trywialne i można je rozwiązać przy zmniejszonej mocy obliczeniowej.

… Chociaż duże modele generalnie radzą sobie lepiej, taka sama ilość obliczeń może nie być wymagana dla każdego wejścia, aby osiągnąć podobną wydajność (np. w zależności od tego, czy dane wejściowe są łatwe, czy trudne).”

Czerwony = pełna pojemność/zielony = mniej niż połowa pojemności

Google SPOKÓJ

Powyższe zdjęcie pokazuje ten pomysł w akcji. Naukowcy napisali:

„Kolory przedstawiają liczbę warstw dekodowania użytych dla każdego żetonu — jasnozielone odcienie wskazują mniej niż połowę wszystkich warstw. Tylko kilka wybranych tokenów wykorzystuje pełną pojemność modelu (kolor czerwony), podczas gdy dla większości tokenów model kończy się po jednej lub kilku warstwach dekodowania (kolor zielony).”

Naukowcy zauważyli również w swoich wnioskach, że wdrożenie CALM w LLM wymaga jedynie minimalnej modyfikacji, aby pomóc modelowi językowemu zwiększyć szybkość. Zasadniczo pozwala to na szybsze i wydajniejsze szkolenie LLM, co oznacza, że ​​mogą przetwarzać więcej informacji i uzyskiwać dokładniejsze wyniki w krótszym czasie.

Ma to oczywiste implikacje dla firm z każdej branży, ponieważ oznacza, że ​​mogą one zbierać informacje i podejmować decyzje szybciej iz większą dokładnością. Ale co to wszystko oznacza dla marketerów B2B?

Implikacje CALM dla marketerów B2B

marketingu treści

Funkcja CALM może mieć znaczący wpływ na strategie marketingu treści B2B, ponieważ może pomóc marketerom w generowaniu dokładniejszych i trafniejszych treści w oparciu o dane i spostrzeżenia w czasie rzeczywistym. Mając dostęp do większej liczby lepszych danych, LLM mogą pomóc marketerom szybciej identyfikować nowe trendy i możliwości, umożliwiając im szybsze reagowanie i wyprzedzanie konkurencji. Może to być szczególnie ważne w branżach, które szybko się rozwijają lub stoją w obliczu zakłóceń.

Zaangażowanie klienta i personalizacja

Marketerzy B2B mogą ulepszyć strategie angażowania klientów, dostarczając spersonalizowane treści, które rezonują z ich docelowymi odbiorcami. LLM mogą pomóc w identyfikacji wzorców zachowań i preferencji klientów, umożliwiając marketerom skuteczniejsze dostosowywanie komunikatów i treści. Może to być szczególnie ważne w branżach ze złożonymi lub technicznymi produktami, w których ukierunkowane wiadomości mogą mieć duże znaczenie. Marketerzy mogą również wykorzystać tę technologię do poprawy obsługi klienta, zapewniając dokładne i odpowiednie odpowiedzi na zapytania klientów.

Tłumaczenie

Technologia CALM może zwiększyć dokładność i efektywność automatycznych narzędzi tłumaczeniowych, co może być nieocenione dla firm B2B działających na globalnych rynkach. Poprawiając dokładność tłumaczenia, CALM może umożliwić firmom B2B skuteczniejszą komunikację z ich międzynarodowymi klientami i partnerami.

Oczywiście CALM to tylko jeden element układanki, jeśli chodzi o marketing B2B. Dla marketerów ważne jest, aby nadążać za wszystkimi najnowszymi osiągnięciami w swojej dziedzinie, od zmieniających się zachowań konsumentów po nowe kanały marketingowe i taktyki marketingowe. Jeśli potrzebujesz pomocy w opanowaniu najnowszych osiągnięć AI w swojej strategii marketingowej, skontaktuj się z nami.