6 zagrożeń związanych z treściami AI

Opublikowany: 2023-04-18

1. Ryzyko Google

W kwietniu 2022 r. John Mueller z Google podzielił się dość jasnym stanowiskiem na temat ważności treści generowanych przez sztuczną inteligencję:

„Obecnie jest to niezgodne ze wskazówkami dla webmasterów. Więc z naszego punktu widzenia, gdybyśmy natknęli się na coś takiego, gdyby zespół zajmujący się spamem zobaczył to, uznaliby to za spam”.

Wniosek: Google będzie karać witryny tworzące treści AI, coś, co Mueller porównał do „kręcenia” — procesu pobierania istniejących treści i używania synonimów oraz zmiany kolejności słów w celu stworzenia czegoś pozornie nowego. W obliczu technologii, która może zredukować koszt krańcowy tworzenia treści niemal do zera (marzenie spamera internetowego), Google podjął decyzję o powstrzymaniu jej używania.

Ale, jak wyjaśniliśmy wcześniej, pomysł, że Google będzie – lub nawet mógł – karać treści generowane przez sztuczną inteligencję, był znacznie uproszczony:

  • Treści generowane przez sztuczną inteligencję są w większości przypadków oryginalne. GPT-4 nie obraca zawartości. Treści generowane przez sztuczną inteligencję zawierają oryginalne teksty, a nawet mogą zawierać zupełnie nowe pomysły.
  • Wykrywanie treści AI jest trudne i staje się coraz trudniejsze. Technologia to wyścig zbrojeń, a na tworzenie treści przeznacza się więcej dolarów niż na wykrywanie treści. Google prawdopodobnie nie będzie w stanie wykryć treści generowanych przez sztuczną inteligencję z jakimkolwiek stopniem spójności.
  • Granica między treściami redagowanymi przez ludzi a treściami tworzonymi przez sztuczną inteligencję jest niewyraźna. Czy artykuł wygenerowany przez sztuczną inteligencję nadal zalicza się do spamu, jeśli został zredagowany lub przepisany przez prawdziwą osobę?

Dziesięć miesięcy później, w lutym 2023 r., Google wydało zaktualizowane wytyczne dotyczące treści generowanych przez sztuczną inteligencję. Warto przeczytać artykuł źródłowy i sporządzić własne podsumowanie, ale moje wnioski są jasne: staraj się tworzyć pomocną, rozwiązującą problemy treść, a Google będzie miał w dużej mierze ambiwalentny stosunek do sposobu jej tworzenia. Jak podsumowują:

„Automatyzacja jest od dawna wykorzystywana w publikowaniu do tworzenia przydatnych treści. Sztuczna inteligencja może pomagać i generować przydatne treści na nowe, ekscytujące sposoby”.

Kiedy rozmawiałem o treści AI z Ty Magninem, szefem marki w Vendr, powiedział: „Kiedy zaczynaliśmy (to było naprawdę zaledwie kilka miesięcy temu), Google mówił, że będzie karać artykuły napisane z AI. Większość z nas sprawdziła swój blef, ale w 2022 roku było to realne potencjalne ryzyko. To niesamowite, jak postrzegany profil ryzyka gen-AI zmienia się tak szybko”.

Nikt nie może zagwarantować, że każde działanie będzie wolne od sankcji — Google jest w końcu firmą , a nie narzędziem, zdolnym do podejmowania decyzji w dużej mierze na podstawie własnych zachcianek. Istnieją jednak dobre powody, by sądzić, że większość przypadków użycia będzie bezpieczna.

2. Ryzyko kanału

Jeśli chodzi o SEO, warto rozważyć inny punkt widzenia. Zamiast zastanawiać się nad ryzykiem, jakie Google stwarza dla Twojego korzystania ze sztucznej inteligencji, warto zastanowić się nad ryzykiem, jakie sztuczna inteligencja stwarza dla Google.

Rywalizacja o słowa kluczowe z każdym dniem staje się coraz ostrzejsza. Zwroty z SEO mają długą trajektorię malejącą i możliwe, że generatywna sztuczna inteligencja może przyspieszyć ten spadek. Połącz ogromny wzrost tworzenia treści opartych na sztucznej inteligencji z rosnącym sceptycyzmem co do legalności treści online, a zwroty z wyszukiwania mogą spaść jeszcze bardziej (co nazwaliśmy „osobliwością wyszukiwania”).

Istnieje wiele sposobów, które mogą się wydarzyć:

To ryzyko jest spekulacyjne, ale warto zachować otwarty umysł. Generatywna sztuczna inteligencja może stanowić przełomowy moment dla współczesnego wyszukiwania. Co byś zrobił, gdyby SEO — raison d'etre wielu strategii dotyczących treści — nagle wymagało znacznie większego wysiłku lub oferowało znacznie niższe zyski? Gdzie przeniósłbyś swoje wydatki? To jest coś, o czym Ty już myśli:

„Wyszukiwarki eksperymentują z przyjęciem czatu jako podstawowej interakcji, co oznacza, że ​​mniej kliknięć trafi do innych witryn. Dlatego tworzenie organicznych treści ukierunkowanych na wyszukiwanie może stać się mniej wartościowe dla firm.

Nie jest jasne, w jaki sposób czat może przypisywać swoje źródła i jak może to wpłynąć na lejek marketingowy”.

3. Ryzyko halucynacji

Podczas korzystania z generatywnej sztucznej inteligencji istnieje realne ryzyko, że Twoje treści będą pełne fałszu i fikcji: zmyślonych cytatów przypisywanych prawdziwym ludziom, danych, które nie istnieją, pozornie sensownych pomysłów, które rozpadają się po bliższym przyjrzeniu się.

Błędy te (często nazywane „halucynacjami”) są nieodłączną cechą generatywnej sztucznej inteligencji, konsekwencją jej głównego celu: przewidzenia następnego najlepszego słowa w dowolnej sekwencji słów. Jak wyjaśniliśmy wcześniej, generatywna sztuczna inteligencja jest maszyną fałszywej pewności siebie:

  • Nie ma mechanizmu sprawdzania faktów w ramach GPT-3 lub GPT-4 (i prawdopodobnie nie będzie).
  • Modele te opierają się na danych źródłowych, które często są niepoprawne.
  • Generatywna sztuczna inteligencja jest zaprojektowana do pisania za wszelką cenę, wypompowując treści nawet wtedy, gdy w zbiorze danych znajduje się ograniczona ilość danych.

Halucynacje to najbardziej konkretne ryzyko związane z zawartością sztucznej inteligencji, ale także najłatwiejsze do rozwiązania. Błędy i pomyłki można wychwycić i naprawić, wprowadzając człowieka w pętlę, kogoś, kto ma za zadanie przeanalizować ważność danych wyjściowych, wyszukać błędy i kłamstwa oraz umieścić swoją pieczęć zatwierdzenia na gotowym artykule.

Ten proces pomaga również w przypadku kolejnego źródła ryzyka: prawnego.

4. Ryzyko prawne

Technologia ma tendencję do rozwijania się szybciej, niż mogą nadążyć przepisy. Generative AI stworzyło już wiele pytań, na które należy odpowiedzieć:

  • Czy etyczne (lub legalne) jest wykorzystywanie zebranych danych z witryny do trenowania modelu sztucznej inteligencji?
  • Kto naprawdę jest „właścicielem” danych wyjściowych generatywnego narzędzia AI?
  • Czy artyści powinni otrzymywać wynagrodzenie za swoją rolę w budowaniu danych szkoleniowych? („Pisz w stylu Ernesta Hemingwaya” lub nawet „Pisz w stylu bloga Animalz”).

Podczas gdy rozwiązanie niektórych z tych problemów może zająć lata lub dziesięciolecia, inne budzą natychmiastowe obawy firm korzystających z generatywnej sztucznej inteligencji. Poprosiłem Aleksandra Goranina, specjalistę ds. własności intelektualnej i sztucznej inteligencji oraz partnera w Duane Morris LLP (firmie, z której korzysta Animalz w zakresie obsługi prawnej), o podzielenie się swoimi przemyśleniami na temat aktualnych obszarów ryzyka regulacyjnego:

  • Wyciek danych osobowych. Ponieważ modele generatywne są szkolone na publicznych zbiorach danych, generowane treści mogą nieświadomie „wyciekać” dane osobowe, narażając wydawcę na działania egzekucyjne ze strony Federalnej Komisji Handlu i agencji stanowych, zwłaszcza w Kalifornii, Nowym Jorku i Illinois. Organy regulacyjne są wrażliwe na nieuprawnione ujawnienie danych osobowych.
  • Treść tendencyjna. W podobny sposób FTC lub władze stanowe mogą podjąć działania egzekucyjne w przypadku treści zawierających uprzedzenia (takie jak uprzedzenia rasowe lub płciowe), nawet jeśli uprzedzenia te wynikają pośrednio z danych, na których szkolono model sztucznej inteligencji.
  • Brak ochrony praw autorskich. Jak wyjaśnia Aleksander: „Istnieje ryzyko, że Urząd ds. Praw Autorskich nie zarejestruje wygenerowanych treści jako chronionego utworu. Jest to obszar, w którym Urząd ds. Praw Autorskich wydał obecnie najwięcej wskazówek — zasadniczo we wniosku o rejestrację należy ujawnić zakres wykorzystania sztucznej inteligencji i zrzec się praw autorskich do wszelkich części zasadniczo wygenerowanych przez LLM. Urząd ds. praw autorskich wymaga „autora-człowieka”.

Nic dziwnego, że najbezpieczniejszym przypadkiem użycia generatywnej sztucznej inteligencji jest badanie tła, burza mózgów i generowanie pomysłów. Cokolwiek innego, stworzenie schematu „przeglądu przez człowieka” dla generowanych treści powinno pomóc złagodzić największe ryzyko regulacyjne.

5. Ryzyko przeciętności

Wiele osób martwi się, że zawartość AI będzie jawnie zła. Ale myślę, że jest to stosunkowo niskie ryzyko. GPT-4 jest lepszym pisarzem niż większość ludzi: bardziej elokwentny, kreatywny i otwarty na opinie (a to poprawi się tylko dzięki przyszłym modelom i interfejsom).

Nie powinniśmy brać tego do siebie: GPT-4 jest dosłownie nadludzki, przynajmniej w zakresie czytania i pisania. Jak mówi Ty : „Było całkiem oczywiste, że technologia jest na tyle świetna, że ​​przy niewielkim ulepszeniu jakość nie jest większym problemem w przypadku posta wspomaganego przez sztuczną inteligencję niż w przypadku posta napędzanego przez człowieka”.

Ale treść nie musi być zła, aby była problematyczna. Należy wziąć pod uwagę bardziej podstępne ryzyko: Twoje treści będą funkcjonalne, ale nie do zapomnienia.

W pogoni za zwiększoną częstotliwością publikowania istnieje ryzyko utraty jakiegokolwiek przebłysku wyjątkowości, jaki obecnie posiada Twoja treść. Twoje treści będą klarowne, dokładne, a nawet przydatne… i nadal nie wniosą nic pożytecznego dla Twojej firmy.

Świetny content marketing to coś więcej niż słowa na stronie. Każdy artykuł wymaga spójności z większą, celową strategią. Opiera się na efektywnej dystrybucji. Musi wykraczać poza zwykłe spełnianie podstawowych oczekiwań czytelnika: musi wywrzeć trwałe wrażenie, rozwiązać problem lub zapewnić rozrywkę .

Polegając zbytnio na generatywnej sztucznej inteligencji, a zbyt mało na wykwalifikowanym doświadczeniu, ryzykujesz stworzenie rodzaju bezdusznej imitacji dobrej treści, chwiejącego się zombie z wyglądem „marketingu treści”, ale bez jego użytecznych cech. Generatywna sztuczna inteligencja musi być narzędziem w Twoim zestawie narzędzi, podporządkowanym Twojej strategii — a nie celem samym w sobie.

Jak pisze VC Tomasz Tunguz: „Pytanie do startupów oceniających zautomatyzowaną produkcję treści: czy to wystarczy, aby wyróżnić się w umysłach kupujących. W wielu przypadkach wyjątkowość nie będzie miała znaczenia. Dokumentacja produktu, zawsze aktualne treści dla SEO, gotowe odpowiedzi na e-maile”. Odwrotność jest również prawdziwa: w niektórych sytuacjach wyjątkowość jest wszystkim.

6. Ryzyko ostatniego ruchu

Kiedy Ty wdrażał program treści wspomagany przez sztuczną inteligencję, głównym zmartwieniem, jakie usłyszał, nie było ryzyko prawne ani niska jakość; chodziło o to, że największa szansa już minęła:

„Niektórzy ludzie myśleli, że jest już za późno, aby zwiększyć ilość produkowanych przez nas treści i że rynek będzie nasycony w ciągu kilku miesięcy.

Myślę jednak, że ludzie przeceniają szybkość przyjmowania technologii. Myślę, że ludzie wciąż zaczynają dostrzegać, co mogą zrobić treści generowane przez sztuczną inteligencję”.

Jak każda nowa technologia, generatywna sztuczna inteligencja oferuje niepewność i pewien stopień ryzyka — ale wraz z ryzykiem pojawiają się możliwości. Możliwość zbudowania możliwej do obrony fosy rankingów i linków zwrotnych przed konkurencją. Możliwość eksperymentowania z zupełnie nowymi kanałami ruchu. Możliwość osadzenia personalizacji w sercu Twojego marketingu.

Jeśli chodzi o treści związane ze sztuczną inteligencją, najwyraźniejsze i najbardziej pewne ryzyko wynika z braku eksperymentowania i uczenia się. Generative AI odnajdzie się w każdej strategii marketingowej. Jest za dobry i za tani na cokolwiek innego. Chociaż „właściwe” zastosowanie generatywnej sztucznej inteligencji będzie się znacznie różnić w zależności od firmy — w oparciu o tolerancję ryzyka, oczekiwania odbiorców, cele, zasoby i osobiste przekonania — znajdzie się zastosowanie w prawie każdej firmie.

Czas go znaleźć.