Cele 6 riscuri ale conținutului AI

Publicat: 2023-04-18

1. Google Risk

În aprilie 2022, John Mueller de la Google, a împărtășit o poziție destul de clară cu privire la validitatea conținutului generat de inteligență artificială:

„În prezent, totul este împotriva regulilor pentru webmasteri. Deci, din punctul nostru de vedere, dacă ar fi să ne întâlnim cu așa ceva, dacă echipa webspam ar vedea asta, l-ar vedea ca spam.”

Deducerea: că Google ar penaliza site-urile care creează conținut AI, lucru pe care Mueller l-a comparat cu „învârtirea” - procesul de preluare a conținutului existent și de a folosi sinonime și reordonarea cuvintelor pentru a crea ceva aparent nou. Când sa confruntat cu o tehnologie care ar putea reduce costul marginal al creării de conținut la aproape zero (visul unui spammer web), Google a luat decizia de a descuraja utilizarea acestuia.

Dar, așa cum am explicat anterior, ideea că Google ar penaliza – sau chiar ar putea – conținutul generat de inteligență artificială a fost mult prea simplificată:

  • Conținutul generat de AI este, prin majoritatea măsurilor, original. GPT-4 nu rotește conținutul. Conținutul generat de AI conține scriere originală și poate conține chiar idei complet noi.
  • Detectarea conținutului AI este dificilă și din ce în ce mai dificilă. Tehnologia este o cursă a armelor și sunt mai mulți dolari care curg în generarea de conținut decât în ​​detectarea conținutului. Este puțin probabil ca Google să poată detecta conținutul generat de AI cu vreun grad de coerență.
  • Există o linie neclară între conținutul editat de oameni și conținutul scris prin inteligență artificială. Un articol generat de inteligență artificială mai contează ca spam dacă este editat sau rescris de o persoană reală?

Zece luni mai târziu, în februarie 2023, Google a publicat ghiduri actualizate despre conținutul generat de AI. Merită să citiți articolul sursă și să vă faceți propriul rezumat, dar concluzia mea este clară: urmăriți să creați conținut util, care să rezolve probleme, iar Google va fi în mare parte ambivalent în ceea ce privește modul în care este creat. După cum rezumă ele:

„Automatizarea a fost folosită de mult timp în publicare pentru a crea conținut util. AI poate ajuta și genera conținut util în moduri noi interesante.”

Când am discutat despre conținutul AI cu Ty Magnin, șeful de brand la Vendr, el a spus: „Când am început prima dată (acest lucru a fost cu adevărat acum câteva luni), Google spunea că va pedepsi articolele scrise cu AI. Cei mai mulți dintre noi și-au numit bluff-ul, dar acesta a fost un risc potențial real în 2022. Este uimitor cum profilul de risc perceput al gen-AI continuă să se schimbe atât de repede.”

Nimeni nu poate garanta că orice acțiune va fi imună la penalizare – Google este, până la urmă, o companie și nu o utilitate, capabilă să ia decizii bazate în mare parte pe propriile sale capricii. Dar există motive întemeiate să credem că majoritatea cazurilor de utilizare vor fi sigure.

2. Riscul canalului

Pe tema SEO, există un alt unghi care merită luat în considerare. În loc să vă gândiți la riscul pe care Google îl prezintă pentru utilizarea de către dvs. a AI, merită să luați în considerare riscul pe care AI îl prezintă pentru Google.

Concurența pentru cuvintele cheie crește pe zi ce trece. Rentabilitatea de la SEO a fost pe o traiectorie de lungă scădere și este posibil ca AI generativă să accelereze această coborâre. Asociați o creștere vastă a creării de conținut alimentat de inteligență artificială cu un scepticism tot mai mare cu privire la legitimitatea conținutului online, iar randamentul căutării ar putea scădea și mai mult (ceea ce am numit „singularitatea căutării”).

Există o mulțime de moduri care s-ar putea întâmpla:

Acest risc este speculativ, dar merită să păstrați mintea deschisă. IA generativă poate reprezenta un moment decisiv pentru căutarea modernă. Ce ai face dacă SEO – rațiunea de a fi a multor strategii de conținut – ar necesita brusc mult mai mult efort sau ar oferi profituri mult mai mici? Unde ți-ai realoca cheltuielile? La asta se gândește deja Ty:

„Motoarele de căutare experimentează adoptarea chatului ca interacțiune principală, ceea ce înseamnă că mai puține clicuri vor ajunge către alte site-uri web. Prin urmare, crearea de conținut organic axat pe căutare poate deveni mai puțin valoroasă pentru companii.

Nu este clar cum poate un chat să-și crediteze sursele și cum poate afecta asta un canal de marketing.”

3. Risc de halucinație

Când utilizați IA generativă, există un risc real ca conținutul dvs. să fie presărat cu falsitate și ficțiune: citate inventate atribuite unor oameni reali, date care nu există, idei aparent sensibile care se destramă la o inspecție mai atentă.

Aceste erori (deseori numite „halucinații”) sunt o proprietate intrinsecă a IA generativă, o consecință a obiectivului său principal: să prezică următorul cel mai bun cuvânt din orice secvență dată de cuvinte. După cum am explicat anterior, IA generativă este o mașină de falsă încredere:

  • Nu există niciun mecanism de verificare a faptelor în GPT-3 sau GPT-4 (și nici nu este probabil să existe unul).
  • Aceste modele se bazează pe date sursă care sunt adesea incorecte.
  • AI generativ este conceput pentru a scrie cu orice preț, pompând conținut chiar și atunci când există date limitate în setul de date.

Halucinația este riscul cel mai concret al conținutului AI, dar este și cel mai ușor de rezolvat. Erorile și greșelile pot fi surprinse și remediate punând un om în buclă, cineva însărcinat să analizeze validitatea rezultatelor, să caute erori și minciuni și să pună ștampila de aprobare pe articolul finit.

Acest proces ajută și cu următoarea sursă de risc: legal.

4. Risc juridic

Tehnologia are tendința de a se dezvolta mai repede decât pot ține pasul reglementările. AI generativ a creat deja o serie de întrebări la care trebuie să se răspundă:

  • Este etic (sau legal) să folosiți datele site-ului web răzuite pentru a antrena un model AI?
  • Cine „deține” cu adevărat rezultatul unui instrument AI generativ?
  • Ar trebui să li se compenseze artiștii pentru rolul lor în construirea datelor de formare? („Scrie în stilul lui Ernest Hemingway” sau chiar „Scrie în stilul blogului Animalz”).

În timp ce unele dintre aceste probleme pot dura ani sau decenii pentru a se rezolva, altele prezintă o preocupare imediată pentru companiile care folosesc AI generativă. L-am rugat pe Aleksander Goranin, specialist în probleme de proprietate intelectuală și inteligență artificială și partener la Duane Morris LLP (o firmă pe care Animalz o folosește pentru servicii juridice), să-și împărtășească ideile despre domeniile actuale de risc de reglementare:

  • Scurgere de date personale. Pe măsură ce modelele generative sunt instruite pe seturi de date publice, conținutul generat poate „scurge” în mod involuntar date personale, deschizând editorul la acțiuni de aplicare din partea Comisiei Federale de Comerț și a agențiilor de stat, în special în California, New York și Illinois. Autoritățile de reglementare sunt sensibile la dezvăluirea neautorizată a informațiilor de identificare personală.
  • Conținut părtinitor. Într-o ordine similară, FTC sau autoritățile de stat pot urma o acțiune de aplicare a legii pentru conținutul care conține părtiniri (cum ar fi prejudecățile rasiale sau de gen), chiar dacă această părtinire provine implicit din datele pe care modelul AI a fost antrenat.
  • Lipsa protecției dreptului de autor. După cum explică Aleksander, „Există riscul ca Biroul pentru Drepturi de Autor să nu înregistreze conținutul generat ca „lucrare” protejată. Acesta este domeniul în care Biroul pentru Drepturi de Autor a emis cea mai mare cantitate de îndrumări în prezent - în esență, trebuie să dezvăluiți în aplicația de înregistrare măsura în care a fost utilizată AI și să renunțați la drepturile de autor asupra oricăror părți generate în mod substanțial de LLM. Oficiul pentru Drepturi de Autor necesită un „autor uman”.

Cel mai sigur caz de utilizare pentru IA generativă este, fără a fi surprinzător, cercetarea de fundal, brainstormingul și generarea de idei. Pentru orice altceva, crearea unei scheme de „evaluare umană” pentru conținutul generat ar trebui să contribuie la atenuarea celui mai mare risc de reglementare.

5. Risc de mediocritate

Mulți oameni se tem că conținutul AI va fi în mod evident rău. Dar cred că acest lucru are un risc relativ scăzut. GPT-4 este un scriitor mai bun decât majoritatea oamenilor: mai articulat, creativ și receptiv la feedback (și acest lucru se va îmbunătăți doar cu modelele și interfețele viitoare).

Nu ar trebui să luăm asta personal: GPT-4 este literalmente supraomenesc, cel puțin în dimensiunile citirii și scrierii. După cum spune Ty, „A fost destul de evident că tehnologia este suficient de grozavă încât, cu un mic lift, calitatea nu este mai mult o problemă cu o postare asistată de inteligență artificială decât cu una condusă de oameni.”

Dar conținutul nu trebuie să fie rău pentru a fi problematic. Există un risc mai insidios de luat în considerare: că conținutul tău va fi funcțional, dar de uitat.

În căutarea unei frecvențe sporite de publicare, există riscul de a pierde orice sclipire de unicitate pe care o deține în prezent conținutul tău. Conținutul dvs. va fi articulat, precis, chiar operabil... și tot nu va face nimic util pentru compania dvs.

Marketingul de conținut excelent înseamnă mai mult decât cuvinte pe o pagină. Fiecare articol individual necesită coeziune cu o strategie mai mare, cu scop. Se bazează pe o distribuție eficientă. Trebuie să meargă mai departe decât pur și simplu îndeplinirea așteptărilor de bază ale cititorului: trebuie să lase o impresie de durată, să rezolve o problemă sau să distreze .

Bazați-vă prea mult pe IA generativă și prea puțin pe experiența calificată și riști să creezi un fel de imitație fără suflet a conținutului bun, un zombie zguduitor cu aspectul de „marketing de conținut”, dar niciuna dintre calitățile sale utile. Inteligența artificială generativă trebuie să fie un instrument în setul tău de instrumente, subordonat strategiei tale – și nu un scop în sine.

După cum scrie VC Tomasz Tunguz, „Întrebarea pentru startup-urile care evaluează producția automată de conținut: dacă acest lucru este suficient pentru a ieși în evidență în mintea cumpărătorilor. Pentru multe cazuri de utilizare, unicitatea nu va conta. Documentație de produs, conținut evergreen pentru SEO, răspunsuri predefinite pentru e-mail.” Este adevărat și invers: în unele situații, unicitatea este totul.

6. Riscul ultimului mutant

Când Ty a lansat un program de conținut asistat de inteligență artificială, principala preocupare pe care a auzit-o nu a fost riscul legal sau calitatea proastă; era îngrijorarea că cea mai mare oportunitate trecuse deja:

„Unii oameni au crezut că este deja prea târziu pentru a crește volumul de conținut pe care îl producem și că piața va fi saturată în câteva luni.

Dar cred că oamenii supraestimează cât de repede sunt adoptate tehnologiile. Cred că oamenii încă se trezesc la ceea ce poate face conținutul generat de inteligență artificială.”

La fel ca orice tehnologie nouă, IA generativă oferă incertitudine și un anumit grad de risc, dar odată cu riscul vine și oportunitatea. Oportunitatea de a construi un șanț defensabil de clasamente și backlink-uri înaintea concurenților tăi. Oportunitatea de a experimenta canale de trafic complet noi. Oportunitatea de a încorpora personalizarea în inima marketingului dvs.

Când vine vorba de conținutul AI, cel mai clar și cel mai sigur risc vine din eșecul de a experimenta și de a învăța. Inteligența artificială generativă își va găsi drumul în fiecare strategie de marketing. Este prea bun și prea ieftin pentru orice altceva. Deși aplicarea „corectă” a AI generativă va varia enorm de la o companie la alta – în funcție de toleranța la risc, așteptările publicului, obiectivele, resursele și convingerile personale – va exista o aplicație în aproape fiecare companie.

E timpul să o găsești.