I 6 rischi dei contenuti AI
Pubblicato: 2023-04-181. Rischio di Google
Nell'aprile 2022, John Mueller di Google, ha condiviso una posizione abbastanza chiara sulla validità dei contenuti generati dall'intelligenza artificiale:
“Attualmente, è tutto contro le linee guida per i webmaster. Quindi, dal nostro punto di vista, se dovessimo imbatterci in qualcosa del genere, se il team di webspam lo vedesse, lo vedrebbero come spam".
La conclusione: che Google penalizzerebbe i siti che creano contenuti AI, qualcosa che Mueller ha paragonato allo "spinning" - il processo di prendere contenuti esistenti e utilizzare sinonimi e riordinare le parole per creare qualcosa di apparentemente nuovo. Di fronte a una tecnologia che potrebbe ridurre quasi a zero il costo marginale della creazione di contenuti (il sogno di un webspammer), Google ha deciso di scoraggiarne l'uso.
Ma come abbiamo spiegato in precedenza, l'idea che Google avrebbe – o addirittura potuto – penalizzare i contenuti generati dall'intelligenza artificiale era enormemente semplificata:
- I contenuti generati dall'intelligenza artificiale sono, per la maggior parte delle misure, originali. GPT-4 non gira il contenuto. I contenuti generati dall'intelligenza artificiale contengono testi originali e possono persino contenere idee completamente nuove.
- Il rilevamento dei contenuti AI è difficile e sta diventando sempre più difficile. La tecnologia è una corsa al braccio e ci sono più soldi che fluiscono nella generazione di contenuti che nel rilevamento dei contenuti. È improbabile che Google sia in grado di rilevare i contenuti generati dall'intelligenza artificiale con un certo grado di coerenza.
- C'è una linea sfocata tra i contenuti modificati dall'uomo e quelli scritti dall'intelligenza artificiale. Un articolo generato dall'intelligenza artificiale viene comunque considerato spam se viene modificato o riscritto da una persona reale?
Dieci mesi dopo, nel febbraio 2023, Google ha pubblicato una guida aggiornata sui contenuti generati dall'intelligenza artificiale. Vale la pena leggere l'articolo di origine e creare il proprio riepilogo, ma la mia opinione è chiara: mira a creare contenuti utili per la risoluzione dei problemi e Google sarà in gran parte ambivalente su come viene creato. Come sintetizzano:
“L'automazione è stata a lungo utilizzata nell'editoria per creare contenuti utili. L'intelligenza artificiale può aiutare e generare contenuti utili in modi nuovi ed entusiasmanti".
Quando ho parlato dei contenuti di intelligenza artificiale con Ty Magnin, capo del marchio di Vendr, ha condiviso: “Quando abbiamo iniziato (in realtà solo pochi mesi fa), Google diceva che avrebbe punito gli articoli scritti con l'intelligenza artificiale. La maggior parte di noi ha chiamato il loro bluff, ma quello era un vero rischio potenziale nel 2022. È incredibile come il profilo di rischio percepito della gen-AI continui a cambiare così rapidamente.
Nessuno può garantire che qualsiasi azione sarà immune da penalizzazioni: dopo tutto, Google è un'azienda e non un'utilità, in grado di prendere decisioni basate in gran parte sui propri capricci. Ma ci sono buone ragioni per pensare che la maggior parte dei casi d'uso sarà sicura.
2. Rischio di canale
Sul tema SEO, c'è un altro aspetto che vale la pena considerare. Invece di pensare al rischio che Google rappresenta per il tuo utilizzo dell'IA, vale la pena considerare il rischio che l'IA rappresenta per Google.
La concorrenza per le parole chiave diventa più feroce di giorno in giorno. I ritorni dalla SEO hanno seguito una traiettoria discendente ed è possibile che l'IA generativa possa accelerare questa discesa. Abbina un grande aumento nella creazione di contenuti alimentata dall'intelligenza artificiale con un crescente scetticismo sulla legittimità dei contenuti online e i rendimenti della ricerca potrebbero diminuire ulteriormente (quella che abbiamo soprannominato la "singolarità della ricerca").
Ci sono molti modi in cui potrebbe accadere:
Questo rischio è speculativo, ma vale la pena mantenere una mente aperta. L'IA generativa può rappresentare uno spartiacque per la ricerca moderna. Cosa faresti se la SEO, la ragion d'essere di molte strategie di contenuto, improvvisamente richiedesse molto più impegno o offrisse rendimenti molto inferiori? Dove riallocheresti la tua spesa? Questo è qualcosa a cui Ty sta già pensando:
“I motori di ricerca stanno sperimentando l'adozione della chat come interazione principale, il che significa che meno clic andranno ad altri siti web. Quindi la creazione di contenuti organici incentrati sulla ricerca può diventare meno preziosa per le aziende.
Non è chiaro in che modo una chat possa accreditare le sue fonti e in che modo ciò possa influire su una canalizzazione di marketing.
3. Rischio di allucinazioni
Quando utilizzi l'intelligenza artificiale generativa, c'è il rischio reale che i tuoi contenuti siano disseminati di falsità e finzione: citazioni inventate attribuite a persone reali, dati che non esistono, idee apparentemente sensate che si sgretolano a un esame più attento.
Questi errori (spesso soprannominati "allucinazioni") sono una proprietà intrinseca dell'IA generativa, una conseguenza del suo obiettivo primario: prevedere la parola migliore successiva in una data sequenza di parole. Come abbiamo spiegato in precedenza, l'IA generativa è una macchina della falsa fiducia:
- Non esiste alcun meccanismo di verifica dei fatti all'interno di GPT-3 o GPT-4 (né è probabile che ce ne sia uno).
- Questi modelli si basano su dati di origine che spesso non sono corretti.
- L'IA generativa è progettata per scrivere a tutti i costi, pompando contenuti anche quando i dati sono limitati nel set di dati.
L'allucinazione è il rischio più concreto dei contenuti AI, ma è anche il più facilmente risolto. Errori ed errori possono essere colti e risolti mettendo un essere umano nel giro, qualcuno incaricato di analizzare la validità dell'output, cercare errori e bugie e apporre il proprio timbro di approvazione sull'articolo finito.
Questo processo aiuta anche con la prossima fonte di rischio: legale.
4. Rischio legale
La tecnologia ha la tendenza a svilupparsi più velocemente di quanto le normative possano tenere il passo. L'IA generativa ha già creato una serie di domande a cui è necessario rispondere:
- È etico (o legale) utilizzare i dati del sito Web raschiati per addestrare un modello di intelligenza artificiale?
- Chi veramente "possiede" l'output di uno strumento di intelligenza artificiale generativa?
- Gli artisti dovrebbero essere ricompensati per il loro ruolo nella creazione di dati di formazione? ("Scrivi nello stile di Ernest Hemingway" o anche "Scrivi nello stile del blog Animalz.")
Mentre alcuni di questi problemi potrebbero richiedere anni o decenni per districare, altri presentano una preoccupazione immediata per le aziende che utilizzano l'IA generativa. Ho chiesto ad Aleksander Goranin, specialista in questioni di proprietà intellettuale e intelligenza artificiale e partner di Duane Morris LLP (una società che Animalz utilizza per i servizi legali), di condividere le sue idee sulle attuali aree di rischio normativo:
- Fuga di dati personali. Poiché i modelli generativi vengono addestrati su set di dati pubblici, i contenuti generati possono inconsapevolmente "trapelare" dati personali, esponendo l'editore ad azioni di contrasto da parte della Federal Trade Commission e delle agenzie statali, in particolare in California, New York e Illinois. Le autorità di regolamentazione sono sensibili alla divulgazione non autorizzata di informazioni di identificazione personale.
- Contenuti di parte. Allo stesso modo, la FTC o le autorità statali possono perseguire un'azione di applicazione per i contenuti che contengono pregiudizi (come pregiudizi razziali o di genere), anche se tale pregiudizio deriva implicitamente dai dati su cui è stato addestrato il modello di intelligenza artificiale.
- Mancanza di protezione del diritto d'autore. Come spiega Aleksander, “C'è il rischio che il Copyright Office non registri il contenuto generato come 'opera' protetta. Questa è l'area in cui il Copyright Office ha emesso la maggior quantità di linee guida attualmente: essenzialmente, è necessario divulgare nella domanda di registrazione la misura in cui è stata utilizzata l'intelligenza artificiale e negare il copyright su qualsiasi parte sostanzialmente generata dall'LLM. Il Copyright Office richiede un 'autore umano'”.
Il caso d'uso più sicuro per l'IA generativa è, ovviamente, la ricerca di base, il brainstorming e la generazione di idee. Per qualsiasi altra cosa, la creazione di uno schema di "revisione umana" per i contenuti generati dovrebbe aiutare a mitigare il maggior rischio normativo.
5. Rischio mediocrità
Molte persone temono che i contenuti AI siano apertamente negativi. Ma penso che questo sia un rischio relativamente basso. GPT-4 è uno scrittore migliore della maggior parte delle persone: più articolato, creativo e ricettivo al feedback (e questo migliorerà solo con modelli e interfacce futuri).
Non dovremmo prenderla sul personale: GPT-4 è letteralmente sovrumano, almeno nelle dimensioni della lettura e della scrittura. Come condivide Ty, "Era abbastanza ovvio che la tecnologia è abbastanza grande che con un piccolo aumento, la qualità non è più un problema con un post assistito dall'intelligenza artificiale che con uno guidato dall'uomo".
Ma il contenuto non ha bisogno di essere cattivo per essere problematico. C'è un rischio più insidioso da considerare: che i tuoi contenuti siano funzionali ma dimenticabili.
Nella ricerca di una maggiore frequenza di pubblicazione, c'è il rischio di perdere qualsiasi barlume di unicità che i tuoi contenuti possiedono attualmente. I tuoi contenuti saranno articolati, accurati, persino fruibili... e comunque non riusciranno a fare nulla di utile per la tua azienda.
Un ottimo content marketing è qualcosa di più delle parole su una pagina. Ogni singolo articolo richiede coesione con una strategia più ampia e mirata. Si basa su una distribuzione efficace. Deve andare oltre il semplice soddisfare le aspettative di base del lettore: deve lasciare un'impressione duratura, risolvere un problema o intrattenere .
Affidati troppo all'IA generativa e troppo poco all'esperienza qualificata, e rischi di creare una sorta di imitazione senz'anima di buoni contenuti, uno zombi barcollante con l'apparenza di "content marketing" ma nessuna delle sue utili qualità. L'IA generativa deve essere uno strumento nel tuo kit di strumenti, sottomessa alla tua strategia e non un fine a sé stante.
Come scrive VC Tomasz Tunguz, “La domanda per le startup che valutano la produzione automatizzata di contenuti: se questo è sufficiente per distinguersi nella mente degli acquirenti. Per molti casi d'uso, l'unicità non ha importanza. Documentazione del prodotto, contenuti sempreverdi per SEO, risposte predefinite per e-mail. È vero anche il contrario: in alcune situazioni l'unicità è tutto.
6. Rischio dell'ultima mossa
Quando Ty ha lanciato un programma di contenuti assistito dall'intelligenza artificiale, la preoccupazione principale che ha sentito non era il rischio legale o la scarsa qualità; era la preoccupazione che la più grande opportunità fosse già passata:
“Alcune persone pensavano che fosse già troppo tardi per aumentare il volume di contenuti che stavamo producendo e che il mercato si sarebbe saturato nel giro di pochi mesi.
Ma penso che la gente sopravvaluti la rapidità con cui le tecnologie vengono adottate. Penso che le persone si stiano ancora rendendo conto di cosa possono fare i contenuti generati dall'intelligenza artificiale.
Come ogni nuova tecnologia, l'IA generativa offre incertezza e un certo grado di rischio, ma con il rischio arrivano le opportunità. L'opportunità di costruire un fossato difendibile di classifiche e backlink prima dei tuoi concorrenti. L'opportunità di sperimentare canali di traffico completamente nuovi. L'opportunità di incorporare la personalizzazione nel cuore del tuo marketing.
Quando si tratta di contenuti AI, il rischio più evidente e certo deriva dall'incapacità di sperimentare e apprendere. L'IA generativa troverà la sua strada in ogni strategia di marketing. È troppo buono e troppo economico per qualsiasi altra cosa. Sebbene l'applicazione "giusta" dell'IA generativa varierà enormemente da un'azienda all'altra, in base alla tolleranza al rischio, alle aspettative del pubblico, agli obiettivi, alle risorse e alle convinzioni personali, ci sarà un'applicazione in quasi tutte le aziende.
È ora di andare a trovarlo.