Os 6 riscos do conteúdo de IA
Publicados: 2023-04-181. Risco do Google
Em abril de 2022, John Mueller, do Google, compartilhou uma posição bastante clara sobre a validade do conteúdo gerado por IA:
“Atualmente, tudo é contra as diretrizes para webmasters. Então, do nosso ponto de vista, se nos deparássemos com algo assim, se a equipe de spam o visse, eles o veriam como spam.”
A inferência: que o Google penalizaria sites que criassem conteúdo de IA, algo que Mueller comparou a “spinning” – o processo de pegar o conteúdo existente e usar sinônimos e reordenar palavras para criar algo aparentemente novo. Ao se deparar com uma tecnologia que poderia reduzir o custo marginal de criação de conteúdo a quase zero (o sonho de um webspammer), o Google tomou a decisão de deter seu uso.
Mas, como explicamos anteriormente, a ideia de que o Google iria – ou mesmo poderia – penalizar o conteúdo gerado por IA foi muito simplificada:
- O conteúdo gerado por IA é, na maioria das vezes, original. GPT-4 não gira conteúdo. O conteúdo gerado por IA contém escrita original e pode até conter ideias completamente novas.
- A detecção de conteúdo de IA é difícil e está ficando mais difícil. A tecnologia é uma corrida armamentista e há mais dólares fluindo para a geração de conteúdo do que para a detecção de conteúdo. É improvável que o Google consiga detectar conteúdo gerado por IA com qualquer grau de consistência.
- Há uma linha tênue entre conteúdo editado por humanos e escrito por IA. Um artigo gerado por IA ainda conta como spam se for editado ou reescrito por uma pessoa real?
Dez meses depois, em fevereiro de 2023, o Google emitiu orientações atualizadas sobre conteúdo gerado por IA. Vale a pena ler o artigo de origem e fazer seu próprio resumo, mas minha conclusão é clara: procure criar conteúdo útil para a solução de problemas, e o Google será amplamente ambivalente sobre como ele é criado. Como eles resumem:
“A automação tem sido usada há muito tempo na publicação para criar conteúdo útil. A IA pode ajudar e gerar conteúdo útil de maneiras novas e empolgantes.”
Quando conversei sobre conteúdo de IA com Ty Magnin, chefe de marca da Vendr, ele compartilhou: “Quando começamos (isso foi apenas alguns meses atrás), o Google estava dizendo que puniria artigos escritos com IA. A maioria de nós percebeu o blefe, mas esse foi um risco potencial real em 2022. É incrível como o perfil de risco percebido da IA da geração continua mudando tão rapidamente.
Ninguém pode garantir que qualquer ação estará imune a penalidades — o Google é, afinal, uma empresa e não uma concessionária, capaz de tomar decisões baseadas em grande parte em seus próprios caprichos. Mas há boas razões para pensar que a maioria dos casos de uso será segura.
2. Risco de canal
No tópico de SEO, há outro ângulo que vale a pena considerar. Em vez de pensar no risco que o Google representa para o uso da IA, vale a pena considerar o risco que a IA representa para o Google.
A competição por palavras-chave cresce a cada dia. Os retornos do SEO estão em uma trajetória decrescente, e é possível que a IA generativa acelere essa queda. Combine um grande aumento na criação de conteúdo alimentado por IA com um crescente ceticismo sobre a legitimidade do conteúdo online, e os retornos da pesquisa podem cair ainda mais (o que chamamos de “singularidade da pesquisa”).
Existem muitas maneiras de isso acontecer:
Esse risco é especulativo, mas vale a pena manter a mente aberta. A IA generativa pode representar um divisor de águas para a pesquisa moderna. O que você faria se o SEO – a razão de ser de muitas estratégias de conteúdo – de repente exigisse muito mais esforço ou oferecesse retornos muito menores? Onde você realocaria seus gastos? Isso é algo em que Ty já está pensando:
“Os mecanismos de pesquisa estão experimentando adotar o bate-papo como a interação principal, o que significa que menos cliques irão para outros sites. Portanto, criar conteúdo focado em pesquisa orgânica pode se tornar menos valioso para as empresas.
Não está claro como um chat pode creditar suas fontes e como isso pode impactar um funil de marketing.”
3. Risco de alucinação
Ao usar IA generativa, há um risco real de que seu conteúdo seja repleto de falsidade e ficção: citações inventadas atribuídas a pessoas reais, dados que não existem, ideias aparentemente sensatas que se desfazem após uma inspeção mais detalhada.
Esses erros (muitas vezes apelidados de “alucinações”) são uma propriedade intrínseca da IA generativa, uma consequência de seu objetivo principal: prever a próxima melhor palavra em qualquer sequência de palavras. Como explicamos anteriormente, a IA generativa é uma máquina de falsa confiança:
- Não há mecanismo de verificação de fatos dentro do GPT-3 ou GPT-4 (nem é provável que haja).
- Esses modelos se baseiam em dados de origem que geralmente são incorretos.
- A IA generativa foi projetada para escrever a todo custo, produzindo conteúdo mesmo quando há dados limitados no conjunto de dados.
A alucinação é o risco mais concreto do conteúdo de IA, mas também é o mais prontamente resolvido. Erros e erros podem ser detectados e corrigidos colocando um humano no circuito, alguém encarregado de analisar a validade da saída, procurando por erros e mentiras e colocando seu selo de aprovação no artigo acabado.
Esse processo também ajuda com a próxima fonte de risco: legal.
4. Risco Legal
A tecnologia tende a se desenvolver mais rápido do que os regulamentos podem acompanhar. A IA generativa já criou uma série de perguntas que precisam ser respondidas:
- É ético (ou legal) usar dados de sites copiados para treinar um modelo de IA?
- Quem realmente “possui” a saída de uma ferramenta generativa de IA?
- Os artistas devem ser compensados por seu papel na construção de dados de treinamento? (“Escreva no estilo de Ernest Hemingway” ou mesmo “Escreva no estilo do blog Animalz.”)
Embora alguns desses problemas possam levar anos ou décadas para serem solucionados, outros apresentam preocupação imediata para as empresas que usam IA generativa. Pedi a Aleksander Goranin, especialista em questões de propriedade intelectual e inteligência artificial e sócio da Duane Morris LLP (uma empresa que Animalz usa para serviços jurídicos), para compartilhar suas ideias sobre as áreas atuais de risco regulatório:
- Vazamento de dados pessoais. Como os modelos generativos são treinados em conjuntos de dados públicos, o conteúdo gerado pode “vazar” involuntariamente dados pessoais, abrindo o editor para ações de fiscalização da Federal Trade Commission e agências estaduais, especialmente na Califórnia, Nova York e Illinois. As autoridades reguladoras são sensíveis à divulgação não autorizada de informações de identificação pessoal.
- Conteúdo tendencioso. Da mesma forma, a FTC ou as autoridades estaduais podem buscar uma ação de execução para conteúdo que contenha viés (como viés racial ou de gênero), mesmo que esse viés surja implicitamente dos dados nos quais o modelo de IA foi treinado.
- Falta de proteção de direitos autorais. Como explica Aleksander, “Existe o risco de o Copyright Office não registrar o conteúdo gerado como 'trabalho' protegido. Esta é a área em que o Escritório de Direitos Autorais emitiu a maior quantidade de orientação atualmente - essencialmente, é preciso divulgar no pedido de registro até que ponto a IA foi usada e negar direitos autorais sobre quaisquer partes substancialmente geradas pelo LLM. O Escritório de Direitos Autorais exige um 'autor humano'.”
O caso de uso mais seguro para IA generativa é, sem surpresa, pesquisa de fundo, brainstorming e geração de ideias. Para qualquer outra coisa, a criação de um esquema de “revisão humana” para o conteúdo gerado deve ajudar a mitigar o maior risco regulatório.
5. Risco de Mediocridade
Muitas pessoas temem que o conteúdo de IA seja abertamente ruim. Mas acho que isso é relativamente de baixo risco. O GPT-4 é um escritor melhor do que a maioria das pessoas: mais articulado, criativo e receptivo ao feedback (e isso só melhorará com modelos e interfaces futuros).
Não devemos levar isso para o lado pessoal: o GPT-4 é literalmente sobre-humano, pelo menos nas dimensões de leitura e escrita. Como Ty compartilha, “era bastante óbvio que a tecnologia é ótima o suficiente para que, com um pequeno aumento, a qualidade não seja mais uma preocupação com uma postagem assistida por IA do que com uma dirigida por humanos”.
Mas o conteúdo não precisa ser ruim para ser problemático. Há um risco mais insidioso a considerar: seu conteúdo será funcional, mas esquecível.
Na busca pelo aumento da frequência de publicação, existe o risco de perder qualquer lampejo de singularidade que seu conteúdo possua atualmente. Seu conteúdo será articulado, preciso e até mesmo acionável… e ainda não fará nada de útil para sua empresa.
Um ótimo marketing de conteúdo é mais do que palavras em uma página. Cada artigo individual requer coesão com uma estratégia maior e com propósito. Baseia-se na distribuição eficaz. Ele precisa ir além de simplesmente atender às expectativas básicas do leitor: precisa deixar uma impressão duradoura, ou resolver um problema, ou entreter .
Confie demais na IA generativa e muito pouco na experiência qualificada, e você corre o risco de criar uma espécie de imitação sem alma de bom conteúdo, um zumbi cambaleante com a aparência de “marketing de conteúdo”, mas sem nenhuma de suas qualidades úteis. A IA generativa precisa ser uma ferramenta em seu kit de ferramentas, subserviente à sua estratégia – e não um fim por si só.
Como escreve VC Tomasz Tunguz, “A questão para as startups que avaliam a produção automatizada de conteúdo: se isso é suficiente para se destacar na mente dos compradores. Para muitos casos de uso, a exclusividade não importa. Documentação do produto, conteúdo perene para SEO, respostas enlatadas para e-mail.” O inverso também é verdadeiro: em algumas situações, a singularidade é tudo.
6. Risco de último movimento
Quando Ty lançou um programa de conteúdo assistido por IA, a principal preocupação que ele ouviu não foi o risco legal ou a má qualidade; era preocupação que a maior oportunidade já tivesse passado:
“Algumas pessoas achavam que já era tarde demais para aumentar o volume de conteúdo que estávamos produzindo e que o mercado ficaria saturado em questão de meses.
Mas acho que as pessoas superestimam a rapidez com que as tecnologias são adotadas. Acho que as pessoas ainda estão acordando para o que o conteúdo gerado por IA pode fazer.”
Como qualquer nova tecnologia, a IA generativa oferece incerteza e algum grau de risco – mas com o risco vem a oportunidade. A oportunidade de construir um fosso defensável de classificações e backlinks antes de seus concorrentes. A oportunidade de experimentar canais de tráfego inteiramente novos. A oportunidade de incorporar a personalização no coração do seu marketing.
Quando se trata de conteúdo de IA, o risco mais claro e certo vem da falha em experimentar e aprender. A IA generativa encontrará seu caminho em todas as estratégias de marketing. É muito bom e muito barato para qualquer outra coisa. Embora a aplicação “certa” da IA generativa varie enormemente de empresa para empresa – informada pela tolerância ao risco, expectativas do público, objetivos, recursos e crenças pessoais – haverá uma aplicação em quase todas as empresas.
Hora de ir encontrá-lo.