Los 6 riesgos del contenido de IA
Publicado: 2023-04-181. Riesgo de Google
En abril de 2022, John Mueller de Google compartió una postura bastante clara sobre la validez del contenido generado por IA:
“Actualmente, todo va en contra de las pautas para webmasters. Entonces, desde nuestro punto de vista, si nos encontráramos con algo así, si el equipo de spam web lo viera, lo verían como spam”.
La inferencia: que Google penalizaría a los sitios que crean contenido de IA, algo que Mueller comparó con "girar": el proceso de tomar contenido existente y usar sinónimos y reordenar palabras para crear algo aparentemente nuevo. Cuando se enfrentó a una tecnología que podría reducir el costo marginal de la creación de contenido a casi cero (el sueño de un spammer web), Google tomó la decisión de disuadir su uso.
Pero como explicamos anteriormente, la idea de que Google penalizaría, o incluso podría, penalizar el contenido generado por IA se simplificó enormemente:
- El contenido generado por IA es, en la mayoría de los casos, original. GPT-4 no hace girar el contenido. El contenido generado por IA contiene escritura original e incluso puede contener ideas completamente nuevas.
- La detección de contenido de IA es difícil y cada vez más difícil. La tecnología es una carrera armamentista y se invierten más dólares en la generación de contenido que en la detección de contenido. Es poco probable que Google pueda detectar contenido generado por IA con algún grado de consistencia.
- Hay una línea borrosa entre el contenido editado por humanos y el escrito por IA. ¿Un artículo generado por IA aún cuenta como spam si es editado o reescrito por una persona real?
Diez meses después, en febrero de 2023, Google emitió una guía actualizada sobre el contenido generado por IA. Vale la pena leer el artículo original y hacer su propio resumen, pero mi conclusión es clara: intente crear contenido útil que resuelva problemas, y Google será en gran medida ambivalente acerca de cómo se crea. Como resumen:
“La automatización se ha utilizado durante mucho tiempo en la publicación para crear contenido útil. La IA puede ayudar y generar contenido útil de formas nuevas y emocionantes”.
Cuando conversé sobre el contenido de IA con Ty Magnin, jefe de marca en Vendr, compartió: “Cuando empezamos (esto fue hace solo unos meses), Google decía que castigaría los artículos escritos con IA. La mayoría de nosotros nos dimos cuenta de su farol, pero ese era un riesgo potencial real en 2022. Es sorprendente cómo el perfil de riesgo percibido de la gen-IA sigue cambiando tan rápidamente”.
Nadie puede garantizar que cualquier acción sea inmune a la penalización: después de todo, Google es una empresa y no una utilidad, capaz de tomar decisiones basadas en gran medida en sus propios caprichos. Pero hay buenas razones para pensar que la mayoría de los casos de uso serán seguros.
2. Canal de Riesgo
Sobre el tema del SEO, hay otro ángulo que vale la pena considerar. En lugar de pensar en el riesgo que Google representa para su uso de la IA, vale la pena considerar el riesgo que la IA representa para Google.
La competencia por las palabras clave crece día a día. Los retornos del SEO han tenido una trayectoria decreciente y es posible que la IA generativa pueda acelerar este descenso. Combine un gran aumento en la creación de contenido impulsado por IA con un escepticismo creciente sobre la legitimidad del contenido en línea, y los retornos de la búsqueda podrían caer aún más (lo que hemos denominado la "singularidad de la búsqueda").
Hay muchas maneras en que eso podría suceder:
Este riesgo es especulativo, pero vale la pena mantener la mente abierta. La IA generativa puede representar un momento decisivo para la búsqueda moderna. ¿Qué harías si el SEO, la razón de ser de muchas estrategias de contenido, de repente requiriera mucho más esfuerzo u ofreciera retornos mucho más bajos? ¿Dónde reasignarías tu gasto? Esto es algo en lo que Ty ya está pensando:
“Los motores de búsqueda están experimentando con la adopción del chat como interacción principal, lo que significa que menos clics irán a otros sitios web. Por lo tanto, crear contenido orgánico centrado en la búsqueda puede volverse menos valioso para las empresas.
No está claro cómo un chat puede acreditar sus fuentes y cómo eso puede afectar un embudo de marketing".
3. Riesgo de alucinaciones
Al usar IA generativa, existe un riesgo real de que su contenido esté salpicado de falsedad y ficción: citas inventadas atribuidas a personas reales, datos que no existen, ideas aparentemente sensibles que se desmoronan al examinarlas más de cerca.
Estos errores (a menudo denominados "alucinaciones") son una propiedad intrínseca de la IA generativa, una consecuencia de su objetivo principal: predecir la siguiente mejor palabra en cualquier secuencia de palabras. Como explicamos anteriormente, la IA generativa es una máquina de falsa confianza:
- No existe un mecanismo de verificación de hechos dentro de GPT-3 o GPT-4 (ni es probable que lo haya).
- Estos modelos se basan en datos de origen que a menudo son incorrectos.
- La IA generativa está diseñada para escribir a toda costa, bombeando contenido incluso cuando hay datos limitados en el conjunto de datos.
La alucinación es el riesgo más concreto del contenido de IA, pero también es el que se resuelve más fácilmente. Los errores y errores se pueden detectar y remediar poniendo a un ser humano al tanto, alguien encargado de analizar la validez de la salida, buscar errores y mentiras, y poner su sello de aprobación en el artículo terminado.
Este proceso también ayuda con la siguiente fuente de riesgo: legal.
4. Riesgo Jurídico
La tecnología tiene una tendencia a desarrollarse más rápido de lo que las regulaciones pueden mantener. La IA generativa ya ha creado una serie de preguntas que deben responderse:
- ¿Es ético (o legal) usar datos de sitios web raspados para entrenar un modelo de IA?
- ¿Quién es realmente el “dueño” del resultado de una herramienta de IA generativa?
- ¿Se debería compensar a los artistas por su papel en la creación de datos de formación? ("Escribe al estilo de Ernest Hemingway" o incluso "Escribe al estilo del blog Animalz").
Si bien algunos de estos problemas pueden tardar años o décadas en resolverse, otros presentan una preocupación inmediata para las empresas que utilizan IA generativa. Le pedí a Aleksander Goranin, especialista en propiedad intelectual e inteligencia artificial y socio de Duane Morris LLP (una firma que Animalz utiliza para servicios legales), que compartiera sus ideas sobre las áreas actuales de riesgo regulatorio:
- Fuga de datos personales. A medida que los modelos generativos se entrenan en conjuntos de datos públicos, el contenido generado puede "filtrar" datos personales sin darse cuenta, lo que expone al editor a acciones de cumplimiento por parte de la Comisión Federal de Comercio y las agencias estatales, especialmente en California, Nueva York e Illinois. Las autoridades reguladoras son sensibles a la divulgación no autorizada de información de identificación personal.
- Contenido sesgado. De manera similar, la FTC o las autoridades estatales pueden emprender una acción de ejecución por contenido que contenga prejuicios (como prejuicios raciales o de género), incluso si ese sesgo surge implícitamente de los datos con los que se entrenó el modelo de IA.
- Falta de protección de los derechos de autor. Como explica Aleksander, “Existe el riesgo de que la Oficina de Derechos de Autor no registre el contenido generado como 'obra' protegida. Esta es el área donde la Oficina de derechos de autor ha emitido la mayor cantidad de orientación actualmente; esencialmente, uno debe revelar en la solicitud de registro hasta qué punto se usó la IA y renunciar a los derechos de autor sobre cualquier parte generada sustancialmente por el LLM. La Oficina de Derechos de Autor requiere un 'autor humano'”.
El caso de uso más seguro para la IA generativa es, como era de esperar, la investigación de antecedentes, la lluvia de ideas y la generación de ideas. Para cualquier otra cosa, la creación de un esquema de "revisión humana" para el contenido generado debería ayudar a mitigar el mayor riesgo regulatorio.
5. Riesgo de mediocridad
A muchas personas les preocupa que el contenido de IA sea abiertamente malo. Pero creo que esto es relativamente de bajo riesgo. GPT-4 es mejor escritor que la mayoría de las personas: más articulado, creativo y receptivo a los comentarios (y esto solo mejorará con futuros modelos e interfaces).
No debemos tomar esto como algo personal: GPT-4 es literalmente sobrehumano, al menos en las dimensiones de lectura y escritura. Como comparte Ty, "Era bastante obvio que la tecnología es lo suficientemente buena como para que, con un pequeño impulso, la calidad no sea más una preocupación con una publicación asistida por IA que con una impulsada por humanos".
Pero el contenido no necesita ser malo para ser problemático. Hay un riesgo más insidioso a considerar: que su contenido sea funcional pero olvidable.
En la búsqueda de una mayor frecuencia de publicación, existe el riesgo de perder cualquier destello de singularidad que posea actualmente su contenido. Su contenido será articulado, preciso, incluso procesable... y aun así no hará nada útil para su empresa.
El gran marketing de contenidos es más que palabras en una página. Cada artículo individual requiere cohesión con una estrategia más grande y decidida. Se basa en la distribución efectiva. Debe ir más allá de simplemente satisfacer las expectativas básicas del lector: debe dejar una impresión duradera, resolver un problema o entretener .
Confíe demasiado en la IA generativa y muy poco en la experiencia calificada, y corre el riesgo de crear una especie de imitación sin alma de buen contenido, un zombi tambaleante con la apariencia de "marketing de contenido" pero sin ninguna de sus cualidades útiles. La IA generativa debe ser una herramienta en su conjunto de herramientas, subordinada a su estrategia, y no un fin por derecho propio.
Como escribe VC Tomasz Tunguz, “La pregunta para las nuevas empresas que evalúan la producción de contenido automatizado: si esto es suficiente para destacarse en la mente de los compradores. Para muchos casos de uso, la singularidad no importará. Documentación del producto, contenido perenne para SEO, respuestas enlatadas para correo electrónico”. Lo contrario también es cierto: en algunas situaciones, la singularidad lo es todo.
6. Riesgo de último movimiento
Cuando Ty lanzó un programa de contenido asistido por IA, la principal preocupación que escuchó no fue el riesgo legal o la mala calidad; era preocupación que la mayor oportunidad ya había pasado:
“Algunas personas pensaron que ya era demasiado tarde para aumentar el volumen de contenido que producíamos y que el mercado se saturaría en cuestión de meses.
Pero creo que la gente sobreestima la rapidez con la que se adoptan las tecnologías. Creo que la gente todavía se está dando cuenta de lo que puede hacer el contenido generado por IA”.
Como cualquier nueva tecnología, la IA generativa ofrece incertidumbre y cierto grado de riesgo, pero con el riesgo viene la oportunidad. La oportunidad de construir un foso defendible de clasificaciones y backlinks antes que sus competidores. La oportunidad de experimentar con canales de tráfico completamente nuevos. La oportunidad de integrar la personalización en el corazón de su marketing.
Cuando se trata de contenido de IA, el riesgo más claro y seguro proviene de la falta de experimentación y aprendizaje. La IA generativa encontrará su camino en cada estrategia de marketing. Es demasiado bueno y demasiado barato para cualquier otra cosa. Aunque la aplicación "correcta" de la IA generativa variará enormemente de una empresa a otra, informada por la tolerancia al riesgo, las expectativas de la audiencia, los objetivos, los recursos y las creencias personales, habrá una aplicación en casi todas las empresas.
Es hora de ir a buscarlo.