ความเสี่ยง 6 ประการของเนื้อหา AI

เผยแพร่แล้ว: 2023-04-18

1. ความเสี่ยงของ Google

ย้อนกลับไปในเดือนเมษายน 2022 John Mueller จาก Google ได้แสดงจุดยืนที่ค่อนข้างชัดเจนเกี่ยวกับความถูกต้องของเนื้อหาที่สร้างโดย AI:

“ขณะนี้ ทั้งหมดนี้ขัดต่อหลักเกณฑ์สำหรับเว็บมาสเตอร์ ดังนั้นจากมุมมองของเรา หากเราต้องเจออะไรแบบนั้น ถ้าทีมเว็บสแปมเห็น พวกเขาจะมองว่ามันเป็นสแปม”

การอนุมาน: Google จะลงโทษไซต์ที่สร้างเนื้อหา AI ซึ่งเป็นสิ่งที่ Mueller เปรียบเทียบกับ "การปั่น" ซึ่งเป็นกระบวนการของการนำเนื้อหาที่มีอยู่ไปใช้คำพ้องความหมายและการจัดลำดับคำใหม่เพื่อสร้างสิ่งที่ดูเหมือนใหม่ เมื่อต้องเผชิญกับเทคโนโลยีที่สามารถลดต้นทุนเล็กน้อยของการสร้างเนื้อหาจนเกือบเป็นศูนย์ (ความฝันของเว็บสแปมเมอร์) Google ได้ตัดสินใจที่จะยับยั้งการใช้งาน

แต่อย่างที่เราอธิบายไปก่อนหน้านี้ แนวคิดที่ว่า Google จะ ลงโทษ เนื้อหาที่สร้างโดย AI นั้นง่ายกว่ามาก:

  • เนื้อหาที่สร้างโดย AI นั้นเป็นเนื้อหาต้นฉบับ GPT-4 ไม่หมุนเนื้อหา เนื้อหาที่สร้างโดย AI ประกอบด้วยงานเขียนต้นฉบับ และอาจมีแนวคิดใหม่ทั้งหมด
  • การตรวจจับเนื้อหาของ AI นั้นยากและยากขึ้นเรื่อยๆ เทคโนโลยีคือการแข่งขันของอาวุธ และมีเงินจำนวนมากไหลเข้าสู่การสร้างเนื้อหามากกว่าการตรวจจับเนื้อหา Google ไม่น่าจะตรวจจับเนื้อหาที่สร้างโดย AI ได้ไม่ว่าจะมีความสอดคล้องกันในระดับใดก็ตาม
  • มีเส้นแบ่งที่ไม่ชัดเจนระหว่างเนื้อหาที่แก้ไขโดยมนุษย์และเขียนโดย AI บทความที่สร้างโดย AI จะยังนับเป็นสแปมหรือไม่ หากมีการแก้ไขหรือเขียนใหม่โดยบุคคลจริง

สิบเดือนต่อมา ในเดือนกุมภาพันธ์ 2023 Google ได้ออกคำแนะนำฉบับปรับปรุงเกี่ยวกับเนื้อหาที่สร้างโดย AI การอ่านบทความต้นทางและสร้างบทสรุปของคุณเองนั้นคุ้มค่า แต่ประเด็นสำคัญของฉันชัดเจน: มุ่งสร้างเนื้อหาที่เป็นประโยชน์และแก้ปัญหา และ Google จะค่อนข้างสับสนเกี่ยวกับ วิธี การสร้างเนื้อหาดังกล่าว ตามที่พวกเขาสรุป:

“ระบบอัตโนมัติถูกนำมาใช้ในการเผยแพร่เพื่อสร้างเนื้อหาที่เป็นประโยชน์มานานแล้ว AI สามารถช่วยและสร้างเนื้อหาที่มีประโยชน์ในรูปแบบใหม่ที่น่าตื่นเต้น”

เมื่อฉันพูดคุยเกี่ยวกับเนื้อหา AI กับ Ty Magnin หัวหน้าแบรนด์ของ Vendr เขาเล่าว่า "ย้อนกลับไปตอนที่เราเริ่มต้น (จริงๆ เมื่อไม่กี่เดือนที่ผ่านมา) Google บอกว่าจะลงโทษบทความที่เขียนด้วย AI พวกเราส่วนใหญ่เรียกว่าการบลัฟของพวกเขา แต่นั่นเป็นความเสี่ยงที่อาจเกิดขึ้นจริงในปี 2022 มันน่าทึ่งมากที่โปรไฟล์ความเสี่ยงที่รับรู้ได้ของ gen-AI นั้นเปลี่ยนแปลงอย่างรวดเร็ว”

ไม่มีใครรับประกันได้ว่าการกระทำใดๆ จะได้รับการยกเว้นจากการถูกลงโทษ ท้ายที่สุดแล้ว Google ก็เป็น บริษัท และไม่ใช่ ยูทิลิตี้ สามารถตัดสินใจโดยยึดตามความอยากของตนเองเป็นส่วนใหญ่ แต่มีเหตุผลที่ดีที่จะคิดว่ากรณีการใช้งานส่วนใหญ่จะปลอดภัย

2. ความเสี่ยงด้านช่องทาง

ในหัวข้อ SEO มีอีกมุมหนึ่งที่น่าพิจารณา แทนที่จะคิดถึงความเสี่ยงที่ Google มีต่อการใช้ AI ของคุณ คุณควรพิจารณาความเสี่ยงที่ AI เกิดขึ้นกับ Google

การแข่งขันสำหรับคีย์เวิร์ดนับวันยิ่งรุนแรงขึ้น ผลตอบแทนจาก SEO อยู่ในเส้นทางที่ลดลงเป็นเวลานาน และเป็นไปได้ว่า AI เชิงกำเนิดอาจเร่งการลดลงนี้ จับคู่การเพิ่มขึ้นอย่างมากในการสร้างเนื้อหาที่ขับเคลื่อนด้วย AI กับความสงสัยที่เพิ่มขึ้นเกี่ยวกับความถูกต้องตามกฎหมายของเนื้อหาออนไลน์ และผลตอบแทนของการค้นหาอาจลดลงไปอีก (สิ่งที่เราขนานนามว่า "การค้นหาเอกฐาน")

มีหลายวิธีที่อาจเกิดขึ้น:

ความเสี่ยงนี้เป็นการเก็งกำไร แต่ก็คุ้มค่าที่จะเปิดใจ เจเนอเรทีฟเอไออาจเป็นตัวแทนของจุดเปลี่ยนสำหรับการค้นหาสมัยใหม่ คุณจะทำอย่างไรหาก SEO ซึ่งเป็นเหตุผลสำคัญของกลยุทธ์ด้านเนื้อหาจำนวนมาก จู่ๆ ต้องใช้ความพยายามมากขึ้นหรือให้ผลตอบแทนที่ต่ำกว่ามาก คุณจะจัดสรรการใช้จ่ายของคุณใหม่ที่ไหน? นี่คือสิ่งที่ Ty กำลังคิดอยู่แล้ว:

“เสิร์ชเอ็นจิ้นกำลังทดลองใช้การแชทเป็นปฏิสัมพันธ์หลัก ซึ่งหมายความว่าการคลิกน้อยลงจะไปที่เว็บไซต์อื่น ดังนั้นการสร้างเนื้อหาที่เน้นการค้นหาแบบออร์แกนิกอาจมีคุณค่าน้อยลงสำหรับธุรกิจ

ยังไม่ชัดเจนว่าการแชทจะให้เครดิตแหล่งที่มาได้อย่างไร และสิ่งนั้นจะส่งผลต่อช่องทางการตลาดได้อย่างไร”

3. ความเสี่ยงต่ออาการประสาทหลอน

เมื่อใช้ generative AI มีความเสี่ยงอย่างแท้จริงที่เนื้อหาของคุณจะเต็มไปด้วยความเท็จและเรื่องแต่ง: คำพูดที่แต่งขึ้นโดยคนจริงๆ ข้อมูลที่ไม่มีอยู่จริง แนวคิดที่ดูเหมือนมีเหตุผลซึ่งแตกสลายเมื่อตรวจสอบอย่างใกล้ชิด

ข้อผิดพลาดเหล่านี้ (มักถูกขนานนามว่า "ภาพหลอน") เป็นคุณสมบัติภายในของ AI กำเนิด ซึ่งเป็นผลมาจากวัตถุประสงค์หลัก: เพื่อทำนายคำที่ดีที่สุดถัดไปในลำดับของคำใดก็ตาม ดังที่เราได้อธิบายไปก่อนหน้านี้ AI กำเนิดเป็นเครื่องสร้างความเชื่อมั่นที่ผิดพลาด:

  • ไม่มีกลไกตรวจสอบข้อเท็จจริงภายใน GPT-3 หรือ GPT-4 (และไม่น่าจะเป็นเช่นนั้น)
  • โมเดลเหล่านี้ใช้แหล่งข้อมูลที่มักไม่ถูกต้อง
  • เจเนอเรทีฟเอไอได้รับการออกแบบมาให้เขียนโดยมีค่าใช้จ่ายทั้งหมด ดึงเนื้อหาออกมาแม้ว่าจะมีข้อมูลจำกัดในชุดข้อมูลก็ตาม

อาการประสาทหลอนเป็นความเสี่ยงที่ชัดเจนที่สุดของเนื้อหา AI แต่ก็เป็นสิ่งที่แก้ไขได้ง่ายที่สุดเช่นกัน ข้อผิดพลาดและข้อผิดพลาดสามารถตรวจจับและแก้ไขได้โดยให้มนุษย์เข้ามามีส่วนร่วม ใครบางคนที่ได้รับมอบหมายให้วิเคราะห์ความถูกต้องของผลลัพธ์ มองหาข้อผิดพลาดและการโกหก และประทับตราการอนุมัติในบทความที่เสร็จสมบูรณ์

กระบวนการนี้ยังช่วยในเรื่องแหล่งที่มาของความเสี่ยงต่อไป: ด้านกฎหมาย

4. ความเสี่ยงด้านกฎหมาย

เทคโนโลยีมีแนวโน้มพัฒนาเร็วเกินกว่าที่กฎระเบียบจะตามทัน Generative AI ได้สร้างคำถามมากมายที่ต้องตอบ:

  • ถูกต้องตามหลักจริยธรรม (หรือถูกกฎหมาย) หรือไม่ที่จะใช้ข้อมูลเว็บไซต์ที่คัดลอกมาเพื่อฝึกโมเดล AI
  • ใครคือ "เจ้าของ" ผลลัพธ์จากเครื่องมือสร้าง AI อย่างแท้จริง
  • ศิลปินควรได้รับการชดเชยสำหรับบทบาทของพวกเขาในการสร้างข้อมูลการฝึกอบรมหรือไม่? (“เขียนตามสไตล์ของ Ernest Hemingway” หรือแม้แต่ “เขียนตามสไตล์ของบล็อก Animalz”)

แม้ว่าปัญหาเหล่านี้บางอย่างอาจใช้เวลาหลายปีหรือหลายทศวรรษในการแก้ให้หายขาด แต่ปัญหาอื่นๆ ก็สร้างความกังวลในทันทีให้กับบริษัทต่างๆ ที่ใช้ generative AI ฉันขอให้ Aleksander Goranin ผู้เชี่ยวชาญด้านทรัพย์สินทางปัญญาและปัญหาปัญญาประดิษฐ์และหุ้นส่วนที่ Duane Morris LLP (บริษัท Animalz ใช้สำหรับบริการด้านกฎหมาย) เพื่อแบ่งปันแนวคิดของเขาเกี่ยวกับความเสี่ยงด้านกฎระเบียบในปัจจุบัน:

  • การรั่วไหลของข้อมูลส่วนบุคคล เนื่องจากแบบจำลองเชิงกำเนิดได้รับการฝึกอบรมในชุดข้อมูลสาธารณะ เนื้อหาที่สร้างขึ้นอาจ "รั่วไหล" ข้อมูลส่วนบุคคลโดยไม่ได้ตั้งใจ ทำให้ผู้เผยแพร่ต้องได้รับการดำเนินการบังคับใช้จาก Federal Trade Commission และหน่วยงานของรัฐ โดยเฉพาะในแคลิฟอร์เนีย นิวยอร์ก และอิลลินอยส์ หน่วยงานกำกับดูแลมีความอ่อนไหวต่อการเปิดเผยข้อมูลที่ระบุตัวบุคคลโดยไม่ได้รับอนุญาต
  • เนื้อหาที่มีอคติ ในทำนองเดียวกัน FTC หรือหน่วยงานของรัฐอาจดำเนินการบังคับใช้สำหรับเนื้อหาที่มีอคติ (เช่น อคติทางเชื้อชาติหรือเพศ) แม้ว่าอคตินั้นจะเกิดขึ้นโดยปริยายจากข้อมูลที่โมเดล AI ได้รับการฝึกฝน
  • ขาดการคุ้มครองลิขสิทธิ์ ดังที่อเล็กซานเดอร์อธิบาย ว่า “มีความเสี่ยงที่สำนักงานลิขสิทธิ์จะไม่ลงทะเบียนเนื้อหาที่สร้างเป็น 'งาน' ที่ได้รับการคุ้มครอง นี่คือส่วนที่สำนักงานลิขสิทธิ์ได้ออกคำแนะนำจำนวนมากที่สุดในปัจจุบัน โดยพื้นฐานแล้ว เราต้องเปิดเผยในใบสมัครลงทะเบียนถึงขอบเขตที่ AI ถูกใช้ และปฏิเสธลิขสิทธิ์ในส่วนใดๆ ที่สร้างขึ้นโดย LLM สำนักงานลิขสิทธิ์ต้องการ 'ผู้เขียนที่เป็นมนุษย์'”

กรณีการใช้งานที่ปลอดภัยที่สุดสำหรับ generative AI คือการวิจัยเบื้องหลัง การระดมสมอง และการสร้างความคิดอย่างไม่น่าแปลกใจ สำหรับสิ่งอื่นๆ การสร้างแบบแผน "การตรวจสอบโดยมนุษย์" สำหรับเนื้อหาที่สร้างขึ้นควรช่วยลดความเสี่ยงด้านกฎระเบียบมากที่สุด

5. ความเสี่ยงปานกลาง

หลายคนกังวลว่าเนื้อหาของ AI จะเลวร้ายอย่างเปิดเผย แต่ฉันคิดว่านี่เป็นความเสี่ยงที่ค่อนข้างต่ำ GPT-4 เป็นผู้เขียนที่ดีกว่าคนส่วนใหญ่: ชัดเจนมากขึ้น สร้างสรรค์ และเปิดรับคำติชม (และสิ่งนี้จะปรับปรุงด้วยรุ่นและอินเทอร์เฟซในอนาคตเท่านั้น)

เราไม่ควรถือเอาสิ่งนี้เป็นการส่วนตัว: GPT-4 เป็นยอดมนุษย์อย่างแท้จริง อย่างน้อยก็ในมิติของการอ่านและการเขียน ดังที่ Ty แบ่งปัน “เห็นได้ชัดว่าเทคโนโลยีนี้ยอดเยี่ยมมากพอที่การยกระดับเพียงเล็กน้อย คุณภาพก็ไม่ต้องกังวลกับโพสต์ที่ได้รับความช่วยเหลือจาก AI มากไปกว่าโพสต์ที่ขับเคลื่อนโดยมนุษย์”

แต่เนื้อหาไม่จำเป็นต้องแย่ที่จะเป็นปัญหา มีความเสี่ยงที่ร้ายกาจมากขึ้นที่ต้องพิจารณา: เนื้อหาของคุณจะใช้งานได้ แต่ลืมได้

ในการแสวงหาความถี่ในการเผยแพร่ที่เพิ่มขึ้น มีความเสี่ยงที่จะสูญเสียความเป็นเอกลักษณ์ของเนื้อหาที่มีอยู่ในปัจจุบัน เนื้อหาของคุณจะมีความชัดเจน ถูกต้อง แม้กระทั่งนำไปปฏิบัติได้... และยังคงไม่สามารถทำอะไรที่เป็นประโยชน์สำหรับบริษัทของคุณได้

การตลาดเนื้อหาที่ยอดเยี่ยมเป็นมากกว่าคำพูดในหน้าเพจ แต่ละบทความต้องการความสอดคล้องกันกับกลยุทธ์ที่ใหญ่กว่าและมีจุดมุ่งหมาย ขึ้นอยู่กับการกระจายที่มีประสิทธิภาพ ต้องก้าวไปไกลกว่าแค่ตอบสนองความคาดหวังพื้นฐานของผู้อ่าน: ต้องสร้างความประทับใจไม่รู้ลืม หรือแก้ปัญหา หรือให้ความ บันเทิง

พึ่งพา AI กำเนิดมากเกินไปและประสบการณ์ที่มีทักษะน้อยเกินไป และคุณเสี่ยงที่จะสร้างการเลียนแบบเนื้อหาดีๆ ที่ไร้จิตวิญญาณ ซอมบี้เซถลาที่ดูเหมือน "การตลาดเนื้อหา" แต่ไม่มีคุณสมบัติที่เป็นประโยชน์เลย เจเนอเรทีฟเอไอต้องเป็นเครื่องมือในชุดเครื่องมือ ของคุณ ซึ่งรองรับกลยุทธ์ของคุณ — และไม่ใช่จุดจบในตัวมันเอง

ตามที่ VC Tomasz Tunguz เขียน ว่า “คำถามสำหรับสตาร์ทอัพที่ประเมินการผลิตเนื้อหาอัตโนมัติ: สิ่งนี้เพียงพอที่จะโดดเด่นในใจผู้ซื้อหรือไม่ สำหรับการใช้งานหลายๆ กรณี ความเป็นเอกลักษณ์นั้นไม่สำคัญ เอกสารประกอบผลิตภัณฑ์ เนื้อหาที่เป็นมิตรกับสิ่งแวดล้อมสำหรับ SEO คำตอบสำเร็จรูปสำหรับอีเมล” สิ่งที่ตรงกันข้ามก็เป็นจริงเช่นกัน ในบางสถานการณ์ ความเป็นเอกลักษณ์คือทุกสิ่ง

6. ความเสี่ยงของผู้เสนอญัตติครั้งสุดท้าย

เมื่อ Ty เปิดตัวโปรแกรมเนื้อหาที่ได้รับความช่วยเหลือจาก AI ข้อกังวลหลักที่เขาได้ยินมาไม่ใช่ความเสี่ยงทางกฎหมายหรือคุณภาพต่ำ เป็นกังวลว่าโอกาสที่ยิ่งใหญ่ที่สุดได้ผ่านไปแล้ว:

“บางคนคิดว่ามันสายเกินไปแล้วที่จะเพิ่มจำนวนเนื้อหาที่เรากำลังผลิต และตลาดจะอิ่มตัวในอีกไม่กี่เดือน

แต่ฉันคิดว่าผู้คนประเมินค่าสูงเกินไปว่าเทคโนโลยีจะถูกนำไปใช้อย่างรวดเร็วเพียงใด ฉันคิดว่าผู้คนยังคงตื่นตัวว่าเนื้อหาที่สร้างโดย AI สามารถทำอะไรได้บ้าง”

เช่นเดียวกับเทคโนโลยีใหม่ๆ AI เชิงกำเนิดนำเสนอความไม่แน่นอนและความเสี่ยงในระดับหนึ่ง แต่ความเสี่ยงย่อมมาพร้อมกับโอกาส โอกาสในการสร้างแนวป้องกันของการจัดอันดับและลิงก์ย้อนกลับก่อนคู่แข่งของคุณ โอกาสในการทดลองช่องทางการรับส่งข้อมูลใหม่ทั้งหมด โอกาสในการฝังการปรับเปลี่ยนในแบบของคุณให้เป็นหัวใจของการตลาดของคุณ

เมื่อพูดถึงเนื้อหา AI ความเสี่ยงที่ชัดเจนและแน่นอนที่สุดมาจากความล้มเหลวในการทดลองและเรียนรู้ เจเนอเรทีฟเอไอจะหาทางเข้าสู่ทุกกลยุทธ์ทางการตลาด มันดีเกินไปและถูกเกินไปสำหรับอย่างอื่น แม้ว่าการประยุกต์ใช้ generative AI ที่ “ถูกต้อง” จะแตกต่างกันไปอย่างมากในแต่ละบริษัท — โดยพิจารณาจากความเสี่ยงที่ยอมรับได้ ความคาดหวังของผู้ชม เป้าหมาย ทรัพยากร และความเชื่อส่วนบุคคล — จะมี การนำไปใช้ในเกือบทุกบริษัท

ได้เวลาไปหามันแล้ว