المخاطر الستة لمحتوى الذكاء الاصطناعي
نشرت: 2023-04-181. مخاطر جوجل
مرة أخرى في أبريل 2022 ، شارك جون مولر من Google موقفًا واضحًا للغاية بشأن صحة المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي:
"حاليًا ، كل هذا مخالف لإرشادات مشرفي المواقع. لذا ، من وجهة نظرنا ، إذا مررنا بشيء من هذا القبيل ، إذا شاهده فريق محتوى الويب غير المرغوب فيه ، فسيعتبرونه بريدًا عشوائيًا ".
الاستنتاج: أن جوجل ستعاقب المواقع التي تنشئ محتوى ذكاءً اصطناعيًا ، وهو شيء قارنه مولر بـ "التدوير" - عملية أخذ المحتوى الحالي واستخدام المرادفات وإعادة ترتيب الكلمات لإنشاء شيء يبدو جديدًا. عندما واجهت تقنية يمكن أن تقلل التكلفة الهامشية لإنشاء المحتوى إلى ما يقرب من الصفر (حلم مرسل البريد العشوائي على الويب) ، اتخذت Google قرارًا بردع استخدامها.
ولكن كما أوضحنا سابقًا ، فإن فكرة أن Google ستعاقب - أو حتى يمكنها - معاقبة المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي كانت مفرطة في التبسيط:
- المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي ، بمعظم المقاييس ، أصلي. لا تدور GPT-4 حول المحتوى. يحتوي المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على كتابة أصلية ، ويمكن أن يحتوي حتى على أفكار جديدة تمامًا.
- يعد اكتشاف محتوى الذكاء الاصطناعي أمرًا صعبًا ويزداد صعوبة. التكنولوجيا هي سباق للذراع ، وهناك دولارات تتدفق على إنشاء المحتوى أكثر من اكتشاف المحتوى. من غير المحتمل أن تتمكن Google من اكتشاف المحتوى الذي تم إنشاؤه بواسطة AI بأي درجة من الاتساق.
- هناك خط غير واضح بين المحتوى الذي يحرره الإنسان والمحتوى المكتوب بالذكاء الاصطناعي. هل لا تزال المقالة التي تم إنشاؤها بواسطة الذكاء الاصطناعي تعتبر بريدًا عشوائيًا إذا تم تحريرها أو إعادة كتابتها بواسطة شخص حقيقي؟
بعد عشرة أشهر ، في فبراير 2023 ، أصدرت Google إرشادات محدثة حول المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. من الجدير قراءة المقالة المصدر وإعداد ملخص خاص بك ، ولكن الوجبات الجاهزة واضحة: تهدف إلى إنشاء محتوى مفيد لحل المشكلات ، وستكون Google متناقضة إلى حد كبير حول كيفية إنشائها. كما يلخصون:
"لطالما استخدمت الأتمتة في النشر لإنشاء محتوى مفيد. يمكن أن يساعد الذكاء الاصطناعي في إنشاء محتوى مفيد بطرق جديدة ومثيرة ".
عندما تحدثت عن محتوى AI مع Ty Magnin ، رئيس العلامة التجارية في Vendr ، قال: "مرة أخرى عندما بدأنا (كان هذا قبل بضعة أشهر فقط) ، كانت Google تقول إنها ستعاقب المقالات المكتوبة باستخدام AI. اتصل معظمنا بخداعهم ، لكن هذا كان خطرًا محتملاً حقيقيًا في عام 2022. إنه لأمر مدهش كيف أن ملف المخاطر المتصور للجيل العام للذكاء الاصطناعي يتغير باستمرار بهذه السرعة. "
لا أحد يستطيع أن يضمن أن أي إجراء سيكون محصنًا من العقوبة - فغوغل ، بعد كل شيء ، شركة وليست أداة ، قادرة على اتخاذ قرارات تستند إلى حد كبير إلى أهوائها. ولكن هناك أسباب وجيهة للاعتقاد بأن معظم حالات الاستخدام ستكون آمنة.
2. قناة المخاطر
فيما يتعلق بموضوع تحسين محركات البحث ، هناك زاوية أخرى تستحق الدراسة. بدلاً من التفكير في المخاطر التي تشكلها Google على استخدامك للذكاء الاصطناعي ، يجدر التفكير في المخاطر التي يمثلها الذكاء الاصطناعي على Google.
تزداد المنافسة على الكلمات المفتاحية شراسة يومًا بعد يوم. كانت العوائد من مُحسّنات محرّكات البحث في مسار طويل يتضاءل ، ومن المحتمل أن يؤدي الذكاء الاصطناعي التوليدي إلى تسريع هذا الهبوط. قم بإقران زيادة كبيرة في إنشاء المحتوى المدعوم بالذكاء الاصطناعي مع الشكوك المتزايدة بشأن شرعية المحتوى عبر الإنترنت ، وقد تنخفض عوائد البحث أكثر (ما أطلقنا عليه اسم "تفرد البحث").
هناك العديد من الطرق التي يمكن أن تحدث:
هذا الخطر تخميني ، لكن الأمر يستحق أن تبقى متفتحًا. قد يمثل الذكاء الاصطناعي التوليدي لحظة فاصلة للبحث الحديث. ماذا ستفعل إذا كان مُحسّنات محرّكات البحث - سبب وجود العديد من استراتيجيات المحتوى - يحتاج فجأة إلى مزيد من الجهد ، أو يقدم عوائد أقل بكثير؟ أين ستعيد تخصيص إنفاقك؟ هذا شيء يفكر فيه Ty بالفعل:
"تختبر محركات البحث اعتماد الدردشة كتفاعل أساسي ، مما يعني أن نقرات أقل ستنتقل إلى مواقع الويب الأخرى. لذا فإن إنشاء محتوى عضوي يركز على البحث قد يصبح أقل قيمة للشركات.
ليس من الواضح كيف يمكن للدردشة أن تعزو مصادرها وكيف يمكن أن يؤثر ذلك على مسار التسويق ".
3. مخاطر الهلوسة
عند استخدام الذكاء الاصطناعي التوليدي ، هناك خطر حقيقي من أن المحتوى الخاص بك سوف يتخلله الباطل والخيال: اقتباسات مختلقة منسوبة لأشخاص حقيقيين ، بيانات غير موجودة ، أفكار تبدو حساسة تنهار عند الفحص الدقيق.
هذه الأخطاء (التي يطلق عليها غالبًا "الهلوسة") هي خاصية جوهرية للذكاء الاصطناعي التوليدي ، نتيجة لهدفها الأساسي: توقع الكلمة التالية الأفضل في أي تسلسل معين من الكلمات. كما أوضحنا سابقًا ، الذكاء الاصطناعي التوليدي هو آلة ثقة خاطئة:
- لا توجد آلية للتحقق من الحقائق داخل GPT-3 أو GPT-4 (وليس من المحتمل أن تكون هناك آلية واحدة).
- تعتمد هذه النماذج على بيانات مصدر غالبًا ما تكون غير صحيحة.
- تم تصميم الذكاء الاصطناعي التوليدي للكتابة بأي ثمن ، حيث يتم ضخ المحتوى حتى في حالة وجود بيانات محدودة في مجموعة البيانات.
الهلوسة هي أكثر المخاطر الملموسة لمحتوى الذكاء الاصطناعي ، لكنها أيضًا الأكثر سهولة في الحل. يمكن اكتشاف الأخطاء والأخطاء ومعالجتها من خلال وضع إنسان في الحلقة ، شخص مكلف بتحليل صحة المخرجات ، والبحث عن الأخطاء والأكاذيب ، ووضع ختم الموافقة على المقالة النهائية.
تساعد هذه العملية أيضًا في التعامل مع المصدر التالي للمخاطر: قانوني.
4. المخاطر القانونية
تميل التكنولوجيا إلى التطور بشكل أسرع مما يمكن للوائح مواكبةه. أنشأ الذكاء الاصطناعي التوليدي بالفعل مجموعة من الأسئلة التي تحتاج إلى إجابة:
- هل من الأخلاقي (أو القانوني) استخدام بيانات موقع الويب المقتطعة لتدريب نموذج الذكاء الاصطناعي؟
- من "يمتلك" حقًا مخرجات أداة الذكاء الاصطناعي التوليدية؟
- هل يجب تعويض الفنانين عن دورهم في بناء بيانات التدريب؟ ("اكتب بأسلوب إرنست همنغواي ،" أو حتى "اكتب بأسلوب مدونة أنيمالز.")
في حين أن بعض هذه المشكلات قد يستغرق سنوات أو عقودًا لحلها ، فإن البعض الآخر يمثل قلقًا فوريًا للشركات التي تستخدم الذكاء الاصطناعي التوليدي. طلبت من ألكسندر غورانين ، المتخصص في قضايا الملكية الفكرية والذكاء الاصطناعي والشريك في Duane Morris LLP (شركة تستخدم Animalz للخدمات القانونية) ، مشاركة أفكاره حول المجالات الحالية للمخاطر التنظيمية:
- تسريب البيانات الشخصية. نظرًا لأن النماذج التوليدية يتم تدريبها على مجموعات البيانات العامة ، فقد يؤدي المحتوى الذي تم إنشاؤه عن غير قصد إلى "تسريب" البيانات الشخصية ، مما يفتح أمام الناشر إجراءات تنفيذية من لجنة التجارة الفيدرالية ووكالات الولاية ، خاصة في كاليفورنيا ونيويورك وإلينوي. السلطات التنظيمية حساسة تجاه الكشف غير المصرح به عن معلومات التعريف الشخصية.
- المحتوى المتحيز. على نفس المنوال ، قد تتبع لجنة التجارة الفيدرالية أو سلطات الدولة إجراء إنفاذ للمحتوى الذي يحتوي على تحيز (مثل التحيز العنصري أو الجنساني) ، حتى لو كان هذا التحيز ينشأ ضمنيًا من البيانات التي تم تدريب نموذج الذكاء الاصطناعي عليها.
- عدم وجود حماية حقوق التأليف والنشر. كما يوضح ألكسندر ، "هناك خطر ألا يقوم مكتب حقوق الطبع والنشر بتسجيل المحتوى الذي تم إنشاؤه على أنه" عمل محمي ". هذا هو المجال الذي أصدر فيه مكتب حقوق الطبع والنشر أكبر قدر من الإرشادات حاليًا - بشكل أساسي ، يحتاج المرء إلى الكشف في طلب التسجيل عن مدى استخدام الذكاء الاصطناعي والتخلي عن حقوق الطبع والنشر لأي أجزاء تم إنشاؤها بشكل كبير بواسطة LLM. يتطلب مكتب حقوق الطبع والنشر وجود "مؤلف بشري". "
أكثر حالات الاستخدام أمانًا للذكاء الاصطناعي التوليدي هي ، على نحو غير مفاجئ ، البحث في الخلفية ، والعصف الذهني ، وتوليد الأفكار. لأي شيء آخر ، يجب أن يساعد إنشاء مخطط "مراجعة بشرية" للمحتوى الذي تم إنشاؤه في التخفيف من أكبر المخاطر التنظيمية.
5. مخاطر متوسطة
يشعر الكثير من الناس بالقلق من أن محتوى الذكاء الاصطناعي سيكون سيئًا بشكل واضح. لكنني أعتقد أن هذا منخفض الخطورة نسبيًا. GPT-4 كاتب أفضل من معظم الناس: أكثر وضوحًا وإبداعًا وتقبلًا للتعليقات (وسيتحسن هذا فقط مع النماذج والواجهات المستقبلية).
لا ينبغي أن نأخذ هذا على محمل شخصي: إن GPT-4 هو حرفياً فوق طاقة البشر ، على الأقل في أبعاد القراءة والكتابة. كما يشارك Ty ، "كان من الواضح جدًا أن التكنولوجيا رائعة بما فيه الكفاية بحيث مع القليل من الرفع ، لم تعد الجودة مصدر قلق في وظيفة مدعومة بالذكاء الاصطناعي أكثر من كونها مدفوعة بشريًا."
لكن لا يجب أن يكون المحتوى سيئًا حتى يكون مشكلة. هناك خطر أكثر خطورة يجب مراعاته: أن المحتوى الخاص بك سيكون وظيفيًا ولكن يمكن نسيانه.
في السعي وراء زيادة وتيرة النشر ، هناك خطر فقدان أي وميض من التفرد الذي يمتلكه المحتوى الخاص بك حاليًا. سيكون المحتوى الخاص بك واضحًا ودقيقًا وحتى قابلاً للتنفيذ ... وسيظل يفشل في القيام بأي شيء مفيد لشركتك.
إن تسويق المحتوى الرائع يدور حول أكثر من مجرد كلمات على الصفحة. يتطلب كل مقال فردي التماسك مع استراتيجية أكبر وهادفة. يعتمد على التوزيع الفعال. يجب أن يذهب أبعد من مجرد تلبية التوقعات الأساسية للقارئ: يحتاج إلى ترك انطباع دائم ، أو حل مشكلة ، أو الترفيه .
اعتمد كثيرًا على الذكاء الاصطناعي التوليدي والقليل جدًا من الخبرة الماهرة ، وأنت تخاطر بإنشاء نوع من التقليد بلا روح لمحتوى جيد ، زومبي مترنح مع ظهور "تسويق المحتوى" ولكن لا شيء من صفاته المفيدة. يجب أن يكون الذكاء الاصطناعي التوليدي أداة في مجموعة أدواتك ، وخاضعًا لاستراتيجيتك - وليس غاية في حد ذاته.
كما كتب VC Tomasz Tunguz ، "السؤال بالنسبة للشركات الناشئة التي تقيم إنتاج المحتوى الآلي: ما إذا كان هذا كافياً لتبرز في أذهان المشترين. بالنسبة للعديد من حالات الاستخدام ، لن يكون التفرد مهمًا. وثائق المنتج ، ومحتوى دائم الخضرة لتحسين محركات البحث ، وردود جاهزة للبريد الإلكتروني. " والعكس صحيح أيضًا: في بعض المواقف ، يكون التفرد هو كل شيء.
6. مخاطر المحرك الأخير
عندما طرح Ty برنامج محتوى بمساعدة الذكاء الاصطناعي ، لم يكن مصدر القلق الرئيسي الذي سمعه هو المخاطر القانونية أو الجودة الرديئة ؛ كان هناك قلق من أن أكبر فرصة قد ضاعت بالفعل:
يعتقد بعض الناس أن الوقت قد فات بالفعل لزيادة حجم المحتوى الذي ننتجه ، وأن السوق سيكون مشبعًا في غضون أشهر.
لكني أعتقد أن الناس يبالغون في تقدير مدى سرعة تبني التقنيات. أعتقد أن الناس ما زالوا مستيقظين لما يمكن أن يفعله المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي ".
مثل أي تقنية جديدة ، يوفر الذكاء الاصطناعي التوليدي حالة من عدم اليقين ودرجة معينة من المخاطر - ولكن مع المخاطرة تأتي الفرص. فرصة لبناء خندق يمكن الدفاع عنه من التصنيفات والروابط الخلفية أمام منافسيك. فرصة لتجربة قنوات حركة جديدة تمامًا. فرصة لتضمين التخصيص في قلب التسويق الخاص بك.
عندما يتعلق الأمر بمحتوى الذكاء الاصطناعي ، فإن الخطر الأوضح والأكثر تأكيدًا يأتي من الفشل في التجربة والتعلم. سيجد الذكاء الاصطناعي التوليدي طريقه إلى كل استراتيجية تسويقية. إنه جيد جدًا ورخيص جدًا لأي شيء آخر. على الرغم من أن التطبيق "الصحيح" للذكاء الاصطناعي التوليدي سيختلف بشكل كبير من شركة إلى أخرى - على أساس تحمل المخاطر وتوقعات الجمهور والأهداف والموارد والمعتقدات الشخصية - سيكون هناك تطبيق في كل شركة تقريبًا.
حان الوقت لتجده.