AI 콘텐츠의 6가지 위험
게시 됨: 2023-04-181. 구글 리스크
2022년 4월에 Google의 John Mueller는 AI로 생성된 콘텐츠의 유효성에 대해 매우 명확한 입장을 공유했습니다.
“현재 웹마스터 가이드라인에 위배됩니다. 따라서 우리의 관점에서 볼 때 이와 같은 것을 발견하면 웹스팸 팀에서 이를 스팸으로 간주할 것입니다.”
추론: Google은 AI 콘텐츠를 만드는 사이트에 불이익을 줄 것이라고 Mueller는 기존 콘텐츠를 가져오고 동의어와 단어 재정렬을 사용하여 겉보기에 새로운 것을 만드는 과정을 "회전"에 비유했습니다. 콘텐츠 제작의 한계 비용을 거의 제로(웹 스팸 발송자의 꿈)로 줄일 수 있는 기술에 직면했을 때 Google은 해당 기술의 사용을 중단하기로 결정했습니다.
그러나 앞에서 설명한 것처럼 Google이 AI 생성 콘텐츠에 불이익을 주거나 심지어 할 수 있다는 생각은 지나치게 단순화되었습니다.
- AI로 생성된 콘텐츠는 대부분의 경우 원본입니다. GPT-4는 콘텐츠를 회전시키지 않습니다. AI가 생성한 콘텐츠에는 독창적인 글이 포함되어 있으며 완전히 새로운 아이디어가 포함될 수도 있습니다.
- AI 콘텐츠 감지는 어렵고 점점 더 어려워지고 있습니다. 기술은 군비 경쟁이며 콘텐츠 감지보다 콘텐츠 생성에 더 많은 비용이 투입되고 있습니다. Google은 AI가 생성한 콘텐츠를 어느 정도 일관성 있게 감지할 수 없을 것입니다.
- 사람이 편집한 콘텐츠와 AI가 작성한 콘텐츠 사이에는 모호한 경계가 있습니다. AI가 생성한 기사가 실제 사람이 편집하거나 다시 쓴 경우 여전히 스팸으로 간주됩니까?
10개월 후인 2023년 2월에 Google은 AI 생성 콘텐츠에 대한 업데이트된 지침을 발표했습니다. 원본 기사를 읽고 자신만의 요약본을 만드는 것은 가치가 있지만 제 요점은 분명합니다. 도움이 되고 문제를 해결하는 콘텐츠를 만드는 것을 목표로 한다면 Google은 콘텐츠를 만드는 방법 에 대해 대체로 양가적일 것입니다. 요약하면 다음과 같습니다.
“자동화는 유용한 콘텐츠를 만들기 위해 출판에 오랫동안 사용되어 왔습니다. AI는 흥미롭고 새로운 방식으로 유용한 콘텐츠를 지원하고 생성할 수 있습니다.”
Vendr의 브랜드 책임자인 Ty Magnin과 AI 콘텐츠에 대해 이야기했을 때 그는 “우리가 처음 시작했을 때(실제로 불과 몇 달 전) Google은 AI로 작성된 기사를 처벌할 것이라고 말했습니다. 우리 대부분은 허세라고 불렀지만 2022년에는 그것이 진짜 잠재적인 위험이었습니다. Gen-AI의 인식된 위험 프로필이 이렇게 빠르게 계속 변하고 있다는 사실이 놀랍습니다.”
어느 누구도 모든 행동이 불이익을 받지 않을 것이라고 보장할 수 없습니다. Google은 결국 기업 이지 유틸리티가 아니며 주로 자체 변덕에 따라 결정을 내릴 수 있습니다. 그러나 대부분의 사용 사례가 안전할 것이라고 생각할 충분한 이유가 있습니다.
2. 채널 위험
SEO와 관련하여 고려해야 할 또 다른 각도가 있습니다. Google이 AI 사용에 미치는 위험에 대해 생각하는 대신 AI가 Google에 제기하는 위험을 고려해 볼 가치가 있습니다.
키워드 경쟁은 날이 갈수록 치열해지고 있습니다. SEO의 수익은 장기적으로 감소하는 궤적에 있으며 생성 AI가 이러한 하강을 가속화할 수 있습니다. AI 기반 콘텐츠 제작의 엄청난 증가와 온라인 콘텐츠의 합법성에 대한 회의론이 커지면 검색 결과가 훨씬 더 떨어질 수 있습니다("검색 특이점"이라고 함).
발생할 수 있는 많은 방법이 있습니다.
이 위험은 추측에 불과하지만 열린 마음을 가질 가치가 있습니다. Generative AI는 현대 검색의 전환점이 될 수 있습니다. 많은 콘텐츠 전략의 존재 이유인 SEO에 갑자기 훨씬 더 많은 노력이 필요하거나 훨씬 낮은 수익을 제공한다면 어떻게 하시겠습니까? 지출을 어디에 재할당하시겠습니까? 이것은 Ty가 이미 생각하고 있는 것입니다.
“검색 엔진은 기본 상호 작용으로 채팅을 채택하는 실험을 하고 있습니다. 즉, 다른 웹 사이트로 이동하는 클릭 수가 줄어듭니다. 따라서 유기적 검색 중심 콘텐츠를 만드는 것은 비즈니스에 덜 가치 있게 될 수 있습니다.
채팅이 출처를 밝히는 방법과 이것이 마케팅 퍼널에 어떤 영향을 미칠 수 있는지 명확하지 않습니다.”
3. 환각 위험
제너레이티브 AI를 사용할 때 콘텐츠가 거짓과 허구로 뒤덮일 위험이 있습니다. 실제 사람이 지어낸 인용문, 존재하지 않는 데이터, 면밀히 살펴보면 무너지는 감각적인 아이디어 등이 있습니다.
이러한 오류(종종 "환각"이라고 함)는 생성 AI의 고유한 속성으로, 주어진 단어 시퀀스에서 차선책을 예측하는 주요 목표의 결과입니다. 이전에 설명했듯이 생성 AI는 거짓 신뢰 기계입니다.
- GPT-3 또는 GPT-4에는 사실 확인 메커니즘이 없습니다(있을 가능성도 없습니다).
- 이러한 모델은 종종 잘못된 소스 데이터를 사용합니다.
- Generative AI는 데이터 세트에 제한된 데이터가 있는 경우에도 콘텐츠를 펌핑하여 어떤 대가를 치르더라도 작성하도록 설계되었습니다.
환각은 AI 콘텐츠의 가장 구체적인 위험이지만 가장 쉽게 해결되는 위험이기도 합니다. 결과의 유효성을 분석하고, 오류와 거짓말을 찾고, 완성된 문서에 승인 스탬프를 찍는 작업을 담당하는 사람을 루프에 배치하여 오류와 실수를 포착하고 수정할 수 있습니다.
이 프로세스는 다음 위험 요소인 법적 문제에도 도움이 됩니다.
4. 법적 위험
기술은 규제가 따라잡을 수 있는 것보다 더 빨리 발전하는 경향이 있습니다. 제너레이티브 AI는 이미 답변해야 할 많은 질문을 생성했습니다.
- 스크랩한 웹 사이트 데이터를 사용하여 AI 모델을 교육하는 것이 윤리적(또는 합법적)입니까?
- 생성 AI 도구의 결과물을 진정으로 "소유"하는 사람은 누구입니까?
- 훈련 데이터 구축에서 아티스트의 역할에 대해 보상을 받아야 합니까? (“어니스트 헤밍웨이 스타일로 작성하세요.” 또는 “Animalz 블로그 스타일로 작성하세요.”)
이러한 문제 중 일부는 해결하는 데 몇 년 또는 수십 년이 걸릴 수 있지만 다른 문제는 생성 AI를 사용하는 회사에 즉각적인 우려를 제기합니다. 나는 Duane Morris LLP(Animalz가 법률 서비스에 사용하는 회사)의 지적 재산 및 인공 지능 문제 전문가이자 파트너인 Aleksander Goranin에게 현재 규제 위험 영역에 대한 그의 생각을 공유해달라고 요청했습니다.
- 개인정보 유출. 생성 모델이 공개 데이터세트에서 훈련됨에 따라 생성된 콘텐츠는 개인 데이터를 의도치 않게 "누설"할 수 있으며 게시자는 특히 캘리포니아, 뉴욕 및 일리노이에서 연방 무역 위원회 및 주 기관의 집행 조치를 받을 수 있습니다. 규제 당국은 개인 식별 정보의 무단 공개에 민감합니다.
- 편향된 콘텐츠. 유사한 맥락에서 FTC 또는 주 당국은 편향(예: 인종 또는 성별 편향)이 포함된 콘텐츠에 대해 강제 조치를 취할 수 있습니다. 이러한 편향이 AI 모델이 훈련된 데이터에서 암묵적으로 발생하더라도 마찬가지입니다.
- 저작권 보호 부족. Aleksander 는 “저작권 사무소에서 보호된 '저작물'로 생성된 콘텐츠를 등록하지 않을 위험이 있습니다. 이것은 저작권청이 현재 가장 많은 양의 지침을 발표한 영역입니다. 기본적으로 AI가 사용된 범위를 등록 신청서에 공개하고 LLM에 의해 실질적으로 생성된 모든 부분에 대한 저작권을 부인해야 합니다. 저작권청은 '인간 저작자'를 요구합니다.”
제너레이티브 AI의 가장 안전한 사용 사례는 당연히 배경 조사, 브레인스토밍 및 아이디어 생성입니다. 무엇보다 생성된 콘텐츠에 대한 "인간 검토" 체계를 만드는 것은 가장 큰 규제 위험을 완화하는 데 도움이 됩니다.
5. 평범한 위험
많은 사람들이 AI 콘텐츠가 명백히 나쁠 것이라고 걱정합니다. 그러나 나는 이것이 상대적으로 위험이 낮다고 생각합니다. GPT-4는 대부분의 사람들보다 더 나은 작성자입니다. 더 명료하고 창의적이며 피드백을 수용합니다(이는 향후 모델과 인터페이스에서만 개선될 것입니다).
우리는 이것을 개인적으로 받아들여서는 안 됩니다. GPT-4는 적어도 읽기와 쓰기의 차원에서 문자 그대로 초인적입니다. Ty가 말했듯이 "기술이 충분히 뛰어나서 약간의 향상만 있으면 AI 지원 게시물의 품질은 인간이 주도하는 게시물보다 더 이상 문제가 되지 않습니다."
하지만 내용이 나쁘다고 문제가 될 필요는 없습니다. 고려해야 할 더 교활한 위험이 있습니다. 콘텐츠가 작동하지만 잊어버릴 수 있다는 것입니다.
퍼블리싱 빈도를 높이려는 과정에서 귀하의 콘텐츠가 현재 가지고 있는 고유성을 잃을 위험이 있습니다. 귀하의 콘텐츠는 명료하고 정확하며 심지어 실행 가능할 것입니다. 그러나 여전히 귀하의 회사에 유용한 작업을 수행하지 못합니다.
훌륭한 콘텐츠 마케팅은 페이지의 단어 그 이상입니다. 각각의 개별 기사에는 더 크고 목적이 있는 전략과의 응집력이 필요합니다. 효과적인 배포에 의존합니다. 단순히 독자의 기본 기대치를 충족시키는 것 이상으로 나아가야 합니다. 지속적인 인상을 남기거나 문제를 해결하거나 즐겁게 해야 합니다 .
제너레이티브 AI에 너무 많이 의존하고 숙련된 경험에 너무 적게 의존하면 좋은 콘텐츠에 대한 일종의 영혼 없는 모방, 즉 "콘텐츠 마케팅"처럼 보이지만 유용한 특성은 전혀 없는 도주하는 좀비를 만들 위험이 있습니다. 제너레이티브 AI는 그 자체로 목적이 아니라 전략에 보조적인 툴킷 의 도구여야 합니다.
VC Tomasz Tunguz 는 다음과 같이 썼습니다. 많은 사용 사례에서 고유성은 중요하지 않습니다. 제품 설명서, SEO를 위한 상시 콘텐츠, 이메일에 대한 미리 준비된 답변.” 그 반대도 마찬가지입니다. 어떤 상황에서는 고유성이 전부입니다.
6. 마지막 이동자 위험
Ty가 AI 지원 콘텐츠 프로그램을 출시했을 때 그가 들은 주요 관심사는 법적 위험이나 품질 저하가 아니었습니다. 가장 큰 기회가 이미 지나갔다는 우려가 있었습니다.
“일부 사람들은 우리가 생산하는 콘텐츠의 양을 늘리기에는 이미 너무 늦었고 몇 달 안에 시장이 포화될 것이라고 생각했습니다.
하지만 저는 사람들이 기술이 얼마나 빨리 채택되는지를 과대평가한다고 생각합니다. 사람들은 여전히 AI로 생성된 콘텐츠가 무엇을 할 수 있는지 깨닫고 있다고 생각합니다.”
모든 신기술과 마찬가지로 생성 AI는 불확실성과 어느 정도의 위험을 제공하지만 위험에는 기회가 따릅니다. 경쟁자보다 먼저 방어 가능한 순위 및 백링크 해자를 구축할 수 있는 기회입니다. 완전히 새로운 트래픽 채널을 실험할 수 있는 기회. 개인화를 마케팅의 중심에 포함시킬 수 있는 기회입니다.
AI 콘텐츠와 관련하여 가장 명확하고 확실한 위험은 실험 및 학습 실패에서 비롯됩니다. Generative AI는 모든 마케팅 전략에 적용됩니다. 너무 좋고 다른 것에 비해 너무 저렴합니다. 제너레이티브 AI의 "올바른" 적용은 회사마다 크게 다르지만(위험 허용 범위, 청중의 기대, 목표, 자원 및 개인적 신념에 따라) 거의 모든 회사에 적용이 있을 것입니다 .
찾으러 갈 시간입니다.