고객 경험에서 AI를 책임감 있게 사용하는 변호사의 견해

게시 됨: 2023-07-05

생성 AI가 소프트웨어 플랫폼을 사용하는 방식을 변화시키는 것을 전 세계가 놀라움으로 지켜봤습니다.

고객 경험 (CX)과 관련하여 우리는 과거의 자동화되고 연결이 끊어지고 실망스러운 챗봇에서 먼 길을 왔습니다. AI 기반 도우미는 이제 고객 질문에 즉각적인 응답을 제공하고 제품 정보를 설명하며 문제를 해결할 수 있습니다.

자율적으로 콘텐츠를 생성하고 상호 작용을 개인화하는 Generative AI의 기능은 고객 참여 및 만족도를 향상할 수 있는 가능성의 창을 엽니다.

이 기술은 모든 비즈니스에 흥미롭지만 고객 데이터 보호, 기존 규정 준수 및 윤리 유지와 관련하여 문제를 야기할 수도 있습니다. AI 기술을 배포하는 여정에서 좋은 점과 나쁜 점을 저울질해야 합니다.

Ada는 고객 문의에 대해 안전하고 정확하며 적절한 해결책을 제공하는 신뢰할 수 있는 AI를 중심으로 브랜드를 구축했습니다. 아래에서는 법적 규정을 준수하면서 고객 신뢰를 유지하는 몇 가지 방법을 공유합니다.  

이 기사에서 배울 내용:

  • AI가 기업이 고객에게 최적의 가치를 제공하도록 돕는 방법
  • 고객 경험에 AI를 사용하는 데 따른 법적 위험
  • 책임감 있게 CX에서 AI를 사용하는 방법
  • AI와 고객의 미래 모습

AI로 고객 경험 향상

G2의 2023년 구매자 행동 보고서 데이터에 따르면 구매자는 AI를 비즈니스 전략의 기본으로 보고 있으며, 응답자의 81%는 구매하는 소프트웨어에 AI 기능이 있는 것이 중요하거나 매우 중요하다고 말했습니다. AI는 비즈니스와 불가분의 관계가 되어 가고 있습니다.

Ada는 고객 서비스의 생성 AI가 다음과 같은 잠재력을 가지고 있다고 믿습니다.

  • 비용 효과적이고 효율적인 해결책을 추진합니다. AI 우선 고객 경험을 구현합니다. AI를 사용하여 가장 일반적인 문의 응답을 자동화하여 리소스를 절약할 수 있으며 고객 전문가는 다른 보다 복잡한 작업에 집중할 수 있습니다.
  • 현대적인 고객 경험을 제공하십시오. 지능형 AI 기반 솔루션을 통해 고객 서비스는 전 세계 모든 언어로 정확하고 신뢰할 수 있는 정보로 질문에 답변할 수 있습니다.
  • 기술 뒤에 있는 사람들을 들어 올리십시오 . 자동화된 고객 서비스 도구를 사용하여 기업은 고객 서비스 에이전트의 전략적 성장에 투자하고 배후의 사람들이 성공할 수 있도록 힘을 실어줄 수 있습니다.

이점은 많지만 기업은 제너레이티브 AI를 탐색하는 것과 고객 신뢰를 보호하는 것 사이에서 균형을 찾아야 합니다.

적법성 및 규정 준수

회사에서 생성 AI를 설정하기 전에 발생할 수 있는 법적 위험을 이해해야 합니다. 이러한 문제를 미리 해결함으로써 기업은 고객 데이터를 보호하고 법적 프레임워크를 준수하며 고객 신뢰를 구축할 수 있습니다.

“어떤 회사든 최악의 시나리오는 고객의 신뢰를 잃는 것입니다.”

타라 다타니
법무 이사, Ada

Cisco의 2023년 데이터 프라이버시 벤치마크 연구 에 따르면 응답자의 94%가 고객이 데이터를 보호하지 않는 회사를 후원하지 않을 것이라고 말했습니다. Cisco의 2022년 소비자 프라이버시 설문조사에 따르면 소비자의 60%는 오늘날 조직이 AI를 적용하는 방식에 대해 우려하고 있으며 65%는 이미 AI 관행에 대해 조직에 대한 신뢰를 잃었습니다.

AI를 사용하여 책임감 있게 보고하는 cisco
출처 : Cisco의 2022년 소비자 개인정보 보호 설문조사

이 모든 것은 법률 및 규정 준수와 관련하여 고객 데이터 개인 정보 보호, 보안 및 지적 재산권과 관련된 문제를 살펴보는 것이 중요하다는 것을 의미합니다.

고객 서비스 리더를 위한 Ada의 AI 및 자동화 툴킷 에서는 어떤 AI 기반 고객 서비스 공급업체를 사용할지 고민할 때 묻는 법적 및 보안 질문을 파헤칩니다. 또한 고객 서비스 솔루션을 위한 AI 구현과 관련된 입력 및 출력 위험에 대해서도 논의합니다.

고객 서비스 리더 입력 위험 차트를 위한 ADA AI 및 자동화 툴킷고객 서비스 리더를 위한 ADA AI 및 자동화 툴킷 출력 위험 차트

출처 : 에이다

고객 데이터 및 개인 정보 보호

고객 경험을 위해 생성 AI를 사용할 때 데이터 보안 및 개인 정보 보호가 주요 관심사입니다. AI 알고리즘에 의해 처리되는 방대한 양의 데이터로 인해 데이터 유출 및 개인정보 침해에 대한 걱정이 늘고 있습니다.

귀하와 귀하의 회사는 온보딩을 고려하고 있는 제너레이티브 AI 공급업체의 개인 정보 보호 및 보안 관행을 주의 깊게 검토함으로써 이러한 위험을 완화할 수 있습니다. 협력하고 있는 공급업체가 조직과 동일한 수준에서 데이터를 보호할 수 있는지 확인하십시오. 그들의 개인 정보 보호 및 데이터 보안 정책을 면밀히 연구하여 귀하가 그들의 관행에 편안함을 느낄 수 있도록 보장하십시오.

"신뢰할 수 있는 AI 개발에 대한 회사의 핵심 가치를 이해하고 유지하는 공급업체에만 전념하십시오."

타라 다타니
법무 이사, Ada

또한 고객은 이러한 유형의 기술에서 자신의 데이터가 어떻게 사용되는지에 대해 점점 더 흥미를 느끼고 있습니다. 따라서 공급업체를 결정할 때 AI 모델 교육과 같은 자체 목적을 위해 제공된 데이터로 무엇을 하는지 알고 있어야 합니다.

귀사가 여기서 얻을 수 있는 이점은 AI 공급업체와 계약을 체결할 때 이러한 조건을 협상하고 제공된 데이터 사용에 대한 조건을 추가할 수 있는 기회가 있다는 것입니다. 데이터 사용 방식에 대한 제한을 추가하기에 가장 좋은 시기이므로 이 단계를 활용하십시오.

소유권 및 지적 재산

Generative AI는 사용자로부터 얻은 정보를 기반으로 자율적으로 콘텐츠를 생성하므로 "실제로 이 콘텐츠의 소유자는 누구입니까?"라는 질문이 제기됩니다.

지적 재산(IP) 의 소유권은 매력적이지만 특히 저작권법과 관련하여 지속적인 논의와 개발이 필요한 까다로운 주제입니다.

CX에서 AI를 사용할 때 생성된 작업에 대한 명확한 소유권 지침을 설정해야 합니다. Ada에서는 고객의 소유입니다. 클라이언트와 작업을 시작할 때 우리는 처음부터 Ada 챗봇이 생성한 소유 가능한 출력이나 모델에 제공된 입력이 클라이언트의 것임을 동의합니다. 공급업체와의 계약 협상 단계에서 소유권을 설정하면 분쟁을 방지하고 조직이 공정하게 협력할 수 있습니다.

AI 모델이 합법적으로 얻은 데이터에 대해 훈련되고 적절하게 라이선스가 부여되도록 하려면 적절한 라이선스 계약을 구하거나 필요한 권한을 얻거나 완전히 독창적인 콘텐츠를 생성해야 할 수 있습니다. 기업은 규정 준수를 강화하기 위해 IP 및 저작권법과 공정 사용 및 변형 사용과 같은 원칙을 명확히 해야 합니다.

위험 감소

생성 AI 및 관련 주제에 대한 모든 흥분과 과대 광고로 인해 지금 당장 실행하기에 정말 흥미로운 법률 분야입니다. 이러한 새로 발견된 기회는 매력적이지만 잠재적인 위험과 개발 영역을 식별해야 합니다.

올바른 공급업체와 협력하고 규정을 최신 상태로 유지하는 것은 물론 생성 AI 여정의 훌륭한 단계입니다. Ada의 많은 사람들은 업계 중심의 토론 그룹에 가입하는 것이 모든 관련 뉴스를 파악하는 데 유용한 방법이라고 생각합니다.

그러나 이 기술 사용과 관련된 일부 위험을 완화하면서 투명성과 보안을 보장하기 위해 무엇을 할 수 있습니까?

AI 거버넌스 위원회 구성

처음부터 Ada는 교차 협업 및 지식 공유를 위한 공식적인 내부 프로세스를 만들기 위해 AI 거버넌스 위원회를 설립했습니다. 이는 책임 있는 AI 프레임워크를 구축하기 위한 핵심입니다. 위원회에서 검토하는 주제에는 규정 준수 업데이트, IP 문제 및 공급업체 위험 관리가 포함되며 모두 제품 개발 및 AI 기술 배포와 관련됩니다.

이는 내부 정책을 평가하고 업데이트하는 데 도움이 될 뿐만 아니라 직원 및 기타 이해 관계자가 안전하고 책임감 있는 방식으로 이 기술을 사용하는 방법에 대한 더 큰 가시성을 제공합니다.

AI의 규제 환경은 기술의 속도와 일치하고 있습니다. 우리는 이러한 변화를 파악하고 현장을 계속 선도하기 위해 일하는 방식을 조정해야 합니다.

ChatGPT는 이러한 유형의 기술에 더 많은 관심을 가져왔습니다. AI 거버넌스 위원회는 법률, 규정 준수, 보안 또는 조직과 같이 발생할 수 있는 규정 또는 기타 위험을 이해할 책임이 있습니다. 위원회는 또한 생성 AI가 일반적으로 고객과 비즈니스에 어떻게 적용되는지에 초점을 맞출 것입니다.

신뢰할 수 있는 AI 식별

콘텐츠를 생성하기 위해 대규모 언어 모델(LLM)에 의존하는 동안 고객의 위험을 줄이기 위해 비즈니스가 이 기술 위에 추가하는 구성 및 기타 독점 조치가 있는지 확인하십시오. 예를 들어 Ada에서는 다양한 유형의 필터를 사용하여 안전하지 않거나 신뢰할 수 없는 콘텐츠를 제거합니다.

그 외에도 업계 표준 보안 프로그램을 마련하고 미리 정해진 의도 이외의 목적으로 데이터를 사용하지 않아야 합니다. Ada에서 제품 개발에 통합하는 것은 항상 목적을 달성하는 데 필요한 최소한의 데이터 및 개인 정보를 얻는 것을 기반으로 합니다.

따라서 어떤 제품을 보유하고 있든 회사는 모든 기능이 이러한 요소를 고려하도록 해야 합니다. 데이터에 대한 이러한 잠재적 위험이 제너레이티브 AI 사용과 밀접한 관계가 있음을 고객에게 경고하십시오. 자체 제품 설계에서 설명 가능성, 투명성 및 개인 정보 보호를 유지하기 위해 동일한 노력을 기울이는 조직과 협력하십시오.

이를 통해 고객에게 보다 투명하게 다가갈 수 있습니다. 개인 정보를 더 잘 제어하고 데이터 사용 방법에 대해 정보에 입각한 결정을 내릴 수 있습니다.

지속적인 피드백 루프 활용

생성 AI 기술이 매우 빠르게 변화하고 있기 때문에 Ada는 고객 피드백을 통해 잠재적 위험을 지속적으로 평가하고 있습니다.

우리 부서는 또한 중요한 교차 기능에 중점을 둡니다. 제품, 고객 성공 및 영업 팀이 모두 함께 모여 고객이 원하는 것과 이를 제공하는 방법을 이해합니다.

그리고 고객은 우리에게 매우 중요한 정보 소스입니다! 그들은 새로운 기능에 대해 좋은 질문을 하고 수많은 제품 피드백을 제공합니다. 이것은 우리가 그들의 우려보다 한발 앞서 나가야 하는 도전 과제입니다.

그런 다음 법무 부서로서 매일 제품 및 보안 팀과 협력하여 가능한 규제 문제 및 고객과의 지속적인 계약 의무에 대한 정보를 제공합니다.

제너레이티브 AI를 적용하는 것은 회사 전체의 노력입니다. Ada의 모든 사람들은 매일 AI를 사용하고 AI와 함께 발생할 수 있는 가능성과 위험을 계속 평가하도록 격려받고 권한을 부여받고 있습니다.

AI와 CX의 미래

Ada의 CEO인 마이크 머치슨(Mike Murchison)은 2022년 Ada Interact Conference 에서 AI의 미래에 대해 기조 연설을 했으며 모든 회사가 결국 AI 회사가 될 것이라고 예측했습니다. 우리의 관점에서 우리는 고객 상담원과 고객의 관점 모두에서 전반적인 경험이 극적으로 향상될 것이라고 생각합니다.

고객 서비스 에이전트의 작업이 향상됩니다. AI가 보다 일상적이고 반복적인 고객 서비스 작업 중 일부를 인계하여 상담원이 자신의 역할의 다른 만족스러운 측면에 집중할 수 있기 때문에 이러한 역할에서 훨씬 더 많은 만족이 있을 것입니다.

얼리어답터 되기

제너레이티브 AI 도구는 이미 존재하며 앞으로도 계속 유지될 것입니다. 지금 사용 방법을 파헤쳐야 합니다.

“제너레이티브 AI는 차세대 혁신입니다. 관망하는 방식을 채택하기보다 조직이 이 기술을 책임감 있게 사용하도록 도와주세요.”

타라 다타니
법무 이사, Ada

도구가 수행하는 작업과 수행 방법을 학습하여 시작할 수 있습니다. 그런 다음 이러한 워크플로우를 평가하여 귀사가 편안하게 여기는 것이 무엇인지, 조직이 생성 AI 도구를 안전하게 구현하는 데 도움이 되는 것이 무엇인지 이해할 수 있습니다.

계속 작업할 수 있도록 이러한 도구가 워크플로를 최적화하는 방법을 알아보려면 비즈니스 팀과 계속 협력해야 합니다. 기술이 발전함에 따라 계속해서 질문하고 위험을 평가하십시오.

책임을 지고 이 새로운 기술의 최첨단을 유지하는 방법이 있습니다. 이 기사가 해당 라인을 찾는 데 도움이 되기를 바랍니다.


이 게시물은 G2의 Industry Insights 시리즈의 일부입니다. 표현된 견해와 의견은 저자의 것이며 반드시 G2나 그 직원의 공식적인 입장을 반영하는 것은 아닙니다.