인간을 루프에 배치하여 생성 AI의 위험 완화
게시 됨: 2023-06-21"사악한 AI에 대한 지속 가능한 사용 사례는 없습니다."
공인된 인공 지능 전문가이자 Pega의 의사 결정 및 분석 부사장인 Rob Walker 박사는 지난주 PegaWorld iNspire 컨퍼런스에서 악성 AI에 대한 원탁 토론을 요약했습니다.
그는 불투명 알고리즘과 투명 알고리즘의 차이점을 설명했습니다. AI 스펙트럼의 한쪽 끝에서 불투명 알고리즘은 고속 및 높은 정확도로 작동합니다. 문제는 실제로 그들이 하는 일을 어떻게 하는지 설명할 수 없다는 것입니다. 예를 들어 모기지 또는 대출 신청에 대한 결정을 내리는 것과 같이 책임이 필요한 작업에 대해 다소 쓸모 없게 만들기에 충분합니다.
반면 투명한 알고리즘은 설명 가능성이라는 장점이 있습니다. 그들은 덜 신뢰할 수 있습니다. 그는 설명할 수 있는 의사가 처방한 치료 과정을 받는 것과 설명할 수 없지만 옳을 가능성이 더 높은 기계 사이에서 선택하는 것과 같다고 말했습니다. 그것은 선택이며 쉬운 선택이 아닙니다.
그러나 결국 모든 의사 결정을 가장 강력한 AI 도구에 맡기는 것은 불량이 될 위험이 있기 때문에 실제로 지속 가능하지 않습니다.
같은 컨퍼런스에서 Pega CTO Don Schuerman은 자율 기업을 만드는 데 도움이 되는 AI 기반 솔루션인 "Autopilot"의 비전에 대해 논의했습니다. "내 희망은 2024년에 약간의 변형이 있다는 것입니다. 거버넌스와 통제가 필요할 것이라고 생각합니다." 예를 들어, 자동 조종 장치만 있고 루프에 사람이 없는 비행기에 탑승하기를 원하는 사람은 거의 없습니다.
루프의 인간
인간을 루프에 유지하는 것은 회의에서 끊임없는 만트라였으며 책임감 있는 AI에 대한 Pega의 약속을 강조했습니다. 이미 2017년에는 Pega "T-Switch"를 출시하여 기업이 각 AI 모델에 대해 슬라이딩 스케일로 투명성 수준을 위아래로 조정할 수 있도록 했습니다. “예를 들어 마케팅 이미지를 분류하는 불투명한 딥 러닝 모델을 사용하는 것은 위험이 적습니다. 반대로 공정한 대출 관행에 대한 엄격한 규제를 받는 은행은 대출 제안의 공정한 분배를 입증하기 위해 매우 투명한 AI 모델이 필요합니다.”라고 Pega는 설명했습니다.
그러나 제너레이티브 AI는 완전히 다른 수준의 위험을 가져옵니다. 특히 마케팅과 같은 고객 대면 기능에는 위험이 따릅니다. 특히, 진실을 말하는지 아니면 꾸며내는지("환각") 정말 상관하지 않습니다. 명확하지 않은 경우 이러한 위험은 생성 AI 구현과 함께 발생하며 Pega 솔루션에만 국한되지 않습니다.
Pega AI Lab 책임자인 Peter van der Putten은 "가장 개연성 있고 그럴듯한 것과 우리가 듣고 싶은 것을 예측합니다."라고 설명했습니다. 그러나 그것은 또한 문제를 설명합니다. “그것은 뭔가를 말할 수 있고 그럴듯한 설명을 제공하는 데 매우 능숙합니다. 역추적할 수도 있습니다.” 즉, 동일한 작업을 두 번 설정하면 다른(아마도 더 나은) 응답으로 돌아올 수 있습니다.
PegaWorld 직전에 Pega는 Gen AI 챗봇, 자동화된 워크플로 및 콘텐츠 최적화를 포함하여 20개의 생성 AI 기반 "부스터"를 발표했습니다. Putten은 "우리가 출시한 제품을 자세히 살펴보면 거의 모든 제품에 사람이 포함되어 있습니다. 높은 수익, 낮은 위험. 이것이 사람들에게 일반적인 생성 AI 기술에 대한 액세스를 제공하는 것보다 생성 AI 기반 제품을 구축하는 이점입니다.”
그런 다음 Pega GenAI는 특정 작업을 수행하기 위한 도구를 제공합니다(대형 언어 모델이 백그라운드에서 실행됨). 인간의 프롬프트를 기다리는 빈 캔버스가 아닙니다.
AI 지원 챗봇과 같은 것의 경우 루프에 사람이 있어야 합니다. Schuerman은 "많은 기업이 대형 언어 모델 챗봇을 고객 앞에 직접 배치하는 데 익숙해지기까지는 시간이 좀 걸릴 것 같습니다."라고 말했습니다. "제너레이티브 AI가 생성하는 모든 것 — 고객 앞에 놓기 전에 사람이 살펴보기를 원합니다."
하루 400만 상호 작용
그러나 루프에 인간을 배치하면 확장성에 대한 의문이 제기됩니다.
네덜란드 제빵 및 금융 서비스 회사인 Rabobank의 디지털 부사장인 Finbar Hage는 회의에서 Pega의 Customer Decision Hub가 연간 15억 건의 상호 작용 또는 하루에 약 400만 건의 상호 작용을 처리한다고 말했습니다. 허브의 임무는 차선책 권장 사항을 생성하여 실시간으로 즉석에서 고객 여정을 생성하는 것입니다. 차선책은 예를 들어 개인화된 이메일을 보내는 것일 수 있으며, Gen AI는 그러한 이메일을 거의 즉시 생성할 수 있는 가능성을 제공합니다.
이러한 모든 이메일은 보내기 전에 사람의 승인을 받아야 합니다. 얼마나 많은 이메일입니까? 마케팅 담당자가 AI 생성 콘텐츠를 승인하는 데 얼마나 많은 시간을 할애해야 합니까?
아마도 더 관리하기 쉬운 것은 Pega GenAI를 사용하여 다양한 언어로 복잡한 비즈니스 문서를 만드는 것입니다. 기조연설에서 최고 제품 책임자인 Kerim Akgonul은 AI를 사용하여 터키어로 대출 신청을 위한 복잡한 워크플로우를 만드는 것을 시연했습니다. 템플릿은 글로벌 비즈니스 규칙과 현지 규정을 고려했습니다.
그 결과 터키인인 Akgonul은 몇 가지 오류를 볼 수 있었습니다. 그것이 인간이 필요한 이유입니다. 그러나 AI 세대에 인간의 승인이 더해진 것이 인간 세대에 이어 인간의 승인이 있을 수 있는 것보다 훨씬 빨라 보였다는 데는 의심의 여지가 없습니다.
이것이 내가 이것에 대해 질문한 각 Pega 경영진으로부터 들은 것입니다. 예, 승인에는 시간이 걸리며 비즈니스는 위험 수준에 따라 올바른 수준의 거버넌스가 적용되도록 하기 위해 거버넌스(Schuerman의 표현을 빌리자면 "규범적 모범 사례")를 마련해야 합니다.
본질적으로 고객 대면 역할을 하는 마케팅의 경우 거버넌스 수준이 높을 가능성이 높습니다. 그러나 희망과 약속은 AI 기반 자동화가 여전히 일을 더 빠르고 더 잘 수행할 수 있다는 것입니다.
마테크를 잡아라! 일일. 무료. 받은편지함에서
용어를 참조하십시오.
관련 이야기
MarTech의 새로운 기능