genAI의 미래는 어떻게 될까요? Gartner 하이프 사이클
게시 됨: 2023-09-21생성적 AI와 이를 지원하는 기본 모델이 현재 "인공 지능을 위한 Gartner Hype Cycle"의 최신 반복에서 Gartner가 "부풀려진 기대의 정점"이라고 부르는 정점에 있다는 것은 누구에게도 놀라운 일이 아닙니다. 이는 그들이 “환멸의 골짜기”로 떨어질 수 있는 절벽에서 비틀거리고 있다는 것을 의미합니다.
우리는 상황을 어떻게 해석해야 하는지에 대해 분석, 데이터 과학 및 AI에 초점을 맞춘 Gartner의 이사 분석가인 Afraz Jaffri와 이야기를 나눴습니다. 인터뷰는 길이와 명확성을 위해 편집되었습니다.
Q: 기초 모델의 경우 2~5년, 생성 AI의 경우 '생산성 고원'에 도달하는 데 5~10년이 걸릴 것으로 예상하고 있습니다. 그것은 무엇에 근거한 것입니까?
A: 이것은 선택된 수의 기업 사이에서뿐만 아니라 아마도 훨씬 더 빠르게 수행될 수 있는 기업뿐만 아니라 모든 수준의 조직에서 주로 패키지 애플리케이션 형태로 실제 채택을 볼 수 있는 곳입니다. 모든 소프트웨어에는 일종의 생성 AI 기능이 포함되지만, 이러한 기능으로 인한 실제 생산성 향상을 이해하는 데는 더 오랜 시간이 걸립니다. 모든 사람이 소프트웨어 내에서 생성 AI 제품이나 기능을 출시하는 경쟁입니다. 모든 경우에 이점이 실현되고 측정되는 데 더 오랜 시간이 걸립니다.
기초 모델은 광범위한 스펙트럼을 포괄합니다. 대규모 언어 모델뿐만 아니라 이미지 및 비디오 모델도 있습니다. 그렇기 때문에 정체기에 도달하는 시간이 더 길어질 것입니다. 모든 종류의 모델이 담긴 버킷입니다.
더 자세히 알아보기: 마케팅에서 AI에 관심을 갖는 이유
Q: 생성 AI에 매우 지장을 줄 수 있는 일을 상상하는 것이 가능합니다. 하나는 규제입니다. 특히 유럽에서는 개인 데이터를 긁어내는 대규모 언어 모델에 대한 실질적인 우려가 있습니다. 다른 하나는 저작권과 관련이 있습니다. 여기서 이러한 종류의 중단 가능성을 고려하셨나요?
A: 네, 그것들은 생각의 일부입니다. 첫 번째 문제는 실제로 신뢰 측면입니다. 외부 규정에 관계없이 모델의 출력을 제어하고 출력이 실제로 정확하다는 것을 보장하는 것이 매우 어렵다는 근본적인 느낌이 여전히 있습니다. 그것은 큰 장애물입니다. 말씀하신 것처럼 규제에도 구름이 있습니다. 유럽에서 모델이 상당한 규제를 받는 경우에는 사용이 불가능할 수도 있습니다. 우리는 이미 한동안 ChatGPT가 제거되는 것을 보았습니다. 대기업이 규정을 준수하는 것이 너무 어렵다고 판단하면 해당 지역에서 서비스를 철회할 수도 있습니다.
법적인 측면도 있습니다. 이러한 모델은 말씀하신 대로 웹에서 스크랩한 저작권 데이터가 포함된 데이터를 기반으로 합니다. 해당 데이터 제공자가 적절한 상환을 요청하기 시작하면 이는 해당 모델의 향후 사용 수준에도 영향을 미칩니다. 그 다음에는 보안 측면이 있습니다. 공격과 같은 것에 대해 이러한 모델을 얼마나 안전하게 만들 수 있습니까? 여기 탐색에는 확실히 역풍이 있습니다.
Q: 우리는 "인간 참여형(Human-In-The-Loop)"에 대해 많이 듣습니다. 생성 AI로 생성된 모든 것을 청중에게 공개하기 전에 사람의 검토와 승인을 받아야 합니다. 하지만 genAI의 장점 중 하나는 창의력의 속도와 규모입니다. 인간은 어떻게 따라갈 수 있습니까?
A: 속도와 규모는 인간이 해야 할 일을 하는 데 사용됩니다. 예를 들어 무언가에 대한 답변을 얻기 위해 10개의 문서를 검토해야 하는 사람들을 돕기 위해 존재합니다. 이제 그들은 1분 안에 그것을 할 수 있습니다. 신뢰 문제로 인해 이는 언어 모델을 사용하는 가장 가치 있는 작업 유형입니다.
Q: 책임 있는 AI가 정체 상태에서 5~10년 정도 지나면 험난한 여정을 예상하는 것처럼 보입니다.
A: 규제 세계와 기타 시스템은 알려져 있지 않습니다. 공식화되어 알려지더라도 지역마다 다른 규정이 있을 수 있습니다. 이러한 모델의 본질적인 특성은 안전하지 않은 경향이 있다는 것입니다. 그것을 통제할 수 있다는 것은 배우는 데 시간이 걸릴 것입니다. 모델이 안전한지 어떻게 확인하나요? 모델의 규정 준수 여부를 어떻게 감사합니까? 보안을 위해? 모범 사례는 찾기 어렵습니다. 모든 조직은 고유한 접근 방식을 취하고 있습니다. 생성적 AI를 잊어버리세요. 다른 AI 모델은 조직에서 한동안 사용해 왔지만 여전히 실수를 저지르고 편견을 보이고 있습니다.
Q: 사람들은 임박한 환멸의 골짜기에 어떻게 대비해야 합니까?
A: 조직은 생성 AI 경험에서 다양한 궤적을 따르게 되므로 반드시 조직이 최저점에 빠질 필요는 없습니다. 일반적으로 기대치가 관리되지 않을 때 발생합니다. 일부 대상 사용 사례, 일부 대상 구현 부분을 살펴보는 것부터 시작하고 성공에 대한 좋은 측정 기준을 갖고 있으며 데이터 관리 및 구성에 대한 투자도 갖고 있는 경우 좋은 거버넌스, 좋은 정책; 이 모든 것을 모델이 무엇을 할 수 있는지에 대한 실용적인 설명과 결합한다면 과대 광고를 통제할 수 있고 최저점에 빠질 가능성이 줄어듭니다.
Q: AI 과대광고 주기가 지금까지 살펴본 다른 주기보다 더 빠르게 진행되고 있다고 말씀하시나요?
A: AI 과대 광고 주기는 곡선을 더 빠르게 이동하는 혁신 쪽으로 치우치는 경향이 있으며, 수행할 수 있는 작업에도 더 큰 영향을 미치는 경향이 있습니다. 현재 이는 VC를 위한 자금 조달 계획의 최전선이자 중심입니다. 이는 연구 공간에서도 매우 중요한 영역입니다. 이러한 것 중 많은 것들이 이 분야에서 매우 활동적인 학계에서 나옵니다.
Q: 마지막으로 AGI, 즉 인공일반지능(인간의 지능을 복제한 AI)이다. 당신은 10년 이상 후에 그런 일이 일어날 것이라고 생각합니다. 전혀 불가능할 수도 있기 때문에 베팅을 헤지하고 있습니까?
답: 그렇습니다. 우리는 "정점 이전에는 쓸모가 없는" 마커를 가지고 있습니다. 실제로는 결코 일어나지 않을 것이라는 주장이 있지만 AGI가 실제로 무엇인지에 대한 해석이 너무 다양하기 때문에 10년 이상이 걸릴 것이라고 말하고 있습니다. 많은 존경받는 연구자들은 우리가 AGI로 향하는 길에 있다고 말하고 있지만, 그 길이 실제로 어떤 모습인지 확인하려면 더 많은 돌파구와 혁신이 필요합니다. 우리는 그것이 많은 사람들이 믿는 것보다 훨씬 더 먼 것이라고 생각합니다.
더 자세히 알아보기: 다음 주 온라인에서 최첨단 마테크 솔루션을 무료로 만나보세요!
마테크를 만나보세요! 일일. 무료. 받은 편지함에.
약관을 참조하세요.
관련 기사
MarTech의 새로운 소식