Atenuarea riscurilor IA generativă punând un om în buclă
Publicat: 2023-06-21„Nu există un caz de utilizare durabil pentru AI malefic.”
Așa a fost modul în care dr. Rob Walker, expert acreditat în inteligență artificială și vicepreședintele Pega pentru decizii și analize, a rezumat o discuție la masă rotundă despre IA necinstită la conferința PegaWorld iNspire de săptămâna trecută.
El explicase diferența dintre algoritmii opaci și transparenți. La un capăt al spectrului AI, algoritmii opaci funcționează la viteză mare și la niveluri ridicate de precizie. Problema este că de fapt nu putem explica cum fac ei ceea ce fac. Este suficient pentru a le face mai mult sau mai puțin inutile pentru sarcini care necesită responsabilitate - luarea deciziilor cu privire la cererile de credit ipotecar sau de împrumut, de exemplu.
Algoritmii transparenți, pe de altă parte, au virtutea explicabilității. Doar că sunt mai puțin de încredere. Este ca o alegere, a spus el, între a avea un curs de tratament medical prescris de un medic care vă poate explica, sau o mașină care nu poate explica, dar este mai probabil să aibă dreptate. Este o alegere - și nu una ușoară.
Dar, la sfârșitul zilei, predarea tuturor deciziilor celor mai puternice instrumente AI, cu riscul ca acestea să devină necinstite, nu este, într-adevăr, sustenabilă.
La aceeași conferință, Don Schuerman, CTO Pega, a discutat despre o viziune pentru „Autopilot”, o soluție bazată pe inteligență artificială pentru a ajuta la crearea întreprinderii autonome. „Speranța mea este că vom avea o oarecare variație în 2024. Cred că va avea nevoie de guvernare și control.” Într-adevăr, va: puțini dintre noi, de exemplu, doresc să se îmbarce într-un avion care are doar pilot automat și niciun om în buclă.
Omul în buclă
Menținerea unui om la curent a fost o mantră constantă la conferință, subliniind angajamentul lui Pega față de AI responsabilă. Încă din 2017, a lansat Pega „T-Switch”, permițând companiilor să formeze nivelul de transparență în sus și în jos pe o scară variabilă pentru fiecare model AI. „De exemplu, este un risc scăzut să folosești un model opac de învățare profundă care clasifică imaginile de marketing. În schimb, băncile sub reglementări stricte pentru practicile echitabile de creditare necesită modele de IA extrem de transparente pentru a demonstra o distribuție corectă a ofertelor de împrumut”, a explicat Pega.
Cu toate acestea, inteligența artificială generativă aduce cu totul alt nivel de risc - nu în ultimul rând pentru funcțiile care se adresează clienților, cum ar fi marketingul. În special, chiar nu îi pasă dacă spune adevărul sau inventează lucruri ("halucinant"). În cazul în care nu este clar, aceste riscuri apar cu orice implementare a AI generativă și nu sunt specifice nici unei soluții Pega.
„Este prezice ceea ce este cel mai probabil și mai plauzibil și ceea ce vrem să auzim”, a explicat Peter van der Putten, directorul Pega AI Lab. Dar asta explică și problema. „Ar putea spune ceva, apoi să fie extrem de bun în a oferi explicații plauzibile; se poate întoarce și înapoi.” Cu alte cuvinte, poate reveni cu un răspuns diferit – poate mai bun – dacă setați aceeași sarcină de două ori.
Chiar înainte de PegaWorld, Pega a anunțat 20 de „amplificatoare” generative bazate pe inteligență artificială, inclusiv chatbot-uri de generație AI, fluxuri de lucru automate și optimizare a conținutului. „Dacă te uiți cu atenție la ceea ce am lansat”, a spus Putten, „aproape toți au un om în buclă. Randamente ridicate, risc scăzut. Acesta este avantajul construirii de produse bazate pe gen AI, mai degrabă decât să le oferim oamenilor acces la tehnologia generică generativă AI.”
Pega GenAI, deci, oferă instrumente pentru a realiza sarcini specifice (cu modele mari de limbaj rulând în fundal); nu este doar o pânză goală care așteaptă îndemnuri umane.
Pentru ceva de genul unui chatbot asistat de gen AI, nevoia unui om în buclă este suficient de clară. „Cred că va trece ceva timp până când multe companii se simt confortabil să pună un chatbot mare model lingvistic direct în fața clienților lor”, a spus Schuerman. „Orice ceea ce generează AI generativ – vreau ca un om să se uite la asta înainte de a-l pune în fața clientului.”
Patru milioane de interacțiuni pe zi
Dar a pune un om în buclă ridică întrebări despre scalabilitate.
Finbar Hage, vicepreședintele departamentului digital la compania olandeză de panificație și servicii financiare Rabobank, a declarat în cadrul conferinței că Customer Decision Hub al Pega procesează 1,5 miliarde de interacțiuni pe an pentru ei, sau aproximativ patru milioane pe zi. Sarcina hub-ului este de a genera următoarele recomandări cu cea mai bună acțiune, creând o călătorie a clienților în timp real și din mers. Următoarea cea mai bună acțiune ar putea fi, de exemplu, trimiterea unui e-mail personalizat - iar gen AI oferă posibilitatea de a crea astfel de e-mailuri aproape instantaneu.
Se sugerează că fiecare dintre aceste e-mailuri trebuie să fie aprobat de un om înainte de a fi trimis. Câte e-mailuri sunt? Cât timp vor trebui să aloce specialiștii în marketing pentru aprobarea conținutului generat de AI?
Poate mai ușor de gestionat este utilizarea Pega GenAI pentru a crea documente de afaceri complexe într-o gamă largă de limbi. În discursul său, directorul de produs Kerim Akgonul a demonstrat utilizarea AI pentru a crea un flux de lucru complicat, în turcă, pentru o cerere de împrumut. Șablonul a luat în considerare regulile de afaceri globale, precum și reglementările locale.
Privind rezultatul, Akgonul, care este el însuși turc, a putut vedea câteva erori. De aceea este nevoie de uman; dar nu există nicio îndoială că generarea AI plus aprobarea umană părea mult mai rapidă decât ar putea fi vreodată generația umană urmată de aprobarea umană.
Asta am auzit de la fiecare director Pega pe care l-am chestionat despre asta. Da, aprobarea va dura timp, iar companiile vor trebui să pună în aplicare guvernanță – „cele mai bune practici prescriptive”, în expresia lui Schuerman – pentru a se asigura că este aplicat nivelul corect de guvernanță, în funcție de nivelurile de risc.
Pentru marketing, în rolul său în esență orientat către clienți, acest nivel de guvernanță este probabil să fie ridicat. Speranța și promisiunea, totuși, este că automatizarea bazată pe inteligență artificială va face în continuare lucrurile mai bine și mai rapid.
Obțineți MarTech! Zilnic. Gratuit. În căsuța dvs. de e-mail.
Vezi termenii.
Povești înrudite
Nou pe MarTech