Mitigare i rischi dell'IA generativa mettendo un essere umano nel giro
Pubblicato: 2023-06-21"Non esiste un caso d'uso sostenibile per l'IA malvagia".
È così che il dottor Rob Walker, un esperto accreditato di intelligenza artificiale e vicepresidente di decisioni e analisi di Pega, ha riassunto una tavola rotonda sull'IA canaglia alla conferenza PegaWorld iNspire della scorsa settimana.
Aveva spiegato la differenza tra algoritmi opachi e trasparenti. A un'estremità dello spettro dell'intelligenza artificiale, gli algoritmi opachi lavorano ad alta velocità e con alti livelli di precisione. Il problema è che in realtà non possiamo spiegare come fanno quello che fanno. È sufficiente per renderli più o meno inutili per attività che richiedono responsabilità, ad esempio prendere decisioni su richieste di mutuo o prestito.
Gli algoritmi trasparenti, invece, hanno il pregio della spiegabilità. Sono solo meno affidabili. È come una scelta, ha detto, tra farsi prescrivere un corso di cure mediche da un medico che può spiegartelo o una macchina che non può spiegartelo ma è più probabile che abbia ragione. È una scelta, e non facile.
Ma alla fine, affidare tutte le decisioni ai più potenti strumenti di intelligenza artificiale, con il rischio che diventino canaglia, non è davvero sostenibile.
Durante la stessa conferenza, il CTO di Pega, Don Schuerman, ha discusso la visione di "Autopilot", una soluzione basata sull'intelligenza artificiale per aiutare a creare l'impresa autonoma. "La mia speranza è che ne avremo qualche variazione nel 2024. Penso che richiederà governance e controllo". In effetti lo farà: pochi di noi, ad esempio, vogliono salire a bordo di un aereo che ha solo il pilota automatico e nessun essere umano nel giro.
L'umano nel giro
Tenere un essere umano al corrente è stato un mantra costante alla conferenza, sottolineando l'impegno di Pega per un'IA responsabile. Già nel 2017 ha lanciato il Pega "T-Switch", che consente alle aziende di aumentare e diminuire il livello di trasparenza su una scala mobile per ciascun modello di intelligenza artificiale. “Ad esempio, è a basso rischio utilizzare un modello di deep learning opaco che classifica le immagini di marketing. Al contrario, le banche soggette a rigide normative per pratiche di prestito eque richiedono modelli di intelligenza artificiale altamente trasparenti per dimostrare un'equa distribuzione delle offerte di prestito ", ha spiegato Pega.
L'IA generativa, tuttavia, comporta un livello di rischio completamente diverso, non da ultimo per le funzioni rivolte ai clienti come il marketing. In particolare, non importa davvero se sta dicendo la verità o sta inventando cose ("allucinazioni"). Nel caso in cui non sia chiaro, questi rischi sorgono con qualsiasi implementazione dell'IA generativa e non sono specifici di alcuna soluzione Pega.
"Sta prevedendo ciò che è più probabile e plausibile e ciò che vogliamo sentire", ha spiegato Peter van der Putten, direttore del Pega AI Lab. Ma questo spiega anche il problema. “Potrebbe dire qualcosa, quindi essere estremamente bravo a fornire spiegazioni plausibili; può anche tornare indietro. In altre parole, può restituire una risposta diversa, forse migliore, se si imposta lo stesso compito due volte.
Poco prima di PegaWorld, Pega ha annunciato 20 "booster" basati sull'intelligenza artificiale generativa, tra cui chatbot di intelligenza artificiale di generazione, flussi di lavoro automatizzati e ottimizzazione dei contenuti. “Se guardi attentamente a ciò che abbiamo lanciato”, ha detto Putten, “quasi tutti hanno un essere umano nel giro. Alti rendimenti, basso rischio. Questo è il vantaggio di creare prodotti basati sull'intelligenza artificiale di generazione piuttosto che dare alle persone l'accesso alla tecnologia di intelligenza artificiale generativa generica".
Pega GenAI, quindi, fornisce strumenti per svolgere attività specifiche (con modelli di linguaggio di grandi dimensioni in esecuzione in background); non è solo una tela vuota in attesa di suggerimenti umani.
Per qualcosa come un chatbot assistito da AI gen, la necessità di un essere umano nel giro è abbastanza chiara. "Penso che ci vorrà un po' di tempo prima che molte aziende si sentano a loro agio nel mettere direttamente davanti ai propri clienti un chatbot basato su un modello linguistico di grandi dimensioni", ha affermato Schuerman. "Tutto ciò che genera l'IA generativa, voglio che un essere umano lo guardi prima di metterlo di fronte al cliente".
Quattro milioni di interazioni al giorno
Ma mettere un essere umano nel giro solleva interrogativi sulla scalabilità.
Finbar Hage, vicepresidente del digitale presso la società olandese di servizi finanziari e di panificazione Rabobank, ha dichiarato alla conferenza che il Customer Decision Hub di Pega elabora per loro 1,5 miliardi di interazioni all'anno, ovvero circa quattro milioni al giorno. Il compito dell'hub è generare raccomandazioni per la migliore azione successiva, creando un percorso del cliente in tempo reale e al volo. La prossima azione migliore potrebbe essere, ad esempio, inviare un'e-mail personalizzata e la gen AI offre la possibilità di creare tali e-mail quasi istantaneamente.
Ciascuna di queste e-mail, si suggerisce, deve essere approvata da un essere umano prima di essere inviata. Quante email sono? Quanto tempo dovranno dedicare i professionisti del marketing all'approvazione dei contenuti generati dall'intelligenza artificiale?
Forse più gestibile è l'uso di Pega GenAI per creare documenti aziendali complessi in un'ampia gamma di lingue. Nel suo discorso di apertura, il chief product officer Kerim Akgonul ha dimostrato l'uso dell'intelligenza artificiale per creare un flusso di lavoro complesso, in turco, per una richiesta di prestito. Il modello ha tenuto conto delle regole aziendali globali e della regolamentazione locale.
Guardando il risultato, Akgonul, che è lui stesso turco, potrebbe vedere alcuni errori. Ecco perché l'umano è necessario; ma non c'è dubbio che la generazione dell'IA più l'approvazione umana sembravano molto più veloci di quanto la generazione umana seguita dall'approvazione umana potesse mai essere.
Questo è quello che ho sentito da ogni dirigente di Pega a cui ho chiesto informazioni. Sì, l'approvazione richiederà tempo e le aziende dovranno mettere in atto la governance - "migliori pratiche prescrittive", nella frase di Schuerman - per garantire che venga applicato il giusto livello di governance, a seconda dei livelli di rischio.
Per il marketing, nel suo ruolo essenzialmente rivolto al cliente, è probabile che tale livello di governance sia elevato. La speranza e la promessa, tuttavia, è che l'automazione basata sull'intelligenza artificiale farà ancora le cose meglio e più velocemente.
Ottieni MarTech! Quotidiano. Gratuito. Nella tua casella di posta.
Vedi termini.
Storie correlate
Novità su MarTech