Basculer le menu

Atténuer les risques de l'IA générative en mettant un humain dans la boucle

Publié: 2023-06-21

"Il n'y a pas de cas d'utilisation durable pour l'IA maléfique."

C'est ainsi que le Dr Rob Walker, expert accrédité en intelligence artificielle et vice-président de la prise de décision et de l'analyse chez Pega, a résumé une table ronde sur l'IA malveillante lors de la conférence PegaWorld iNspire la semaine dernière.

Il avait expliqué la différence entre les algorithmes opaques et transparents. À une extrémité du spectre de l'IA, les algorithmes opaques fonctionnent à grande vitesse et avec des niveaux de précision élevés. Le problème est que nous ne pouvons pas expliquer comment ils font ce qu'ils font. C'est suffisant pour les rendre plus ou moins inutiles pour les tâches qui nécessitent une responsabilisation - prendre des décisions sur les demandes d'hypothèque ou de prêt, par exemple.

Les algorithmes transparents, en revanche, ont la vertu d'explicabilité. Ils sont juste moins fiables. C'est comme un choix, a-t-il dit, entre avoir un traitement médical prescrit par un médecin qui peut vous l'expliquer, ou une machine qui ne peut pas l'expliquer mais qui a plus de chances d'avoir raison. C'est un choix — et pas facile.

Mais en fin de compte, confier toutes les décisions aux outils d'IA les plus puissants, avec le risque qu'ils deviennent voyous, n'est en effet pas durable.

Lors de la même conférence, le CTO de Pega, Don Schuerman, a présenté une vision pour "Autopilot", une solution basée sur l'IA pour aider à créer l'entreprise autonome. "J'espère que nous en aurons une certaine variation en 2024. Je pense que cela va demander de la gouvernance et du contrôle." En effet, ce sera le cas : peu d'entre nous, par exemple, veulent monter à bord d'un avion qui n'a qu'un pilote automatique et aucun humain dans la boucle.

L'humain dans la boucle

Tenir un humain au courant était un mantra constant lors de la conférence, soulignant l'engagement de Pega envers une IA responsable. Dès 2017, il a lancé le « T-Switch » de Pega, permettant aux entreprises de composer le niveau de transparence de haut en bas sur une échelle mobile pour chaque modèle d'IA. « Par exemple, il est peu risqué d'utiliser un modèle d'apprentissage en profondeur opaque qui classe les images marketing. À l'inverse, les banques soumises à des réglementations strictes en matière de pratiques de prêt équitables exigent des modèles d'IA hautement transparents pour démontrer une répartition équitable des offres de prêt », a expliqué Pega.

L'IA générative, cependant, apporte un tout autre niveau de risque, notamment pour les fonctions en contact avec les clients comme le marketing. En particulier, il se fiche vraiment de dire la vérité ou d'inventer (« halluciner »). Au cas où ce ne serait pas clair, ces risques surviennent avec toute mise en œuvre de l'IA générative et ne sont spécifiques à aucune solution Pega.

"Il prédit ce qui est le plus probable et plausible et ce que nous voulons entendre", a expliqué Peter van der Putten, directeur du Pega AI Lab. Mais cela explique aussi le problème. « Cela pourrait dire quelque chose, puis être extrêmement doué pour fournir des explications plausibles ; cela peut aussi revenir en arrière. En d'autres termes, il peut revenir avec une réponse différente - peut-être meilleure - s'il définit la même tâche deux fois.

Juste avant PegaWorld, Pega a annoncé 20 «boosters» alimentés par l'IA générative, y compris des chatbots IA de génération, des flux de travail automatisés et l'optimisation du contenu. "Si vous regardez attentivement ce que nous avons lancé", a déclaré Putten, "presque tous ont un humain dans la boucle. Rendement élevé, faible risque. C'est l'avantage de créer des produits axés sur l'IA gen plutôt que de donner aux gens l'accès à la technologie générique d'IA générative.

Pega GenAI fournit alors des outils pour réaliser des tâches spécifiques (avec de grands modèles de langage s'exécutant en arrière-plan) ; ce n'est pas simplement une toile vide attendant des invites humaines.

Pour quelque chose comme un chatbot assisté par l'IA de génération, le besoin d'un humain dans la boucle est assez clair. "Je pense qu'il faudra un certain temps avant que de nombreuses entreprises se sentent à l'aise de mettre un chatbot de grand modèle de langage directement devant leurs clients", a déclaré Schuerman. "Tout ce que l'IA générative génère - je veux qu'un humain l'examine avant de le mettre devant le client."

Quatre millions d'interactions par jour

Mais mettre un humain dans la boucle soulève des questions sur l'évolutivité.

Finbar Hage, vice-président du numérique de la société néerlandaise de boulangerie et de services financiers Rabobank, a déclaré lors de la conférence que le Customer Decision Hub de Pega traite pour eux 1,5 milliard d'interactions par an, soit environ quatre millions par jour. Le travail du hub consiste à générer des recommandations sur la meilleure action suivante, en créant un parcours client en temps réel et à la volée. La prochaine meilleure action pourrait être, par exemple, d'envoyer un e-mail personnalisé - et gen AI offre la possibilité de créer de tels e-mails presque instantanément.

Chacun de ces e-mails, il est suggéré, doit être approuvé par un humain avant d'être envoyé. Combien d'e-mails cela représente-t-il ? Combien de temps les spécialistes du marketing devront-ils allouer à l'approbation du contenu généré par l'IA ?

Péga 2023 2 450x600
Le PDG de Pega joue 15 parties d'échecs simultanées à PegaWorld 2023.

Peut-être plus gérable est l'utilisation de Pega GenAI pour créer des documents commerciaux complexes dans un large éventail de langues. Dans son discours, le chef de produit Kerim Akgonul a démontré l'utilisation de l'IA pour créer un flux de travail complexe, en turc, pour une demande de prêt. Le modèle a pris en compte les règles commerciales mondiales ainsi que la réglementation locale.

En regardant le résultat, Akgonul, qui est lui-même turc, a pu voir quelques erreurs. C'est pourquoi l'humain est nécessaire; mais il ne fait aucun doute que la génération de l'IA plus l'approbation humaine semblait beaucoup plus rapide que la génération humaine suivie de l'approbation humaine ne pourrait jamais l'être.

C'est ce que j'ai entendu de chaque dirigeant de Pega que j'ai interrogé à ce sujet. Oui, l'approbation prendra du temps et les entreprises devront mettre en place une gouvernance — des « meilleures pratiques prescriptives », selon l'expression de Schuerman — pour s'assurer que le bon niveau de gouvernance est appliqué, en fonction des niveaux de risque.

Pour le marketing, dans son rôle essentiellement orienté client, ce niveau de gouvernance est susceptible d'être élevé. L'espoir et la promesse, cependant, sont que l'automatisation basée sur l'IA permettra toujours de faire mieux et plus rapidement les choses.


Obtenez MarTech ! Quotidien. Gratuit. Dans votre boîte de réception.

Voir conditions.



Histoires liées

    Pega : l'IA alimentera l'entreprise autonome
    Nouvelles versions de ChatGPT et d'autres versions AI martech cette semaine
    IA et marketing : ce que montrent les statistiques
    4 catégories d'IA impactant le marketing : l'analyse prédictive
    Comment l'IA générative améliore l'expérience client et les appels de service

Nouveau sur MarTech

    Bonnes pratiques de gestion du travail marketing : tableaux de bord, modèles et demandes
    CDP composables : en quoi diffèrent-ils des solutions packagées ?
    Les éléments de réussite d'une croissance axée sur le marketing
    Looker Studio publie la mise à jour du connecteur GA4 avec 170 nouveaux champs
    Les derniers emplois en martech