Dévoiler l'avenir de l'IA

Publié: 2023-06-30

Podcast marketing avec Kenneth Wenger

Kenneth Wenger, invité du podcast Duct Tape Marketing Dans cet épisode du Duct Tape Marketing Podcast, j'interviewe Kenneth Wenger. Il est auteur, chercheur à l'Université métropolitaine de Toronto et directeur technique de Squint AI Inc. Ses intérêts de recherche se situent à l'intersection des humains et des machines, garantissant que nous construisons un avenir basé sur l'utilisation responsable de la technologie.

Son dernier livre, I 's the Algorithm Plotting Against Us?: A Layperson's Guide to the Concepts, Math, and Pitfalls of A I. Kenneth explique la complexité de l'IA, en démontrant son potentiel et en exposant ses lacunes. Il permet aux lecteurs de répondre à la question : Qu'est-ce exactement que l'IA ?

Clé à emporter :

Bien que des progrès significatifs aient été réalisés dans le domaine de l'IA, nous en sommes encore aux premiers stades de son développement. Cependant, les modèles d'IA actuels effectuent principalement des tâches statistiques simples plutôt que de faire preuve d'une intelligence profonde. L'avenir de l'IA réside dans le développement de modèles capables de comprendre le contexte et de différencier les bonnes et les mauvaises réponses.

Kenneth met également l'accent sur les pièges de l'utilisation de l'IA, en particulier le manque de compréhension derrière le processus de prise de décision du modèle et le potentiel de résultats biaisés. La fiabilité et la responsabilité de ces machines sont cruciales pour se développer, en particulier dans les domaines critiques pour la sécurité où des vies humaines pourraient être en jeu, comme la médecine ou les lois. Dans l'ensemble, bien que l'IA ait fait des progrès considérables, il reste encore un long chemin à parcourir pour libérer son véritable potentiel et relever les défis associés.

Questions que je pose à Kenneth Wenger :

  • [02:32] Le titre de votre livre est l'algorithme complotant contre cette question un peu provocante. Alors pourquoi poser cette question ?
  • [03:45] Selon vous, où en sommes-nous vraiment dans le continuum de l'évolution de l'IA ?
  • [07:58] Voyez-vous un jour où les machines IA commenceront à poser des questions aux gens ?
  • [07:20] Pouvez-vous nommer un cas particulier dans votre carrière où vous vous êtes dit « ça va marcher, c'est comme ce que je devrais faire » ?
  • [09:25] Vous avez à la fois profane et maths dans le titre du livre, pourriez-vous nous donner une sorte de version profane de la façon dont il fait cela ?
  • [15:30] Quels sont les pièges réels et évidents du recours à l'IA ?
  • [19:49] Alors que les gens commencent à se fier à ces machines pour prendre des décisions qui sont censées être informées de nombreuses fois, les prédictions pourraient être fausses, n'est-ce pas ?

En savoir plus sur Kenneth Wenger :

  • Obtenez votre copie de L'algorithme complote-t-il contre nous ? : Un guide du profane sur les concepts, les mathématiques et les pièges de l' IA.
  • Connectez-vous avec Kenneth.

En savoir plus sur la formation intensive de certification de l'agence :

  • En savoir plus sur la formation intensive de certification des agences ici

Passez l'évaluation marketing :

  • Marketingassessment.co

Comme ce spectacle? Cliquez dessus et donnez-nous votre avis sur iTunes, s'il vous plaît !

E-mail Télécharger Nouvel onglet

John Jantsch (00:00) : Hé, saviez-vous que la conférence entrante annuelle de HubSpot approche ?C'est exact. Ce sera à Boston du 5 au 8 septembre. Chaque année, inbound rassemble des leaders dans les domaines des affaires, des ventes, du marketing, de la réussite des clients, des opérations, etc. Vous pourrez découvrir toutes les dernières tendances et tactiques incontournables que vous pouvez réellement mettre en place pour faire évoluer votre entreprise de manière durable. Vous pouvez apprendre des experts de l'industrie et être inspiré par des talents incroyables. Cette année, Reese Witherspoon, Derek Jeter, Guy Raz vont tous faire des apparitions. Visitez inbound.com et obtenez votre billet aujourd'hui. Vous ne serez pas désolé. Cette programmation est garantie d'inspirer et de se ressourcer. C'est exact. Rendez-vous sur inbound.com pour obtenir votre billet aujourd'hui.

(01:03): Bonjour et bienvenue dans un autre épisode du Duct Tape Marketing Podcast.C'est John Jantsch. Mon invité aujourd'hui est Kenneth Wenger. Il est auteur, chercheur à l'Université métropolitaine de Toronto et directeur technique de Squint AI Inc. Ses intérêts de recherche portent sur l'intersection des humains et des machines, garantissant que nous construisons un avenir basé sur l'utilisation responsable de la technologie. Nous allons parler de son livre aujourd'hui Is the Algorithm Plotting Against Us?: A Layperson's Guide to the Concepts, Math, and Pitfalls of AI. Alors, Ken, bienvenue dans l'émission.

Kenneth Wenger (01:40) : Bonjour, John.Merci beaucoup. Merci de me recevoir.

John Jantsch (01:42): Donc, nous allons donc parler du livre, mais je, je suis juste curieux, qu'est-ce que fait Squint AI?

Kenneth Wenger (01:47): C'est une excellente question.Donc, squint ai, euh, est une entreprise que nous avons créée pour, euh, faire des recherches et développer une plate-forme qui nous permet de, euh,

(02:00) : Faites, faites de l'IA d'une manière plus responsable, euh.D'accord. D'accord. Donc, euh, je suis sûr que nous allons aborder cela, mais j'en parle, euh, dans le livre dans de nombreux cas également, où nous parlons, euh, IA, utilisation éthique de l'IA, certains des chutes de ai. Et donc ce que nous faisons avec Squint, c'est que nous essayons de comprendre, vous savez, comment essayons-nous de créer un, un environnement qui nous permet d'utiliser l'IA d'une manière qui nous permet de comprendre quand ces algorithmes ne fonctionnent pas à leur meilleur, quand ils font des erreurs et ainsi de suite. Ouais,

John Jantsch (02:30): Ouais.Donc, le titre de votre livre est L'algorithme complotant contre, c'est une question un peu provocante. Je veux dire, évidemment, je suis sûr qu'il y a des gens qui disent non , et certains disent, eh bien, absolument. Alors, pourquoi poser la question alors ?

Kenneth Wenger (02:49): Eh bien, parce que je, j'ai en fait l'impression que c'est une question qui est posée par de nombreuses personnes différentes avec en fait une signification différente.Droite? Donc, c'est presque la même chose que la question de savoir si l'IA représente une menace existentielle ? Je, je, c'est une question qui signifie différentes choses pour différentes personnes. Droite. Je voulais donc aborder cela dans le livre et essayer de faire deux choses. Tout d'abord, offrez aux gens les outils nécessaires pour comprendre cette question par eux-mêmes, n'est-ce pas. Et d'abord déterminer comment, où ils se situent dans ce débat, et ensuite, euh, vous savez, donner également mon opinion en cours de route.

John Jantsch (03:21): Ouais, ouais.Et je n'ai probablement pas posé cette question aussi élégamment que je le voudrais. En fait, je pense que c'est formidable que vous posiez la question, car en fin de compte, ce que nous essayons de faire, c'est de laisser les gens prendre leurs propres décisions plutôt que de dire, c'est vrai pour l'IA, ou ce n'est pas vrai pour l'IA. . Droite.

Kenneth Wenger (03:36): C'est vrai.C'est exact. Et, et, et encore, surtout parce que c'est un problème nuancé. Ouais. Et cela signifie différentes choses pour différentes personnes.

John Jantsch (03:44) : C'est donc une question très difficile, mais je vais vous demander, vous savez, où en sommes-nous vraiment dans le continuum de l'IA ?Je veux dire, les gens qui ont été sur ce sujet pendant de nombreuses années se rendent compte qu'il a été intégré à de nombreuses choses que nous utilisons tous les jours et tenons pour acquis, évidemment nous ChatGPT avons amené un tout autre éventail de personnes qui maintenant, vous savez, au moins ont un vocabulaire parlant de ce que c'est. Mais je me souviens, vous savez, j'ai été, j'ai été, j'ai eu ma propre entreprise pendant 30 ans. Je veux dire, nous n'avions pas le web , nous n'avions pas de sites Web, vous savez, nous n'avions pas d'appareils mobiles qui jouent certainement un rôle maintenant, mais je me souviens qu'au fur et à mesure que chacun de ceux-ci arrivait, les gens se disaient, oh, nous sommes condamnés. C'est fini . Droite. Donc, actuellement, il y a beaucoup de ce type de langage autour de l'IA, mais où pensez-vous que nous en sommes vraiment dans le continuum de l'évolution ?

Kenneth Wenger (04:32): Vous savez, c'est une excellente question parce que je pense que nous sommes en fait très tôt.Ouais. Je pense que, vous savez, nous, nous avons fait des progrès remarquables en très peu de temps, mais je pense que c'est quand même, nous n'en sommes qu'au tout début. Vous savez, si vous pensez à l'endroit où nous en sommes actuellement, nous étions il y a dix ans, nous avons fait des progrès. Mais je pense que, fondamentalement, au niveau scientifique, nous n'avons fait qu'effleurer la surface. Je vais vous donner quelques exemples. Donc au départ, vous savez, les premiers modèles, ils étaient géniaux pour vraiment nous donner la preuve que cette nouvelle façon de poser des questions, vous savez, les réseaux de neurones essentiellement. Yeah Yeah. Droite. Ce sont des équations très complexes. Euh, si vous utilisez des GPU pour exécuter ces équations complexes, nous pouvons en fait résoudre des problèmes assez complexes. C'est quelque chose que nous avons réalisé vers 2012 puis après vers 2017, donc entre 2012 et 2017, les progrès ont été très linéaires.

(05:28) : Vous savez, de nouveaux modèles ont été créés, de nouvelles idées ont été proposées, mais les choses se sont mises à l'échelle et ont progressé de manière très linéaire.Mais après 2017, avec l'introduction du modèle appelé Transformer, qui est l'architecture de base derrière chat, g, pt et tous ces grands modèles de langage, nous avons eu un autre type de réalisation. C'est à ce moment-là que nous avons réalisé que si vous prenez ces modèles et que vous les mettez à l'échelle et que vous les mettez à l'échelle, en termes de taille du modèle et de taille de l'ensemble de données que nous avons utilisé pour les former, ils s'améliorent de façon exponentielle. D'accord. Et c'est là que nous sommes arrivés au point où nous en sommes aujourd'hui, où nous avons réalisé qu'en les mettant à l'échelle, encore une fois, nous n'avons rien fait de fondamentalement différent depuis 2017. Tout ce que nous avons fait, c'est augmenter la taille du modèle, augmenter la taille de l'ensemble de données, et ils s'améliorent de façon exponentielle.

John Jantsch (06:14) : Alors, donc multiplication plutôt qu'addition ?

Kenneth Wenger (06:18): Eh bien, oui, exactement.Ouais. Donc, ce n'est pas le cas, les progrès ont été exponentiels, pas seulement en trajectoire linéaire. Ouais. Mais je pense, mais encore une fois, le fait que nous n'ayons pas beaucoup changé fondamentalement dans ces modèles, cela va s'estomper très bientôt. C'est mon attente. Et maintenant, où en sommes-nous sur la chronologie ? Quelle était votre question initiale. Je pense que si vous pensez à ce que font les modèles aujourd'hui, ils font très élément. Ils font des statistiques très simples, essentiellement. Mm-hmm. , ce n'est pas l'idée que ces modèles soient appelés intelligence artificielle. Droite. Je pense que c'est parfois un peu impropre. Je suis d'accord. Et cela mène à certaines des questions que les gens se posent. Euh, parce que là, il n'y a pas grand-chose comme l'intelligence profonde, c'est juste de la modélisation statistique et très simple en plus. Et puis où nous allons à partir d'ici et ce que j'espère que l'avenir est, c'est là que nous commençons, je pense que la chose, les choses vont changer radicalement lorsque nous commencerons à avoir des modèles capables non seulement de, pas seulement de faire de simples statistiques, mais sont capables de comprendre le contexte de ce qu'ils essaient de réaliser. Ouais. Et sont capables de comprendre, vous savez, la bonne réponse ainsi que la mauvaise réponse. Ainsi, par exemple, ils, ils, ils, ils sont capables de savoir quand ils parlent de choses qu'ils connaissent et quand ils contournent cette zone grise de choses qu'ils ne connaissent pas vraiment. Cela a-t-il du sens? Ouais,

John Jantsch (07:39) : Absolument.Je veux dire, je suis totalement d'accord avec vous sur l'intelligence artificielle. En fait, je l'ai appelé ia. Je pense que c'est plus de l'automatisation informée. C'est un peu comme ça que je le vois, du moins dans mon travail. Voyez-vous un jour où, vous savez, les invites posant des questions sont, vous savez, c'est un peu l'utilisation de rue, si vous voulez, de l'IA pour beaucoup de gens. Voyez-vous un jour où il commence à vous poser des questions en retour ? Comme, pourquoi voudriez-vous savoir ça? Ou qu'essayez-vous de réaliser, euh, en posant cette question ?

Kenneth Wenger (08:06): Ouais.Donc la, la, la réponse simple est oui. Moi, c'est certain. Et je pense que cela fait partie de ce à quoi ressemblerait l'atteinte d'un niveau d'intelligence supérieur. C'est quand ils ne font pas que faire vos enchères, ce n'est pas juste un outil. Yeah Yeah. Euh, mais ils, ils ont en quelque sorte leur propre objectif qu'ils essaient d'atteindre. Et c'est à ce moment-là que vous verriez des choses comme des questions essentiellement, euh, émaner du système, n'est-ce pas ? C'est quand ils, ils ont un, un, un objectif qu'ils veulent atteindre, c'est-à-dire, vous savez, et, puis ils élaborent un plan pour atteindre cet objectif. C'est alors que vous pouvez voir émerger des choses comme des questions qui vous sont posées. Je ne pense pas que nous en soyons encore là, mais oui, je pense que c'est certainement possible.

John Jantsch (08:40): Mais c'est aussi la version science-fiction, n'est-ce pas ?Je veux dire, là où les gens commencent à dire, vous savez, les films, c'est comme, non, non, Ken, vous ne connaissez pas encore cette information. Je déciderai quand tu pourras le savoir .

Kenneth Wenger (08:52): Eh bien, vous avez raison.Je veux dire, la question, la façon dont vous avez posé la question était plutôt, est-ce, est-ce possible en principe ? Je pense absolument. Oui. Ouais. Voulons-nous cela? Je veux dire, je, je ne sais pas. Je suppose que cela fait partie de, oui, cela dépend du cas d'utilisation auquel nous pensons. Euh, mais du point de vue d'un premier principe Ouais, ça l'est, c'est certainement possible. Ouais. Ne pas obtenir un modèle pour

John Jantsch (09:13): Faites-le.Donc je, je pense qu'il y a des dizaines et des dizaines de personnes, ils ne comprennent l'IA que si je vais à cet endroit où il y a une boîte et je tape une question et il crache une réponse. Puisque vous avez à la fois un profane et des mathématiques dans le titre, pourriez-vous nous donner une sorte de version profane de la façon dont cela fonctionne ?

Kenneth Wenger (09:33): Oui, absolument.Alors, eh bien, au moins j'essaierai, laissez-moi le dire de cette façon, , quand, il y a quelques instants, lorsque j'ai mentionné que ces modèles, essentiellement ce qu'ils sont, ce sont des modèles statistiques très simples. Cela même, cette phrase elle-même, c'est un peu, c'est controversé parce qu'en fin de compte, nous ne savons pas quel type d'intelligence nous avons, n'est-ce pas ? Donc, si vous pensez à notre intelligence, nous ne savons pas si à un certain niveau nous sommes aussi un modèle statistique, n'est-ce pas ? Cependant, ce que je veux dire par l'IA aujourd'hui dans les grands modèles de langage comme ChatGPT étant de simples modèles statistiques, ce que je veux dire par là, c'est qu'ils effectuent une tâche très simple. Donc, si vous pensez à ChatGPT, ce qu'ils font, c'est qu'ils essaient essentiellement de prédire le meilleur mot suivant dans une séquence. C'est tout ce qu'ils font. Et le mot, la façon dont ils font cela, c'est qu'ils calculent ce qu'on appelle la distribution de probabilité.

(10:31): Donc, fondamentalement, pour tout mot dans a, dans a, dans une invite ou dans un corpus de texte, ils calculent la probabilité que le mot appartienne à cette séquence.Droite? Et puis ils choisissent le, le mot suivant avec la plus grande probabilité d'être correct là-bas. D'accord? Maintenant, c'est un modèle très simple dans le sens suivant. Si vous pensez à la façon dont nous communiquons, n'est-ce pas ? Vous savez, nous avons une conversation en ce moment. Je pense que lorsque vous me posez une question, je, je fais une pause et je réfléchis à ce que je vais dire, n'est-ce pas ? J'ai donc un modèle du monde, et j'ai un but dans cette conversation. Je trouve l'idée de ce à quoi je veux répondre, puis j'utilise ma capacité à produire des mots et à les prononcer pour communiquer cela avec vous. Droite? Il est possible que j'aie un système dans mon cerveau qui fonctionne de manière très similaire à un grand modèle de langage, dans le sens où dès que je commence à dire des mots, le prochain mot que je suis sur le point de dire est celui qui est le plus susceptible être correct, étant donné les mots que je viens de dire.

(11:32) : C'est très possible.C'est vrai. Cependant, ce qui est différent, c'est qu'au moins j'ai déjà un plan de ce que je m'apprête à dire dans un espace latent. J'ai déjà encodé sous une forme. Ce que je veux faire passer, comment je le dis, c'est que la capacité d'un pro à produire ces mots pourrait être très similaire à un modèle de langage. Mais la différence est qu'un grand modèle de langage essaie de comprendre ce qu'il va dire et de trouver ces mots en même temps. Mm-hmm. , droite? Cela a-t-il du sens? Donc c'est un peu comme s'ils divaguaient, et parfois s'ils parlent trop longtemps, ils divaguaient dans un territoire absurde. Ouais. Ouais. Parce qu'ils ne savent pas ce qu'ils vont dire jusqu'à ce qu'ils le disent. . Ouais. C'est donc une différence très fondamentale. Ouais.

John Jantsch (12:20): J'ai, j'ai, j'ai certainement vu des sorties assez intéressantes dans ce sens.Mais, vous savez, comme je vous ai entendu parler de cela, je veux dire, à bien des égards, c'est ce que nous faisons, c'est que nous interrogeons une base de données de ce que nous avons appris, sont les, les mots que nous connaissent en plus des concepts que nous avons étudiés, euh, et sommes capables d'articuler. Je veux dire, d'une certaine manière, nous me posons la question, nous vous incitons ou je vous pose également une question, je veux dire, cela fonctionne de la même manière. Dirais-tu

Kenneth Wenger (12:47): L'aspect de poser une question et d'y répondre, c'est similaire, mais ce qui est différent, c'est le concept que vous essayez de décrire.Donc, encore une fois, quand vous me posez une question, j'y réfléchis et je trouve, donc, encore une fois, j'ai un modèle mondial qui fonctionne jusqu'à présent pour moi pour me permettre de traverser la vie, n'est-ce pas ? Et ce modèle mondial me permet de comprendre différents concepts de différentes manières. Et quand je suis sur le point de répondre à votre question, j'y réfléchis, je formule une réponse, puis je trouve un moyen de communiquer cela avec vous. D'accord? Cette étape est absente de ce que font ces modèles de langage, n'est-ce pas ? Ils reçoivent une invite, mais il n'y a pas d'étape dans laquelle ils formulent une réponse avec un objectif, n'est-ce pas ? Droite? Oui. Un certain but. Ils reçoivent essentiellement un texte, et ils essaient de générer une séquence de mots qui sont compris au fur et à mesure qu'ils sont produits, n'est-ce pas ? Il n'y a pas de plan ultime. Donc ça, c'est une différence très fondamentale.

John Jantsch (13:54) : Et maintenant, écoutons un mot de notre sponsor, marketing Made Simple.Il s'agit d'un podcast hébergé par le Dr J j Peterson et vous est présenté par le réseau de podcasts HubSpot, la destination audio pour les professionnels du marketing simplifié, vous apporte des conseils pratiques pour faciliter votre marketing et, plus important encore, le faire fonctionner. Et dans un épisode récent, JJ et April discutent avec des guides certifiés StoryBrand et des propriétaires d'agences sur la façon d'utiliser ChatGPT à des fins de marketing. Nous savons tous à quel point cela est important aujourd'hui. Écoutez le marketing en toute simplicité. Partout où vous obtenez vos podcasts.

(14:30) : Hé, propriétaires d'agences de marketing, vous savez, je peux vous apprendre les clés pour doubler votre activité en seulement 90 jours, ou vous serez remboursé.A l'air intéressant. Tout ce que vous avez à faire est d'autoriser notre processus en trois étapes qui vous permettra de rendre vos concurrents non pertinents, de facturer une prime pour vos services et d'évoluer peut-être sans ajouter de frais généraux. Et voici la meilleure partie. Vous pouvez autoriser l'ensemble de ce système pour votre agence en participant simplement à un examen intensif de certification d'agence à venir, pourquoi créer la roue ? Utilisez un ensemble d'outils qui nous a pris plus de 20 ans à créer. Et vous pouvez les avoir aujourd'hui, consultez-les sur dtm.world/certification. C'est la certification DTM world slash.

(15:18) : Je veux en venir à aimer ce que l'avenir nous réserve, mais je veux m'attarder sur quelques éléments dans lesquels vous plongez dans le livre.Quels sont, vous savez, à part la sorte de peur que les médias répandent , quels sont les vrais, vous savez, et les pièges évidents de s'appuyer sur l'IA ?

Kenneth Wenger (15:38): Je pense que le plus gros problème, et l'un des, je veux dire le, le, le véritable facteur de motivation pour moi quand j'ai commencé à écrire le livre, c'est que c'est un outil puissant pour deux raisons.C'est très facile à utiliser, apparemment, non ? Ouais. Vous pouvez passer un week-end à apprendre python, vous pouvez écrire quelques lignes, et vous pouvez transformer, vous pouvez analyser, vous pouvez analyser des données que vous ne pouviez pas auparavant simplement en utilisant une bibliothèque. Vous n'avez donc pas vraiment besoin de comprendre ce que vous faites, et vous pouvez obtenir un résultat qui semble utile, d'accord ? Mm-hmm. , mais le chauffage dans ce processus, n'est-ce pas ? Le fait que vous puissiez prendre beaucoup de données, une grande quantité de données, les modifier d'une manière ou d'une autre et obtenir une réponse, obtenir un résultat sans comprendre ce qui se passe au milieu, a d'énormes répercussions sur la mauvaise compréhension des résultats que vous obtenez , droite? Et puis, si vous utilisez ces outils dans un, le monde, n'est-ce pas ?

(16:42): D'une, d'une manière qui peut affecter d'autres personnes.Par exemple, vous savez, disons que vous travaillez dans une institution financière et, et, et, et vous proposez un modèle pour déterminer, euh, qui vous devriez, à qui vous devriez accorder un crédit, obtenir, vous savez, approuvé pour, pour le crédit d'une ligne de crédit, et qui vous ne devriez pas. Maintenant, en ce moment, les banques ont leurs propres modèles, mais bien sûr, si vous enlevez l'IA, traditionnellement ces modèles sont pensés par des statisticiens, et ils peuvent se tromper de temps en temps, mais au moins ils ont un gros image de ce que signifie, vous savez, analyser les données, biaiser les données, n'est-ce pas ? Quelles sont les répercussions du biais dans les données ? Comment se débarrasser de toutes ces choses sont des choses qu'un bon statisticien devrait être formé à faire. Mais maintenant, si vous supprimez les statisticiens, parce que n'importe qui peut utiliser un modèle pour analyser des données et obtenir des prévisions, alors ce qui se passe, c'est que vous finissez par refuser et approuver des lignes de crédit pour des personnes qui, avec vous, vous savez, avec des répercussions qui pourraient être , vous savez, motivé par un biais très négatif dans les données, n'est-ce pas ?

(17:44): Genre, ça pourrait affecter une certaine partie de la population, euh, négativement.Peut-être que certains ne peuvent plus obtenir de ligne de crédit simplement parce qu'ils vivent dans un quartier particulier mm-hmm. , ou eux, vous savez, il y a de nombreuses raisons pour lesquelles cela pourrait être un problème,

John Jantsch (17:57) : Mais n'était-ce pas un facteur auparavant ?Je veux dire, certainement les quartiers sont considérés , vous savez, dans le cadre du, vous savez, même dans les modèles analogiques, je pense.

Kenneth Wenger (18:06) : Oui, absolument.Donc, comme je l'ai dit, nous avons toujours eu un problème de partialité, n'est-ce pas ? Dans les données, non ? Mais traditionnellement, vous l'espériez, deux choses se produisaient. Tout d'abord, vous espérez que quiconque propose un modèle, simplement parce que c'est un problème complexe, doit avoir une formation statistique satisfaisante. Ouais. Droite? Et a, un statisticien éthique devrait réfléchir à la façon de gérer le biais dans les données, n'est-ce pas ? C'est donc le numéro un. Deuxièmement, le problème que nous avons actuellement, c'est que, premièrement, vous n'avez pas besoin d'avoir cette décision arrêtée. Vous pouvez simplement utiliser le modèle sans comprendre ce qui se passe, n'est-ce pas ? Droite. Et puis ce qui est pire, c'est qu'avec ces modèles, on ne peut pas vraiment comprendre comment le, ou c'est très difficile traditionnellement de comprendre comment le modèle est arrivé ou prédit. Donc, si on vous refuse une ligne de crédit ou, comme j'en parle dans la caution du livre, par exemple, dans, dans une affaire judiciaire, euh, c'est très difficile de, d'argumenter, eh bien, pourquoi moi ? Pourquoi, pourquoi m'a-t-on refusé cette chose ? Et puis, si vous recommencez le processus d'audit avec l'approche traditionnelle où vous avez une décision, vous pouvez toujours demander, alors comment avez-vous modélisé cela ? Euh, pourquoi cette personne a-t-elle été refusée dans ce cas particulier lors d'un, lors d'un audit ? Mm-hmm. avec un, un, un réseau de neurones, par exemple, cela devient beaucoup plus compliqué.

John Jantsch (19:21): Donc je, je veux dire, donc ce que vous dites, l'un des problèmes initiaux est que les gens se fient à la sortie, aux données.Je veux dire, même, vous savez, je l'utilise d'une manière très simple. Je dirige une société de marketing et nous l'utilisons souvent pour nous donner des idées de copie, nous donner des idées de titres, vous savez, pour des choses. Donc je n'ai pas vraiment l'impression qu'il y a un réel danger là-dedans autre que peut-être de ressembler à tout le monde dans votre copie. Euh, mais, mais vous dites que, vous savez, alors que les gens commencent à s'appuyer sur eux pour prendre des décisions qui sont censées être éclairées, les prédictions sont souvent fausses.

Kenneth Wenger (19:57) : Oui.Et, et il y a très, donc la réponse est oui. Maintenant, il y a deux raisons à cela. Et au fait, permettez-moi de revenir en arrière pour dire qu'il y a des cas d'utilisation où, bien sûr, vous devez penser à cela comme, comme un spectre, n'est-ce pas ? Comme ouais, ouais. Il y a des cas où les répercussions d'une erreur sont pires que dans d'autres cas, n'est-ce pas ? Donc, comme vous le dites, si vous essayez de générer une copie et que vous savez, si c'est un non-sens, alors vous n'avez qu'à le modifier. Et à la fin de la journée, vous allez probablement le revoir de toute façon. Donc, c'est donc un coût inférieur, probablement inférieur. Le coût d'une erreur là-bas sera moins élevé que dans le cas, vous savez, de l'utilisation d'un modèle dans un processus judiciaire, par exemple. Droite? Droite. Droite. Maintenant, en ce qui concerne le fait que ces modèles font parfois des erreurs, la raison en est que la façon dont ces modèles fonctionnent réellement est qu'ils, et, et la partie qui peut être trompeuse est qu'ils ont tendance à très bien fonctionner pour domaines dans les données qu'ils comprennent très bien.

(20:56) : Donc, si vous pensez à un ensemble de données, n'est-ce pas ?Ils sont donc formés à l'aide d'un ensemble de données pour la plupart des données de cet ensemble de données, ils pourront très bien le modéliser. Et c'est pourquoi vous obtenez des modèles qui fonctionnent, disons, avec une précision de 90 % sur un ensemble de données particulier. Le problème est que pour les 10% où ils ne sont pas capables de modéliser très bien, les erreurs y sont remarquables et d'une manière qu'un humain ne serait pas capable de faire ces erreurs. Ouais. Alors que se passe-t-il dans ces cas où, tout d'abord, lorsque nous formons ces modèles que nous obtenons, nous disons, eh bien, vous savez, nous obtenons un taux d'erreur de 10 % dans cet ensemble de données particulier. Le seul problème est que lorsque vous mettez cela en production, vous ne savez pas que le taux d'incidence de ces erreurs sera le même dans le monde réel, n'est-ce pas ?

(21:40) : Vous pouvez vous retrouver, euh, dans une situation où vous obtenez ces points de données qui conduisent à des erreurs à un taux beaucoup plus élevé que vous ne l'avez fait dans votre ensemble de données.Juste un problème. Le deuxième problème est que si, si vous êtes dans un, si votre cas d'utilisation, si votre production, vous savez, l'application, c'est comme ça qu'une erreur pourrait être chiffrée, comme disons dans un cas d'utilisation médicale ou dans l'auto-conduite, quand vous devez revenir en arrière et expliquer pourquoi vous vous êtes trompé, pourquoi le modèle s'est trompé, et c'est tellement bizarrement différent de ce qu'un humain aurait tort. C'est l'une des raisons fondamentales pour lesquelles ces systèmes ne sont pas déployés aujourd'hui dans des domaines critiques pour la sécurité. Et au fait, c'est l'une des raisons fondamentales pour lesquelles nous avons créé l'attelle, c'est pour s'attaquer spécifiquement à ces problèmes, c'est pour comprendre comment pouvons-nous créer un ensemble de modèles ou un système capable de comprendre spécifiquement quand les modèles font les choses correctement et quand ils se trompent lors de l'exécution. Parce que je pense vraiment que c'est, c'est l'une des raisons fondamentales pour lesquelles nous n'avons pas avancé autant que nous aurions dû à ce stade. C'est parce que quand les modèles fonctionnent vraiment bien, euh, quand ils sont capables de modéliser les données, eh bien ils fonctionnent très bien. Mais dans les cas où ils ne peuvent pas modéliser cette partie des données, les erreurs sont tout simplement incroyables, n'est-ce pas ? Ce sont des choses que les humains ne feraient jamais ce genre de

John Jantsch (23:00): Erreur.Ouais ouais ouais. Et, et évidemment, vous savez, cela va certainement, cela doit être résolu avant que quiconque ne fasse confiance à l'envoi, vous savez, d'un vaisseau spatial homme, vous savez, guidé par l'IA ou quelque chose, n'est-ce pas ? Je veux dire, quand vous savez que la vie humaine est en danger, vous savez, vous devez avoir confiance. Et donc si vous ne pouvez pas faire confiance à cette prise de décision, cela empêchera certainement les gens d'utiliser la, la technologie, je suppose.

Kenneth Wenger (23:24) : N'est-ce pas ?Ou les utiliser, par exemple, pour aider, comme je le disais, dans les domaines médicaux, par exemple, le diagnostic du cancer, n'est-ce pas ? Si vous voulez qu'un modèle soit capable de détecter certains types de cancer, étant donné, disons, des analyses de biopsie, vous devez pouvoir faire confiance au modèle. Maintenant, n'importe quoi, n'importe quel modèle essentiellement, vous savez, il va faire des erreurs. Rien n'est jamais parfait, mais vous voulez que deux choses se produisent. Tout d'abord, vous voulez être en mesure de minimiser les types d'erreurs que le modèle peut commettre, et vous devez avoir une indication que la qualité de la prédiction du modèle n'est pas excellente. Tu ne veux pas avoir ça. Ouais. Et deuxièmement, une fois qu'une erreur se produit, vous devez être en mesure de défendre le fait que la raison pour laquelle l'erreur s'est produite est que la qualité des données était telle que, vous savez, même un humain ne pouvait pas faire mieux. Ouais. Nous ne pouvons pas laisser des modèles faire des erreurs qu'un médecin humain regarderait et dirait, eh bien, c'est clairement ouais, incorrect.

John Jantsch (24:15): Ouais.Ouais. Absolument. Eh bien, Ken, je veux prendre, euh, je veux te remercier d'avoir pris un moment pour t'arrêter au Podcast Duct Tape Marketing. Vous voulez dire aux gens où ils peuvent trouver, vous contacter si vous le souhaitez, puis évidemment où ils peuvent récupérer une copie de L'algorithme complote-t-il contre nous ?

Kenneth Wenger (24:29) : Absolument.Merci beaucoup, tout d'abord de m'avoir reçu. C'était une excellente conversation. Alors oui, vous pouvez me joindre sur LinkedIn et pour le flic pour obtenir une copie du livre et l'obtenir à la fois sur, euh, Amazon ainsi que sur le site Web de notre éditeur, le, ça s'appelle le travail fires.org.

John Jantsch (24:42) : Génial.Eh bien, encore une fois, merci d'avoir résolu par une excellente conversation. Avec un peu de chance, nous vous croiserons peut-être un de ces jours là-bas sur la route.

Kenneth Wenger (24:49) : Merci.

John Jantsch (24:49): Hé, et une dernière chose avant de partir.Vous savez comment je parle de stratégie marketing, stratégie avant tactique ? Eh bien, parfois, il peut être difficile de comprendre où vous en êtes, ce qui doit être fait en ce qui concerne la création d'une stratégie marketing. Nous avons donc créé un outil gratuit pour vous. C'est ce qu'on appelle l'évaluation de la stratégie marketing. Vous pouvez le trouver @marketingassessment.co, not.com, point co. Consultez notre évaluation marketing gratuite et découvrez où vous en êtes avec votre stratégie aujourd'hui. C'est juste du marketing assessment.co. J'aimerais discuter avec vous des résultats que vous obtenez.

alimenté par

Cet épisode du Duct Tape Marketing Podcast vous est présenté par le réseau de podcasts HubSpot.

HubSpot Podcast Network est la destination audio pour les professionnels qui recherchent la meilleure formation et l'inspiration pour développer une entreprise.