Dezvăluirea viitorului AI
Publicat: 2023-06-30Podcast de marketing cu Kenneth Wenger
În acest episod al podcastului de marketing Duct Tape, îl intervievez pe Kenneth Wenger. Este autor, cercetător la Toronto Metropolitan University și CTO al Squint AI Inc. Interesele sale de cercetare se află la intersecția oamenilor și a mașinilor, asigurându-ne că construim un viitor bazat pe utilizarea responsabilă a tehnologiei.
Cea mai nouă carte a sa, I s the Algorithm Plotting Against Us?: A Layperson's Guide to the Concepts, Math, and Pitfalls of A I. Kenneth explică complexitatea AI, demonstrându-i potențialul și expunând deficiențele sale. El dă putere cititorilor să răspundă la întrebarea: Ce este exact AI?
Cheie la pachet:
Deși s-au făcut progrese semnificative în domeniul AI, suntem încă la primele etape ale dezvoltării acesteia. Cu toate acestea, modelele actuale de IA îndeplinesc în primul rând sarcini statistice simple, mai degrabă decât să prezinte o inteligență profundă. Viitorul AI constă în dezvoltarea modelelor care pot înțelege contextul și pot face diferența între răspunsurile corecte și greșite.
Kenneth subliniază, de asemenea, capcanele de a se baza pe AI, în special în lipsa de înțelegere din spatele procesului decizional al modelului și potențialul de rezultate părtinitoare. Încrederea și responsabilitatea acestor mașini sunt esențiale de dezvoltat, în special în domenii critice pentru siguranță, în care viețile umane ar putea fi în joc, cum ar fi medicină sau legi. În general, deși AI a făcut progrese substanțiale, mai este un drum lung de parcurs pentru a-și debloca adevăratul potențial și pentru a aborda provocările asociate.
Întrebări pe care le pun lui Kenneth Wenger:
- [02:32] Titlul cărții tale este algoritmul care complotează împotriva acestei întrebări este puțin provocatoare. Deci de ce să pui această întrebare?
- [03:45] Unde crezi că suntem cu adevărat în continuum-ul evoluției AI?
- [07:58] Vedeți o zi în care mașinile AI vor începe să pună întrebări oamenilor?
- [07:20] Poți să numești un anumit exemplu din cariera ta în care ai simțit că „Acesta va funcționa, asta este așa cum ar trebui să fac”?
- [09:25] Aveți atât laic, cât și matematică în titlul cărții, ați putea să ne oferiți un fel de versiune a profanului despre cum face asta?
- [15:30] Care sunt capcanele reale și evidente de a te baza pe AI?
- [19:49] Pe măsură ce oamenii încep să se bazeze pe aceste mașini pentru a lua decizii care ar trebui să fie informate de multe ori, previziunile ar putea fi greșite, nu?
Mai multe despre Kenneth Wenger:
- Obțineți o copie a lui Is the Algorithm Plotting Against Us?: A Layperson's Guide to the Concepts, Math, and Pitfalls of A I.
- Conectează-te cu Kenneth.
Mai multe despre Antrenamentul intensiv pentru certificarea agenției:
- Aflați mai multe despre Trainingul intensiv pentru certificarea agenției aici
Luați evaluarea de marketing:
- Marketingassessment.co
Îți place acest spectacol? Faceți clic pe peste și dă-ne o recenzie pe iTunes, te rog!
John Jantsch (00:00): Hei, știai că se apropie conferința anuală de intrare a HubSpot?Asta e corect. Va fi la Boston din 5 până în 8 septembrie. În fiecare an, inbound reunește lideri din afaceri, vânzări, marketing, succesul clienților, operațiuni și multe altele. Veți putea descoperi toate cele mai recente tendințe și tactici pe care le puteți pune în aplicare pentru a vă extinde afacerea într-un mod durabil. Puteți învăța de la experții din industrie și puteți fi inspirat de talentul incredibil de reflectare. Anul acesta, oameni ca Reese Witherspoon, Derek Jeter, Guy Raz vor face apariții. Vizitați inbound.com și obțineți biletul dvs. astăzi. Nu o să-ți pară rău. Această programare este garantată să inspire și să se reîncarce. Asta e corect. Accesați inbound.com pentru a obține biletul dvs. astăzi.
(01:03): Bună ziua și bun venit la un alt episod al Podcastului de marketing cu bandă adezivă.Acesta este John Jantsch. Invitatul meu de azi este Kenneth Wenger. Este autor, cercetător la Toronto Metropolitan University și CTO al Squint AI Inc. Interesele sale de cercetare se află în intersecția oamenilor și a mașinilor, asigurându-ne că construim un viitor bazat pe utilizarea responsabilă a tehnologiei. Vom vorbi despre cartea sa astăzi: Algoritmul complotează împotriva noastră? Deci, Ken, bine ai venit la spectacol.
Kenneth Wenger (01:40): Bună, John.Mulțumesc foarte mult. Mulțumesc că m-ai primit.
John Jantsch (01:42): Deci, deci vom vorbi despre carte, dar eu, sunt doar curios, ce face Squint AI?
Kenneth Wenger (01:47): Aceasta este o întrebare grozavă.Deci, squint ai, um, este o companie pe care am creat-o pentru, um, să facem ceva cercetări și să dezvoltăm o platformă care ne permite să, um,
(02:00): Faceți, faceți AI într-un mod mai responsabil, uh.Bine. Bine. Deci, uh, sunt sigur că vom intra în asta, dar abordez asta, uh, în carte și în multe cazuri, unde vorbim despre, uh, ai, utilizarea etică a ai, unele dintre căderile ai. Și ceea ce facem cu Squint este că încercăm să ne dăm seama, știți, cum încercăm să creăm un, un mediu care ne permite să folosim AI într-un mod care să ne lase să înțelegem când acești algoritmi nu funcționează. în cel mai bun caz, când fac greșeli și așa mai departe. Da,
John Jantsch (02:30): Da.Deci, titlul cărții tale este Algoritmul Plotting Against, aceasta este o întrebare puțin provocatoare. Adică, evident că sunt sigur că există oameni care spun că nu
Kenneth Wenger (02:49): Ei bine, pentru că eu, de fapt, simt că aceasta este o întrebare care este pusă de mulți oameni diferiți cu înțelesuri diferite.Dreapta? Deci, este aproape aceeași cu întrebarea dacă AI reprezintă o amenințare existențială? Eu, eu, este o întrebare care înseamnă lucruri diferite pentru diferiți oameni. Dreapta. Așa că am vrut să intru în asta în carte și să încerc să fac două lucruri. În primul rând, oferă oamenilor instrumentele pentru a putea înțelege singuri această întrebare, corect. Și mai întâi să-ți dai seama cum, unde se află ei în acea dezbatere, apoi, în al doilea rând, știi, oferă și părerea mea pe parcurs.
John Jantsch (03:21): Da, da.Și probabil că nu am pus întrebarea asta atât de elegant pe cât mi-aș dori. De fapt, cred că este grozav să pui întrebarea, pentru că în cele din urmă ceea ce încercăm să facem este să lăsăm oamenii să ia propriile decizii, mai degrabă decât să spună, acest lucru este adevărat pentru IA sau nu este adevărat pentru AI.
Kenneth Wenger (03:36): Așa este.Asta e corect. Și, și, și din nou, mai ales că este o problemă nuanțată. Da. Și înseamnă lucruri diferite pentru diferiți oameni.
John Jantsch (03:44): Deci, aceasta este o întrebare foarte grea, dar o să vă întreb, știți, unde suntem cu adevărat în continuum-ul AI?Adică, oamenii care au fost pe acest subiect de mulți ani își dau seama că a fost încorporat în multe lucruri pe care le folosim în fiecare zi și le considerăm de la sine înțeles, evident că noi ChatGPT a adus un cu totul alt spectru de oameni pe care acum, știi, cel puțin le-au avut. un vocabular vorbitor despre ceea ce este. Dar îmi amintesc, știi, am fost, am fost, am avut propria mea afacere de 30 de ani. Adică, nu aveam web
Kenneth Wenger (04:32): Știi, aceasta este o întrebare grozavă pentru că cred că suntem de fapt foarte devreme.Da. Cred că, știți, noi, am făcut progrese remarcabile într-o perioadă foarte scurtă de timp, dar cred că este încă, suntem în stadii foarte incipiente. Știi, dacă te gândești la ai unde ne aflăm acum, eram acum un deceniu, am făcut ceva progrese. Dar cred că, fundamental, la nivel științific, abia am început să zgârie suprafața. Vă voi da câteva exemple. Deci inițial, știți, primele modele, au fost grozave în a ne oferi o dovadă că acest nou mod de a pune întrebări, știți, rețelele neuronale, în esență. Da da. Dreapta. Sunt ecuații foarte complexe. Dacă folosiți GPU-uri pentru a rula aceste ecuații complexe, atunci putem rezolva probleme destul de complexe. Este ceva ce ne-am dat seama în jurul anului 2012 și apoi după aproximativ 2017, așa că între 2012 și 2017, progresul a fost foarte liniar.
(05:28): Știi, s-au creat modele noi, s-au propus noile idei, dar lucrurile s-au scalat și au progresat foarte liniar.Dar după 2017, odată cu introducerea modelului numit Transformer, care este arhitectura de bază din spatele chat, g, pt și toate aceste modele mari de limbaj, am avut un alt tip de realizare. Atunci ne-am dat seama că dacă luați acele modele și le măriți și le măriți, în ceea ce privește dimensiunea modelului și dimensiunea setului de date pe care l-am folosit pentru a le antrena, ele devin exponențial mai bune. Bine. Și atunci am ajuns la punctul în care ne aflăm astăzi, unde ne-am dat seama că doar prin scalarea lor, din nou, nu am făcut nimic fundamental diferit din 2017. Tot ce am făcut a fost să mărim dimensiunea modelului, să creștem dimensiunea setului de date și acestea devin exponențial mai bune.
John Jantsch (06:14): Deci, mai degrabă înmulțirea decât adunarea?
Kenneth Wenger (06:18): Ei bine, da, exact.Da. Deci, deci nu este, progresul a fost exponențial, nu doar în traiectorie liniară. Da. Dar cred, dar din nou, faptul că nu ne-am schimbat foarte mult în mod fundamental în aceste modele, asta se va diminua foarte curând. Este așteptarea mea. Și acum unde suntem pe cronologia? Care a fost întrebarea ta inițială. Cred că dacă te gândești la ceea ce fac modelele astăzi, ele fac foarte element. Ei fac statistici foarte simple, în esență. Mm-hmm.
John Jantsch (07:39): Absolut.Adică, sunt total de acord cu tine în privința inteligenței artificiale. De fapt l-am numit ia. Cred că este mai mult o automatizare informată.
Kenneth Wenger (08:06): Da.Deci, răspunsul simplu este da. Eu, cu siguranță da. Și cred că asta face parte din ceea ce ar fi obținerea unui nivel superior de inteligență. Este atunci când nu vă fac doar licitația, nu este doar un instrument. Da da. Uh, dar ei, au un fel de scop propriu pe care încearcă să-l atingă. Și atunci ai vedea că lucruri precum întrebările, în esență, apar din sistem, nu? Este atunci când au un, un, un scop la care vor să ajungă, adică, știi, și apoi își dau seama un plan pentru a ajunge la acel obiectiv. Atunci poți vedea apariția unor lucruri precum întrebări pentru tine. Nu cred că am ajuns încă acolo, dar da, cred că cu siguranță este posibil.
John Jantsch (08:40): Dar asta este și versiunea SF, nu?Adică, acolo unde oamenii încep să spună, știi, filmele, e ca și cum, nu, nu, Ken, încă nu ajungi să cunoști acea informație. Voi decide când poți ști asta
Kenneth Wenger (08:52): Ei bine, ai dreptate.Adică, întrebarea, felul în care ai pus întrebarea a fost mai degrabă, este posibil, în principiu? cred absolut. Da. Da. vrem asta? Adică, eu, nu știu. Cred că asta face parte din, da, depinde de cazul de utilizare la care ne gândim. Uh, dar din perspectiva unui prim principiu Da, este, cu siguranță este posibil. Da. Nu să-i iau un model
John Jantsch (09:13): Fă asta.Așa că eu, cred că există zeci și zeci de oameni, ei înțeleg AI doar că merg în acest loc unde are o cutie și tast o întrebare și scuipă un răspuns. Întrucât aveți atât profan, cât și matematică în titlu, ați putea să ne oferiți un fel de versiune a profanului despre cum face asta?
Kenneth Wenger (09:33): Da, absolut.Deci, măcar o să încerc, lasă-mă să o spun așa,
(10:31): Deci, practic, pentru orice cuvânt dintr-o, într-un, într-un prompt sau într-un corp de text, ei calculează probabilitatea ca acel cuvânt să aparțină acelei secvențe.Dreapta? Și apoi aleg următorul cuvânt cu cea mai mare probabilitate de a fi corect acolo. Bine? Acum, acesta este un model foarte simplu în sensul următor. Dacă te gândești la modul în care comunicăm, nu? Știi, avem o conversație chiar acum. Cred că atunci când îmi pui o întrebare, eu, fac o pauză și mă gândesc la ceea ce am să spun, nu? Deci am un model al lumii și am un scop în acea conversație. Îmi vine ideea a ceea ce vreau să răspund și apoi îmi folosesc capacitatea de a produce cuvinte și de a le suna pentru a comunica asta cu tine. Dreapta? Este posibil să am un sistem în creier care funcționează foarte asemănător cu un model de limbaj mare, în sensul că de îndată ce încep să spun cuvinte, următorul cuvânt pe care urmează să-l spun este cel mai probabil. pentru a fi corect, având în vedere cuvintele pe care tocmai le-am spus.
(11:32): Este foarte posibil.Este adevărat. Totuși, ceea ce este diferit este că cel puțin am deja un plan a ceea ce sunt pe cale să spun într-un spațiu latent. Am codificat deja într-o anumită formă. Ce vreau să transmit, cum o spun, că abilitatea de a produce acele cuvinte ar putea fi foarte asemănătoare cu un model de limbă. Dar diferența este că un model de limbă mare încearcă să-și dea seama ce va spune, precum și să vină cu acele cuvinte în același timp. Mm-hmm.
John Jantsch (12:20): Eu, eu, cu siguranță am văzut unele rezultate care sunt destul de interesante în acest sens.Dar, știi, așa cum te-am auzit vorbind despre asta, vreau să spun, în multe feluri, asta facem este că interogăm o bază de date cu ceea ce am fost învățați, sunt cuvintele pe care le-am știm, pe lângă conceptele pe care le-am studiat, și suntem capabili să le articulăm. Adică, într-un fel, îmi întrebăm asta, solicităm sau vă pun și eu o întrebare, adică funcționează similar. Ai zice
Kenneth Wenger (12:47): Aspectul de a pune o întrebare și apoi de a răspunde, este similar, dar ceea ce este diferit este conceptul pe care încerci să-l descrii.Așa că, din nou, când îmi pui o întrebare, mă gândesc la asta și vin cu asta, așa că, din nou, am un model mondial care funcționează până acum pentru mine să mă ducă prin viață, nu? Și acel model de lume îmi permite să înțeleg diferite concepte în moduri diferite. Și când sunt pe cale să răspund la întrebarea ta, mă gândesc la asta, formulez un răspuns și apoi îmi dau seama o modalitate de a comunica asta cu tine. Bine? Acest pas lipsește din ceea ce fac aceste modele lingvistice, nu? Primesc un prompt, dar nu există niciun pas în care să formuleze un răspuns cu un anumit scop, nu? Dreapta? Da. Un scop. În esență, primesc un text și încearcă să genereze o secvență de cuvinte care sunt descoperite pe măsură ce sunt produse, nu? Nu există un plan final. Deci, aceasta este o diferență foarte fundamentală.
John Jantsch (13:54): Și acum, să auzim un cuvânt de la sponsorul nostru, marketing Made Simple.Este un podcast găzduit de Dr. J j Peterson și vă este adus de HubSpot Podcast Network, destinația audio pentru profesioniștii de afaceri în marketing simplificat, vă oferă sfaturi practice pentru a vă face marketingul ușor și, mai important, pentru a-l face să funcționeze. Și într-un episod recent, JJ și April discută cu ghizii certificati StoryBrand și proprietarii de agenții despre cum să folosești ChatGPT în scopuri de marketing. Știm cu toții cât de important este asta astăzi. Ascultă marketingul făcut simplu. Oriunde îți iei podcasturile.
(14:30): Hei, proprietarii de agenții de marketing, știți, vă pot învăța cheile pentru a vă dubla afacerea în doar 90 de zile sau pentru a vă returna banii.Suna interesant. Tot ce trebuie să faci este să licențiezi procesul nostru în trei etape, care îți va permite să-ți faci concurenții irelevanți, să percepi o sumă pentru serviciile tale și să crești, poate, fără a adăuga cheltuieli generale. Și aici este partea cea mai bună. Puteți licenția întregul sistem pentru agenția dvs., pur și simplu participând la un viitor aspect intensiv de certificare a agenției, de ce să creați roata? Folosiți un set de instrumente care ne-a luat peste 20 de ani să creăm. Și le puteți avea astăzi, verificați-l la dtm.world/certification. Aceasta este certificarea DTM world slash.
(15:18): Vreau să-mi placă ceea ce ne rezervă viitorul, dar vreau să mă opresc asupra câteva lucruri în care vă scufundați în carte.Care sunt, știți, în afară de felul de frică pe care o răspândește mass-media
Kenneth Wenger (15:38): Cred că cea mai mare problemă și unul dintre, vreau să spun, adevăratul motivator pentru mine când am început să scriu cartea este că este un instrument puternic din două motive.Este foarte ușor de folosit, aparent, nu? Da. Puteți petrece un weekend învățând python, puteți scrie câteva rânduri și puteți transforma, puteți analiza, puteți analiza date pe care nu le puteai înainte doar folosind o bibliotecă. Deci nu trebuie să înțelegi cu adevărat ce faci și poți obține un rezultat care pare util, bine? Mm-hmm.
(16:42): Într-un, în, într-un mod care poate afecta alți oameni.De exemplu, știi, să presupunem că lucrezi într-o instituție financiară și, și, și, și ai venit cu un model pentru a-ți da seama, uh, cine ar trebui, cui ar trebui să dai credit, să obții, știi, aprobat pentru, pentru credit pentru o linie de credit și pentru cine nu ar trebui. Acum, chiar acum, băncile au propriile lor modele, dar sigur, dacă scoateți AI din asta, în mod tradițional, acele modele sunt gândite de către statisticieni și pot greși lucrurile din când în când, dar cel puțin au un mare lucru. imagine a ceea ce înseamnă, știi, să analizezi datele, să modifici datele, nu? Care sunt repercusiunile părtinirii în date? Cum să scapi de toate aceste lucruri sunt lucruri pe care un statistician bun ar trebui să fie antrenat. Dar acum, dacă eliminați statisticienii, pentru că oricine poate folosi un model pentru a analiza datele și a obține o predicție, atunci ceea ce se întâmplă este că ajungeți să refuzați și să aprobați linii de credit pentru oameni care, împreună cu dvs., știți, cu repercusiuni care ar putea fi , știi, determinat de părtinire foarte negativă a datelor, nu?
(17:44): De exemplu, ar putea afecta o anumită secțiune a populației, uh, negativ.Poate că există unii care nu mai pot obține o linie de credit doar pentru că locuiesc într-un anumit cartier mm-hmm.
John Jantsch (17:57): Dar nu a fost acesta un factor anterior?Adică, cu siguranță cartierele sunt luate în considerare
Kenneth Wenger (18:06): Da, absolut.Deci, așa cum am spus, am avut întotdeauna o problemă cu părtinirea, nu? În date, nu? Dar în mod tradițional, ai spera, așa că s-ar întâmpla două lucruri. În primul rând, ai spera că oricine vine cu un model, doar pentru că este o problemă complexă, trebuie să aibă o pregătire statistică satisfăcătoare. Da. Dreapta? Și a, un statistician etic ar trebui să ia în considerare cum să se ocupe de părtinirea datelor, nu? Deci ăsta e numărul unu. Numărul doi, problema pe care o avem acum este că, în primul rând, nu trebuie să aveți acea decizie stabilită. Puteți folosi modelul fără să înțelegeți ce se întâmplă, nu? Dreapta. Și apoi, ceea ce este mai rău este că, cu aceste modele, nu putem înțelege de fapt modul în care, sau este foarte dificil în mod tradițional să înțelegem cum a ajuns modelul sau cum a apărut predicția. Deci, dacă vi se refuză fie o linie de credit, fie, așa cum vorbesc în cauțiunea, de exemplu, într-un proces judiciar, este foarte dificil să argumentați, ei bine, de ce eu? De ce, de ce mi s-a refuzat chestia asta? Și apoi dacă treci din nou prin procesul de auditare cu abordarea tradițională în care ai o decizie, poți oricând să întrebi, deci cum ai modelat asta? Uh, de ce acestei persoane i s-a refuzat acest caz particular într-un audit? Mm-hmm.
John Jantsch (19:21): Deci, vreau să spun, deci ceea ce spui, una dintre problemele inițiale este că oamenii se bazează pe rezultate, pe date.Adică, chiar, știi, îl folosesc într-un mod foarte simplu. Conduc o companie de marketing și o folosim de multe ori pentru a ne oferi idei de copiere, pentru a ne oferi idei pentru titluri, știi, pentru lucruri. Așa că nu prea simt că există vreun pericol real acolo, în afară de a suna ca toți ceilalți
Kenneth Wenger (19:57): Da.Și, și există foarte, deci răspunsul este da. Acum, există două motive pentru asta. Și apropo, permiteți-mi să mă întorc să spun că există cazuri de utilizare în care, desigur, trebuie să vă gândiți la asta ca pe un spectru, nu? Ca da, da. Există cazuri în care repercusiunile greșirii sunt mai grave decât în alte cazuri, nu? Deci, după cum spuneți, dacă încercați să generați o copie și știți, dacă nu are sens, atunci mergeți mai departe și schimbați-o. Și la sfârșitul zilei, probabil că o vei revizui oricum. Deci, acesta este un cost mai mic, probabil mai mic. Costul unei greșeli acolo va fi mai mic decât în cazul, știți, folosirea unui model într-un, într-un proces judiciar, de exemplu. Dreapta? Dreapta. Dreapta. Acum, în ceea ce privește faptul că aceste modele uneori fac greșeli, motivul este că modul în care funcționează de fapt aceste modele este că ele și, iar partea care poate înșela este că tind să funcționeze foarte bine pentru zone din date, adică pe care le înțeleg foarte bine.
(20:56): Deci, dacă vă gândiți la un set de date, nu?Așa că sunt instruiți folosind un set de date pentru majoritatea datelor din acel set de date, îl vor putea modela foarte bine. Și de aceea obțineți modele care au performanțe, să spunem, 90% precise pentru un anumit set de date. Problema este că pentru cei 10% în care nu sunt capabili să modeleze foarte bine, greșelile de acolo sunt remarcabile și într-un mod în care un om nu ar fi capabil să facă acele greșeli. Da. Deci, ce se întâmplă în acele cazuri în care, în primul rând, când antrenăm aceste modele pe care le primim, spunem, ei bine, știți, obținem o rată de eroare de 10% în acest set de date special. Singura problemă este că atunci când introduceți asta în producție, nu știți că rata de incidență a acestor erori va fi aceeași în lumea reală, nu?
(21:40): S-ar putea să ajungeți, uh, într-o situație în care obțineți acele puncte de date care duc la erori la o rată mult mai mare decât ați obținut în setul dvs. de date.O singură problemă. A doua problemă este că dacă, dacă vă aflați într-o, dacă cazul dvs. de utilizare, dacă producția dvs., știți, aplicație, este așa în cazul în care o greșeală ar putea fi costă, ca să spunem într-un caz de utilizare medicală sau în auto-conducere, când trebuie să te întorci și să explici de ce ai greșit ceva, de ce modelul a greșit ceva și este atât de bizar de diferit de ceea ce ar greși un om. Acesta este unul dintre motivele fundamentale pentru care astăzi nu avem aceste sisteme implementate în domenii critice de siguranță. Și, apropo, acesta este unul dintre motivele fundamentale pentru care am creat atela, este să abordăm în mod specific aceste probleme, este să ne dăm seama cum putem crea un set de modele sau un sistem care este capabil să înțeleagă în mod specific când modelele fac lucrurile corect și când greșesc lucrurile în timpul execuției. Pentru că chiar cred că este, este unul dintre motivele fundamentale pentru care nu am avansat atât de mult pe cât ar fi trebuit să avem în acest moment. Pentru că atunci când modelele funcționează foarte bine, atunci când sunt capabili să modeleze datele, atunci funcționează grozav. Dar pentru cazurile în care nu pot modela acea secțiune a datelor, greșelile sunt pur și simplu incredibile, nu? Sunt lucruri din care oamenii nu le-ar face niciodată
John Jantsch (23:00): Greșeală.Da da da. Și, evident, știi, asta va fi, cu siguranță, trebuie rezolvat înainte ca cineva să aibă încredere că trimite, știi, o navă spațială, știi, ghidată de AI sau așa ceva, nu? Adică, când știi că viața umană este în pericol, știi, trebuie să ai încredere. Și deci, dacă nu poți avea încredere în luarea deciziilor, asta cu siguranță îi va împiedica pe oameni să folosească tehnologia, presupun.
Kenneth Wenger (23:24): Nu?Sau folosirea lor, de exemplu, pentru a ajuta, așa cum spuneam, în domenii medicale, de exemplu, diagnosticul cancerului, nu? Dacă doriți ca un model să poată detecta anumite tipuri de cancer, având în vedere să zicem scanările biopsiei, doriți să aveți încredere în model. Acum orice, orice model în esență, știi, va face greșeli. Nimic nu este niciodată perfect, dar vrei să se întâmple două lucruri. În primul rând, doriți să puteți minimiza tipurile de greșeli pe care modelul le poate face și trebuie să aveți unele indicații că calitatea predicției modelului nu este grozavă. Nu vrei să ai asta. Da. Și în al doilea rând, odată ce se întâmplă o greșeală, trebuie să fii capabil să aperi că motivul pentru care s-a întâmplat greșeala este că, calitatea datelor a fost de așa natură încât, știi, nici măcar un om nu s-ar putea descurca mai bine. Da. Nu putem lăsa modelele să facă greșeli pe care un medic uman le-ar privi și să spună, ei bine, acest lucru este în mod clar Da, incorect.
John Jantsch (24:15): Da.Da. Absolut. Ei bine, Ken, vreau să iau, uh, vreau să-ți mulțumesc că ai acordat un moment să treci la podcastul de marketing cu bandă adezivă. Vrei să le spui oamenilor unde pot găsi, să ia legătura cu tine dacă vrei și apoi, evident, de unde pot ridica o copie a Algoritmului complotează împotriva noastră?
Kenneth Wenger (24:29): Absolut.Vă mulțumesc foarte mult, în primul rând că m-ați primit. A fost o conversație grozavă. Așa că da, mă poți contacta pe LinkedIn și pentru polițist pentru o copie a cărții și s-o obții atât de la Amazon, cât și de pe site-ul web al editorului nostru, se numește fires.org.
John Jantsch (24:42): Minunat.Ei bine, din nou, mulțumesc pentru rezolvare printr-o conversație grozavă. Să sperăm că, poate, ne vom întâlni cu tine într-una din zilele astea, pe drum.
Kenneth Wenger (24:49): Mulțumesc.
John Jantsch (24:49): Hei, și un ultim lucru înainte de a pleca.Știi cum vorbesc despre strategie de marketing, strategie înainte de tactică? Ei bine, uneori poate fi greu să înțelegi unde te afli în asta, ce trebuie făcut în ceea ce privește crearea unei strategii de marketing. Așa că am creat un instrument gratuit pentru tine. Se numește Evaluarea Strategiei de Marketing. Îl puteți găsi @marketingassessment.co, not.com, dot co. Consultați evaluarea noastră gratuită de marketing și aflați unde vă aflați cu strategia dvs. astăzi. Acesta este doar marketing assessment.co. Mi-ar plăcea să discut cu tine despre rezultatele pe care le obții.
Înscrieți-vă pentru a primi actualizări prin e-mail
Introduceți numele și adresa de e-mail mai jos și vă voi trimite actualizări periodice despre podcast.
Acest episod al podcastului de marketing cu bandă adezivă vă este oferit de rețeaua de podcasturi HubSpot.
HubSpot Podcast Network este destinația audio pentru profesioniștii în afaceri care caută cea mai bună educație și inspirație despre cum să dezvolte o afacere.