Łagodzenie ryzyka związanego z generatywną sztuczną inteligencją poprzez włączenie człowieka w pętlę
Opublikowany: 2023-06-21„Nie ma zrównoważonego przypadku użycia złej sztucznej inteligencji”.
W ten sposób dr Rob Walker, akredytowany ekspert w dziedzinie sztucznej inteligencji i wiceprezes Pega ds. podejmowania decyzji i analiz, podsumował dyskusję okrągłego stołu na temat nieuczciwej sztucznej inteligencji na konferencji PegaWorld iNspire w zeszłym tygodniu.
Wyjaśnił różnicę między nieprzejrzystymi i przezroczystymi algorytmami. Na jednym końcu spektrum sztucznej inteligencji nieprzejrzyste algorytmy działają z dużą szybkością i wysokim poziomem dokładności. Problem polega na tym, że tak naprawdę nie możemy wyjaśnić, jak robią to, co robią. To wystarczy, aby uczynić je mniej lub bardziej bezużytecznymi do zadań wymagających odpowiedzialności — na przykład do podejmowania decyzji w sprawie wniosków o kredyt hipoteczny lub pożyczkowy.
Przejrzyste algorytmy, z drugiej strony, mają zaletę wyjaśnialności. Są po prostu mniej wiarygodni. Powiedział, że to jak wybór między kuracją medyczną zaleconą przez lekarza, który może ci to wyjaśnić, a maszyną, która nie potrafi tego wyjaśnić, ale jest bardziej prawdopodobne, że będzie miała rację. To wybór — i to nie łatwy.
Ostatecznie jednak przekazanie wszystkich decyzji najpotężniejszym narzędziom sztucznej inteligencji, z ryzykiem, że staną się one nieuczciwe, nie jest rzeczywiście trwałe.
Na tej samej konferencji Pega CTO, Don Schuerman, omówił wizję „Autopilota”, rozwiązania opartego na sztucznej inteligencji, które ma pomóc w stworzeniu autonomicznego przedsiębiorstwa. „Mam nadzieję, że w 2024 roku będziemy mieli jakąś odmianę tego. Myślę, że wymaga to zarządzania i kontroli”. Rzeczywiście tak będzie: na przykład niewielu z nas chce wejść na pokład samolotu, który ma tylko autopilota i nie ma człowieka w pętli.
Człowiek w pętli
Utrzymywanie człowieka na bieżąco było stałą mantrą na konferencji, podkreślając zaangażowanie Pegi w odpowiedzialną sztuczną inteligencję. Już w 2017 roku uruchomiono Pega „T-Switch”, umożliwiając firmom wybieranie poziomu przejrzystości w górę iw dół na ruchomej skali dla każdego modelu AI. „Na przykład stosowanie nieprzejrzystego modelu głębokiego uczenia, który klasyfikuje obrazy marketingowe, wiąże się z niskim ryzykiem. I odwrotnie, banki podlegające surowym przepisom dotyczącym uczciwych praktyk kredytowych wymagają wysoce przejrzystych modeli AI, aby wykazać sprawiedliwą dystrybucję ofert kredytowych” – wyjaśnił Pega.
Generatywna sztuczna inteligencja niesie jednak ze sobą zupełnie inny poziom ryzyka — zwłaszcza w przypadku funkcji zorientowanych na klienta, takich jak marketing. W szczególności nie obchodzi go, czy mówi prawdę, czy zmyśla („halucynacje”). Jeśli nie jest to jasne, zagrożenia te pojawiają się przy każdym wdrożeniu generatywnej sztucznej inteligencji i nie są specyficzne dla żadnych rozwiązań Pega.
„Przewiduje to, co jest najbardziej prawdopodobne i prawdopodobne oraz to, co chcemy usłyszeć” — wyjaśnił dyrektor Pega AI Lab, Peter van der Putten. Ale to też wyjaśnia problem. „Mógłby coś powiedzieć, a następnie być wyjątkowo dobry w dostarczaniu wiarygodnych wyjaśnień; może się również cofnąć”. Innymi słowy, może wrócić z inną — być może lepszą — odpowiedzią, jeśli dwukrotnie ustawi to samo zadanie.
Tuż przed PegaWorld, Pega ogłosiła 20 generatywnych „dopalaczy” opartych na sztucznej inteligencji, w tym chatboty gen AI, zautomatyzowane przepływy pracy i optymalizację treści. „Jeśli przyjrzysz się uważnie temu, co uruchomiliśmy”, powiedział Putten, „prawie wszystkie z nich mają człowieka w pętli. Wysokie zyski, niskie ryzyko. To jest zaleta tworzenia produktów opartych na sztucznej inteligencji zamiast zapewniania ludziom dostępu do ogólnej technologii generatywnej sztucznej inteligencji”.
Pega GenAI zapewnia zatem narzędzia do wykonywania określonych zadań (z dużymi modelami językowymi działającymi w tle); to nie tylko puste płótno czekające na ludzkie podpowiedzi.
W przypadku czegoś takiego jak chatbot wspomagany przez sztuczną inteligencję, potrzeba człowieka w pętli jest wystarczająco wyraźna. „Myślę, że minie trochę czasu, zanim wiele firm poczuje się komfortowo, umieszczając chatbota z dużym modelem językowym bezpośrednio przed swoimi klientami” — powiedział Schuerman. „Wszystko, co generuje generatywna sztuczna inteligencja – chcę, żeby człowiek spojrzał na to, zanim przedstawi to klientowi”.
Cztery miliony interakcji dziennie
Ale włączenie człowieka w pętlę rodzi pytania o skalowalność.
Finbar Hage, wiceprezes ds. cyfrowych w holenderskiej firmie zajmującej się piekarnictwem i usługami finansowymi Rabobank, powiedział na konferencji, że Pega Customer Decision Hub przetwarza dla nich 1,5 miliarda interakcji rocznie, czyli około czterech milionów dziennie. Zadaniem huba jest generowanie rekomendacji kolejnych najlepszych działań, tworzenie podróży klienta w czasie rzeczywistym i na bieżąco. Następnym najlepszym działaniem może być na przykład wysłanie spersonalizowanego e-maila — a gen AI oferuje możliwość tworzenia takich e-maili niemal natychmiast.
Sugeruje się, że każdy z tych e-maili musi zostać zatwierdzony przez człowieka przed wysłaniem. Ile to jest e-maili? Ile czasu marketerzy będą musieli poświęcić na zatwierdzanie treści generowanych przez AI?
Być może łatwiejsze w zarządzaniu jest użycie Pega GenAI do tworzenia złożonych dokumentów biznesowych w wielu językach. W swoim przemówieniu dyrektor ds. produktu, Kerim Akgonul, zademonstrował wykorzystanie sztucznej inteligencji do stworzenia skomplikowanego przepływu pracy w języku tureckim dla wniosku o pożyczkę. Szablon uwzględniał zarówno globalne zasady biznesowe, jak i lokalne przepisy.
Patrząc na wynik, Akgonul, który sam jest Turkiem, dostrzegł kilka błędów. Dlatego potrzebny jest człowiek; ale nie ma wątpliwości, że generowanie sztucznej inteligencji i aprobata ludzi wydawały się znacznie szybsze niż generowanie ludzi, po których następowała aprobata ludzi.
Tak słyszałem od każdego dyrektora Pegi, którego o to pytałem. Tak, zatwierdzenie zajmie trochę czasu, a firmy będą musiały wprowadzić ład korporacyjny — „najlepsze praktyki”, jak to określił Schuerman — aby zapewnić stosowanie odpowiedniego poziomu zarządzania, w zależności od poziomu ryzyka.
W przypadku marketingu, który jest zasadniczo zorientowany na klienta, ten poziom zarządzania prawdopodobnie będzie wysoki. Jednak nadzieja i obietnica jest taka, że automatyzacja oparta na sztucznej inteligencji nadal będzie robić rzeczy lepiej i szybciej.
Zdobądź MarTech! Codziennie. Bezpłatny. W Twojej skrzynce odbiorczej.
Zobacz warunki.
Powiązane historie
Nowość w MarTechu