Die Risiken generativer KI mindern, indem der Mensch in den Kreislauf einbezogen wird
Veröffentlicht: 2023-06-21„Es gibt keinen nachhaltigen Anwendungsfall für böse KI.“
So fasste Dr. Rob Walker, ein anerkannter Experte für künstliche Intelligenz und Pegas Vizepräsident für Entscheidungsfindung und Analyse, letzte Woche eine Diskussionsrunde über betrügerische KI auf der PegaWorld iNspire-Konferenz zusammen.
Er hatte den Unterschied zwischen undurchsichtigen und transparenten Algorithmen erklärt. Am einen Ende des KI-Spektrums arbeiten undurchsichtige Algorithmen mit hoher Geschwindigkeit und hoher Genauigkeit. Das Problem ist, dass wir eigentlich nicht erklären können, wie sie tun, was sie tun. Das reicht aus, um sie für Aufgaben, die Rechenschaft erfordern, mehr oder weniger unbrauchbar zu machen – zum Beispiel Entscheidungen über Hypotheken- oder Kreditanträge zu treffen.
Transparente Algorithmen hingegen haben den Vorzug der Erklärbarkeit. Sie sind einfach weniger zuverlässig. Es sei wie eine Wahl, sagte er, zwischen der Verschreibung einer medizinischen Behandlung durch einen Arzt, der es einem erklären kann, oder einer Maschine, die es nicht erklären kann, aber mit größerer Wahrscheinlichkeit recht hat. Es ist eine Entscheidung – und keine leichte.
Aber am Ende des Tages ist es tatsächlich nicht nachhaltig, alle Entscheidungen den leistungsstärksten KI-Tools zu überlassen und dabei das Risiko einzugehen, dass sie unbrauchbar werden.
Auf derselben Konferenz diskutierte Don Schuerman, CTO von Pega, eine Vision für „Autopilot“, eine KI-gestützte Lösung zur Schaffung eines autonomen Unternehmens. „Meine Hoffnung ist, dass wir im Jahr 2024 eine Variation davon haben. Ich denke, es wird Governance und Kontrolle erfordern.“ Tatsächlich wird es so sein: Nur wenige von uns möchten zum Beispiel in ein Flugzeug einsteigen, das nur über einen Autopiloten verfügt und keinen Menschen auf dem Laufenden hält.
Der Mensch auf dem Laufenden
Den Menschen auf dem Laufenden zu halten, war ein ständiges Mantra auf der Konferenz und unterstrich Pegas Engagement für verantwortungsvolle KI. Bereits 2017 wurde der „T-Switch“ von Pega auf den Markt gebracht, der es Unternehmen ermöglicht, den Grad der Transparenz für jedes KI-Modell auf einer gleitenden Skala nach oben oder unten zu regeln. „Zum Beispiel ist es risikoarm, ein undurchsichtiges Deep-Learning-Modell zu verwenden, das Marketingbilder klassifiziert. Umgekehrt benötigen Banken, die strengen Vorschriften für faire Kreditvergabepraktiken unterliegen, hochtransparente KI-Modelle, um eine gerechte Verteilung der Kreditangebote nachzuweisen“, erklärte Pega.
Generative KI birgt jedoch ein ganz anderes Risikoniveau – nicht zuletzt für kundenorientierte Funktionen wie das Marketing. Insbesondere ist es völlig egal, ob es die Wahrheit sagt oder etwas erfindet („halluziniert“). Falls es nicht klar ist: Diese Risiken entstehen bei jeder Implementierung generativer KI und sind nicht spezifisch für Pega-Lösungen.
„Es geht darum, vorherzusagen, was am wahrscheinlichsten und plausibelsten ist und was wir hören wollen“, erklärte Peter van der Putten, Direktor des Pega AI Lab. Aber das erklärt auch das Problem. „Es könnte etwas sagen und dann sehr gut darin sein, plausible Erklärungen zu liefern; es kann auch einen Rückzieher machen.“ Mit anderen Worten, es kann zu einer anderen – vielleicht besseren – Reaktion kommen, wenn dieselbe Aufgabe zweimal gestellt wird.
Kurz vor PegaWorld kündigte Pega 20 generative KI-gestützte „Booster“ an, darunter Gen-KI-Chatbots, automatisierte Arbeitsabläufe und Inhaltsoptimierung. „Wenn Sie sich genau ansehen, was wir auf den Markt gebracht haben“, sagte Putten, „haben fast alle von ihnen einen Menschen auf dem Laufenden. Hohe Rendite, geringes Risiko. Das ist der Vorteil der Entwicklung generativer KI-gesteuerter Produkte, anstatt den Menschen Zugang zu generativer generativer KI-Technologie zu verschaffen.“
Pega GenAI bietet dann Tools zur Lösung spezifischer Aufgaben (wobei große Sprachmodelle im Hintergrund laufen); Es ist nicht nur eine leere Leinwand, die auf menschliche Eingaben wartet.
Für so etwas wie einen KI-gestützten Chatbot der Generation ist die Notwendigkeit eines Menschen auf dem Laufenden. „Ich denke, es wird eine Weile dauern, bis sich viele Unternehmen damit abfinden, ihren Kunden einen großen Sprachmodell-Chatbot direkt vorzustellen“, sagte Schuerman. „Alles, was generative KI erzeugt – ich möchte, dass ein Mensch es sich ansieht, bevor er es dem Kunden präsentiert.“
Vier Millionen Interaktionen pro Tag
Aber die Einbeziehung eines Menschen in den Kreislauf wirft Fragen zur Skalierbarkeit auf.
Finbar Hage, Vizepräsident für Digital beim niederländischen Back- und Finanzdienstleistungsunternehmen Rabobank, sagte auf der Konferenz, dass der Customer Decision Hub von Pega 1,5 Milliarden Interaktionen pro Jahr für sie verarbeitet, also rund vier Millionen pro Tag. Die Aufgabe des Hubs besteht darin, Next-Best-Action-Empfehlungen zu generieren und so eine Customer Journey in Echtzeit und im Handumdrehen zu erstellen. Die nächstbeste Maßnahme könnte beispielsweise das Versenden einer personalisierten E-Mail sein – und Gen AI bietet die Möglichkeit, solche E-Mails fast sofort zu erstellen.
Es wird vorgeschlagen, dass jede dieser E-Mails vor dem Senden von einem Menschen genehmigt werden muss. Wie viele E-Mails sind das? Wie viel Zeit müssen Vermarkter für die Genehmigung von KI-generierten Inhalten aufwenden?
Möglicherweise ist die Verwendung von Pega GenAI zur Erstellung komplexer Geschäftsdokumente in einer Vielzahl von Sprachen einfacher zu handhaben. In seiner Keynote demonstrierte Chief Product Officer Kerim Akgonul den Einsatz von KI zur Erstellung eines komplizierten Workflows für einen Kreditantrag auf Türkisch. Die Vorlage berücksichtigte sowohl globale Geschäftsregeln als auch lokale Vorschriften.
Akgonul, der selbst Türke ist, konnte beim Betrachten des Ergebnisses einige Fehler erkennen. Deshalb wird der Mensch gebraucht; Aber es steht außer Frage, dass die Erzeugung von KI und die Zustimmung des Menschen viel schneller zu sein schienen, als es die menschliche Erzeugung, gefolgt von der Zustimmung des Menschen, jemals sein könnte.
Das habe ich von jedem Pega-Manager gehört, den ich dazu befragt habe. Ja, die Genehmigung wird einige Zeit in Anspruch nehmen und Unternehmen müssen eine Governance einführen – „vorschreibende Best Practices“, wie Schuerman es ausdrückt –, um sicherzustellen, dass je nach Risikoniveau das richtige Maß an Governance angewendet wird.
Für das Marketing in seiner im Wesentlichen kundenorientierten Rolle dürfte dieser Steuerungsgrad hoch sein. Die Hoffnung und das Versprechen ist jedoch, dass die KI-gesteuerte Automatisierung die Dinge immer noch besser und schneller erledigen wird.
Holen Sie sich MarTech! Täglich. Frei. In Ihrem Posteingang.
Siehe Bedingungen.
Ähnliche Beiträge
Neu bei MarTech