Mitigar los riesgos de la IA generativa poniendo a un humano en el circuito
Publicado: 2023-06-21“No existe un caso de uso sostenible para la IA malvada”.
Así fue como el Dr. Rob Walker, un experto acreditado en inteligencia artificial y vicepresidente de análisis y toma de decisiones de Pega, resumió una mesa redonda sobre la IA no autorizada en la conferencia PegaWorld iNspire la semana pasada.
Había explicado la diferencia entre algoritmos opacos y transparentes. En un extremo del espectro de IA, los algoritmos opacos funcionan a alta velocidad y con altos niveles de precisión. El problema es que en realidad no podemos explicar cómo hacen lo que hacen. Eso es suficiente para hacerlos más o menos inútiles para tareas que requieren responsabilidad, por ejemplo, tomar decisiones sobre solicitudes de préstamos o hipotecas.
Los algoritmos transparentes, por otro lado, tienen la virtud de la explicabilidad. Simplemente son menos confiables. Es como una elección, dijo, entre tener un curso de tratamiento médico recetado por un médico que puede explicárselo, o una máquina que no puede explicarlo pero es más probable que sea correcto. Es una elección, y no fácil.
Pero al final del día, entregar todas las decisiones a las herramientas de IA más poderosas, con el riesgo de que se vuelvan deshonestas, no es, de hecho, sostenible.
En la misma conferencia, el CTO de Pega, Don Schuerman, habló sobre una visión para el "piloto automático", una solución impulsada por IA para ayudar a crear la empresa autónoma. “Mi esperanza es que tengamos alguna variación en 2024. Creo que requerirá gobernanza y control”. De hecho lo hará: pocos de nosotros, por ejemplo, queremos abordar un avión que solo tiene piloto automático y ningún humano en el circuito.
El humano en el bucle
Mantener a un ser humano informado fue un mantra constante en la conferencia, lo que resaltó el compromiso de Pega con la IA responsable. Ya en 2017, lanzó el "T-Switch" de Pega, que permite a las empresas aumentar o disminuir el nivel de transparencia en una escala móvil para cada modelo de IA. “Por ejemplo, es de bajo riesgo usar un modelo opaco de aprendizaje profundo que clasifica las imágenes de marketing. Por el contrario, los bancos bajo regulaciones estrictas para prácticas justas de préstamos requieren modelos de IA altamente transparentes para demostrar una distribución justa de las ofertas de préstamos”, explicó Pega.
Sin embargo, la IA generativa conlleva un nivel de riesgo completamente diferente, sobre todo en las funciones orientadas al cliente, como el marketing. En particular, realmente no le importa si está diciendo la verdad o inventando cosas ("alucinando"). En caso de que no quede claro, estos riesgos surgen con cualquier implementación de IA generativa y no son específicos de ninguna solución de Pega.
“Está prediciendo lo que es más probable y plausible y lo que queremos escuchar”, explicó el director de Pega AI Lab, Peter van der Putten. Pero eso también explica el problema. “Podría decir algo y luego ser extremadamente bueno proporcionando explicaciones plausibles; también puede retroceder”. En otras palabras, puede volver con una respuesta diferente, quizás mejor, si se establece la misma tarea dos veces.
Justo antes de PegaWorld, Pega anunció 20 "impulsores" generados por IA generativa, incluidos chatbots de IA de generación, flujos de trabajo automatizados y optimización de contenido. “Si observa detenidamente lo que lanzamos”, dijo Putten, “casi todos tienen un humano en el circuito. Alta rentabilidad, bajo riesgo. Ese es el beneficio de crear productos impulsados por IA de generación en lugar de brindar a las personas acceso a la tecnología de IA generativa genérica”.
Pega GenAI, entonces, proporciona herramientas para lograr tareas específicas (con grandes modelos de lenguaje ejecutándose en segundo plano); no es solo un lienzo vacío que espera indicaciones humanas.
Para algo como un chatbot asistido por IA de generación, la necesidad de un humano en el circuito es lo suficientemente clara. “Creo que pasará un tiempo antes de que muchas empresas se sientan cómodas poniendo un chatbot de modelo de lenguaje grande directamente frente a sus clientes”, dijo Schuerman. “Cualquier cosa que genere la IA generativa, quiero que un humano lo mire antes de ponerlo frente al cliente”.
Cuatro millones de interacciones al día
Pero poner a un humano en el circuito plantea preguntas sobre la escalabilidad.
Finbar Hage, vicepresidente de digital de la empresa holandesa de servicios financieros y de panadería Rabobank, dijo en la conferencia que el Customer Decision Hub de Pega procesa 1500 millones de interacciones por año para ellos, o alrededor de cuatro millones por día. El trabajo del centro es generar recomendaciones de la siguiente mejor acción, creando un recorrido del cliente en tiempo real y sobre la marcha. La siguiente mejor acción podría ser, por ejemplo, enviar un correo electrónico personalizado, y la IA de generación ofrece la posibilidad de crear dichos correos electrónicos casi al instante.
Cada uno de esos correos electrónicos, se sugiere, debe ser aprobado por un humano antes de ser enviado. ¿Cuántos correos electrónicos son esos? ¿Cuánto tiempo deberán asignar los especialistas en marketing para aprobar el contenido generado por IA?
Quizás sea más manejable el uso de Pega GenAI para crear documentos comerciales complejos en una amplia gama de idiomas. En su discurso de apertura, el director de productos, Kerim Akgonul, demostró el uso de la IA para crear un flujo de trabajo complejo, en turco, para una solicitud de préstamo. La plantilla tuvo en cuenta las reglas comerciales globales, así como la regulación local.
Mirando el resultado, Akgonul, que es turco, pudo ver algunos errores. Por eso se necesita lo humano; pero no hay duda de que la generación de IA más la aprobación humana parecía mucho más rápida de lo que podría ser la generación humana seguida de la aprobación humana.
Eso es lo que escuché de cada ejecutivo de Pega a quien pregunté sobre esto. Sí, la aprobación tomará tiempo y las empresas deberán implementar la gobernanza, "mejores prácticas prescriptivas", en palabras de Schuerman, para garantizar que se aplique el nivel correcto de gobernanza, dependiendo de los niveles de riesgo.
Para el marketing, en su función esencialmente orientada al cliente, es probable que ese nivel de gobierno sea alto. Sin embargo, la esperanza y la promesa es que la automatización impulsada por la IA seguirá haciendo las cosas mejor y más rápido.
¡Consigue MarTech! A diario. Gratis. En tu bandeja de entrada.
Ver términos.
Historias relacionadas
Nuevo en MarTech