Los peligros de ChatGPT: ¿Gran herramienta de personalización o Gran tecnología de phishing?

Publicado: 2023-02-28

ChatGPT de OpenAI ha conquistado el mundo.

Además de los millones de personas que ya lo han probado, los proveedores de servicios de correo electrónico (ESP) lo están entrenando utilizando datos de campañas para producir líneas de asunto y contenido de correo electrónico altamente efectivos.

Los usuarios de Salesforce están explorando cómo ChatGPT puede crear fórmulas y reglas de validación. Y, Microsoft ahora lo ha incorporado en su motor de búsqueda Bing; ya se habla de que esto es un potencial "asesino de Google".

Entonces, ¿cómo funciona la nueva tecnología?

ChatGPT (Transformador preentrenado generativo) utiliza técnicas de aprendizaje profundo para procesar terabytes de datos web (que contienenmilesde millones de palabras) para crear respuestas a indicaciones o preguntas de los usuarios.

Las interacciones son como hablar con una persona. Muchos dicen que ChatGPT es la primera aplicación de IA que pasa la prueba de Turing, lo que significa que exhibe un comportamiento inteligente equivalente o indistinguible de un ser humano.

Ya hemos visto algunos casos de uso llamativos:

  • El periódico Times del Reino Unido usó ChatGPT para escribir su editorial diario y luego pidió a los lectores que identificaran qué contenido fue creado por una máquina. ¡La mayoría no pudo!
  • El minorista de tarjetas de felicitación en línea Moonpig está considerando integrar ChatGPT en sus sistemas. Los clientes pueden pedirle que genere un mensaje o poema personalizado sin tener que rascarse la cabeza para encontrar las palabras correctas.

ChatGPT permite la innovación y la productividad que podrían cambiar las reglas del juego, rivalizando con la creación de la web misma. Pero toda moneda tiene dos caras. ¿Existe un potencial lado oscuro en esta nueva tecnología?

Veamos cómo ChatGPT podría crear nuevas oportunidades tanto para los atacantes como para los defensores de la ciberseguridad.

Mejores intentos de phishing

Los investigadores ya están viendo código generado por IA publicado en foros de ciberdelincuencia . Un caso de uso de ChatGPT del "lado oscuro" es el phishing selectivo: estafas por correo electrónico dirigidas intencionalmente a personas, organizaciones o empresas específicas. Con esta táctica, los estafadores pueden robar datos con fines maliciosos o instalar malware en las computadoras objetivo.

En un ejemplo típico, el personal de una empresa podría recibir un correo electrónico de su "CEO", con una solicitud urgente para contribuir a un documento vinculado o leer un archivo adjunto. El nombre familiar junto con una solicitud que normalmente esperarían aumenta la plausibilidad y la probabilidad de que respondan.

De hecho, es muy posible que el reciente ataque de ransomware de Royal Mail haya comenzado con un correo electrónico de phishing selectivo.

Debido a que ChatGPT puede producir contenido al estilo de una persona nominada, los correos electrónicos de phishing selectivo serán aúnmásconvincentes pronto. Los estafadores ahora pueden solicitar contenido que suene como el CEO del objetivo, lo que hace que el mensaje sea aún más realista y maximiza la posibilidad de que los empleados caigan en la trampa.

ingeniería antisocial

ChatGPT también podría mejorar otras formas de fraude de suplantación de identidad, especialmente en los casos en los que se necesita establecer confianza.

Con ChatGPT, los estafadores pueden hacerse pasar de manera más convincente por empleados bancarios, policías, funcionarios de impuestos (que les dicen a las víctimas que tienen una factura pendiente) o representantes de proveedores de servicios (que afirman que los enrutadores de las víctimas han sido pirateados y necesitan acceso remoto a su computadora para solucionar el problema).

Un ejemplo cada vez más común involucra mensajes de amigos o familiares que están “en el extranjero”. Por lo general, dirán que les robaron la billetera y el teléfono, y que alguien les prestó otro teléfono para solicitar fondos de emergencia.

La muerte del contenido original

Muchos educadores están extremadamente preocupados de que ChatGPT signifique que los estudiantes nunca tendrán que escribir otro ensayo.

Algunos ya han puesto esto a prueba , enviando artículos generados por IA y recibiendo calificaciones de aprobación creíbles (siempre que estén de acuerdo con no ser los mejores de la clase). Los educadores están cada vez más preocupados de que la IA conduzca a trampas masivas, y algunas escuelas ya se están alejando de los ensayos de tarea en respuesta.

Preocupaciones sobre la privacidad

ChatGPT puede saber qué planeta fue fotografiado por primera vez por el telescopio espacial Webb (fue HIP 65426 b). Pero la forma en que se obtuvieron estos datos puede chocar con las leyes de privacidad emergentes, como el Reglamento general de protección de datos (GDPR) y la Ley de privacidad del consumidor de California (CCPA).

El caso Clearview AI , en el que se creó una base de datos de reconocimiento facial mediante el raspado de imágenes, terminó con multas multimillonarias por parte de una muestra representativa de reguladores paneuropeos.

La forma en que funciona ChatGPT no es del todo igual, más como una licuadora de alimentos para datos, donde los ingredientes originales ya no son reconocibles. Pero aún quedará la cuestión de si las personastenían la intenciónde que sus datos se usaran de esta manera.

La infracción de derechos de autor es un escenario más probable. En los Estados Unidos, se presentó una demanda colectiva contra Stability AI, el desarrollador del generador de arte AI Stable Diffusion. Los fiscales alegaron una infracción de los derechos de los propietarios originales de la imagen.

Y Getty Images, la biblioteca de fotografía y arte con sede en el Reino Unido, dice que también demandará a Stable Diffusion por usar sus imágenes sin licencia.

GPT = Protéjase hoy

Si bien estos escenarios pueden parecer un poco apocalípticos, existen mejores prácticas establecidas que se pueden usar como salvaguardas:

  • La vigilancia es siempre la primera línea de defensa. Los bancos y los oficiales de policía nunca le pedirán detalles de la tarjeta, PIN o contraseñas de banca por Internet. Por lo tanto, sea muy escéptico ante cualquier solicitud similar.
  • Al recibir un correo electrónico, verifique los datos que solo tendría un remitente legítimo. Esta es la razón por la que los bancos suelen incluir códigos postales como parte de sus mensajes. El uso de indicadores de marca para la autenticación de mensajes (BIMI) también desempeñará un papel clave aquí, ya que el protocolo de autenticación subyacente (DMARC) confirma que el correo electrónico proviene de un remitente verificado.
  • En el trabajo, implemente reglas para resaltar los correos electrónicos de fuera de su organización. Un correo electrónico que afirme ser de su director ejecutivo pero que tenga como prefacio "Externo" sería una señal de alerta inmediata.

Cómo identificar contenido creado por IA

También estamos viendo surgir nuevas tácticas para ayudar a identificar el contenido creado por IA. Por ejemplo, se desarrollaron herramientas como GPTZero para ayudar a los profesores y profesores a determinar si los ensayos de sus alumnos fueron escritos por máquina.

Además, hay predicciones de que OpenAI insertará una marca de agua en el texto procedente de ChatGPT.

Las personas también se volverán más creativas sobre cómo protegen los datos que podrían usar las IA generativas. Hay una historia famosa sobre la banda de rock Van Halen que exige tazones de M&M sin los marrones como parte de los requisitos de su concierto. Los críticos los acusaron de dejar que la fama se les subiera a la cabeza. Luego, su cantante David Lee Roth explicó que esto era para asegurarse de que sus contratos con los promotores de eventos (con importantes requisitos de seguridad) se hubieran leído en su totalidad.

Es muy posible que las personas comiencen a sembrar "datos" incorrectos sobre sí mismos en la web (similar a cómo los proveedores de antispam implementan trampas de spam prístinas).

Por ejemplo, podría decir en un blog que me crié en Australia. (En realidad, fue Sudáfrica). Cualquiera que me conozca sabrá que la referencia australiana no es cierta, ¡y sería una señal de alerta si se usara posteriormente en contenido sobre mí!

La IA sigue siendo una fuerza para el bien

A pesar de las preocupaciones que describí en esta publicación, el impacto general de esta revolución de la IA debería ser abrumadoramente positivo.

Es comparable a otras invenciones críticas como el automóvil y la computadora. Los trabajos cambiarán (también lo harán las vidas), pero surgirán nuevos, especialmente en campos relacionados con el desarrollo y la implementación de IA. Quizás lo más importante, la productividad aumentará.

¿Quiere escuchar nuestras predicciones sobre cómo la IA generativa servirá al mundo del marketing? Consulte nuestro reciente seminario web sobre el estado del correo electrónico en vivo , en el que profundizamos en estas oportunidades.

Ver el seminario web

Y en respuesta a su pregunta no formulada, no, ¡no usé ChatGPT para escribir este artículo!