I pericoli di ChatGPT: ottimo strumento di personalizzazione o ottima tecnologia di phishing?
Pubblicato: 2023-02-28ChatGPT di OpenAI ha preso d'assalto il mondo.
A parte i milioni di persone che l'hanno già provato, i fornitori di servizi di posta elettronica (ESP) lo stanno addestrando utilizzando i dati della campagna per produrre oggetti e contenuti di posta elettronica altamente efficaci.
Gli utenti di Salesforce stanno esplorando come ChatGPT può creare formule e regole di convalida. E Microsoft lo ha ora incorporato nel suo motore di ricerca Bing: si parla già di questo come potenziale "Google killer!"
Quindi, come funziona la nuova tecnologia?
ChatGPT (Generative Pre-trained Transformer) utilizza tecniche di deep learning per elaborare terabyte di dati Web (contenentimiliardidi parole) per creare risposte a richieste o domande degli utenti.
Le interazioni sono come parlare con una persona. Molti affermano che ChatGPT è la prima applicazione AI a superare il test di Turing, il che significa che mostra un comportamento intelligente equivalente o indistinguibile da un essere umano.
Abbiamo già visto alcuni casi d'uso accattivanti:
- Il quotidiano britannico Times ha utilizzato ChatGPT per scrivere il suo editoriale quotidiano , quindi ha chiesto ai lettori di identificare quali contenuti erano stati creati da una macchina. La maggior parte non potrebbe!
- Il rivenditore online di biglietti d'auguri Moonpig sta prendendo in considerazione l'integrazione di ChatGPT nei suoi sistemi. I clienti possono chiedergli di generare un messaggio o una poesia personalizzati senza doversi grattare la testa per trovare le parole giuste.
ChatGPT consente l'innovazione e la produttività che potrebbero essere un punto di svolta, rivaleggiando con la creazione del Web stesso. Ma ogni moneta ha due facce. C'è un potenziale lato oscuro di questa nuova tecnologia?
Diamo un'occhiata a come ChatGPT potrebbe creare nuove opportunità sia per gli aggressori che per i difensori della sicurezza informatica.
Migliori tentativi di phishing
I ricercatori stanno già vedendo il codice generato dall'intelligenza artificiale pubblicato nei forum sul crimine informatico . Un caso d'uso di ChatGPT dal "lato oscuro" è lo spear phishing: truffe via e-mail mirate intenzionalmente a individui, organizzazioni o aziende specifiche. Utilizzando questa tattica, i truffatori possono rubare dati per scopi dannosi o installare malware su computer mirati.
In un esempio tipico, il personale di un'azienda potrebbe ricevere un'e-mail dal proprio "CEO", con una richiesta urgente di contribuire a un documento collegato o di leggere un allegato. Il nome familiare abbinato a una richiesta che normalmente potrebbero aspettarsi aumenta la plausibilità e la loro probabilità di rispondere.
In effetti, è del tutto possibile che il recente attacco ransomware di Royal Mail sia iniziato con un'e-mail di spear phishing.
Poiché ChatGPT può produrre contenuti nello stile di una persona nominata, le e-mail di spear phishing diventeranno presto ancorapiùconvincenti. I truffatori possono ora richiedere contenuti che suonano come il CEO dell'obiettivo, rendendo il messaggio ancora più realistico e massimizzando le possibilità che i dipendenti ci cadano.
Ingegneria antisociale
ChatGPT potrebbe anche migliorare altre forme di frode di impersonificazione, specialmente nei casi in cui è necessario stabilire la fiducia.
Utilizzando ChatGPT, i truffatori possono presentarsi in modo più convincente come impiegati di banca, agenti di polizia, funzionari fiscali (che dicono alle vittime di avere una bolletta in sospeso) o rappresentanti di fornitori di servizi (che affermano che i router delle vittime sono stati violati e hanno bisogno dell'accesso remoto al proprio computer per fissare il problema).
Un esempio sempre più comune riguarda i messaggi di amici o familiari che sono "all'estero". Di solito dicono che il portafoglio e il telefono sono stati rubati e che qualcuno ha prestato loro un altro telefono per richiedere fondi di emergenza.
La morte del contenuto originale
Molti educatori sono estremamente preoccupati che ChatGPT significhi che gli studenti non avranno mai bisogno di scrivere un altro saggio.
Alcuni lo hanno già messo alla prova , inviando articoli generati dall'intelligenza artificiale e ricevendo voti positivi credibili (a condizione che stiano bene senza essere i primi della classe). Gli educatori sono seriamente preoccupati che l'intelligenza artificiale porti a imbrogli di massa e alcune scuole si stanno già allontanando dai compiti a casa in risposta.
Preoccupazioni relative alla privacy
ChatGPT potrebbe sapere quale pianeta è stato fotografato per la prima volta dal telescopio spaziale Webb (era HIP 65426 b). Ma il modo in cui questi dati sono stati reperiti potrebbe entrare in conflitto con le leggi sulla privacy emergenti come il Regolamento generale sulla protezione dei dati (GDPR) e il California Consumer Privacy Act (CCPA).
Il caso Clearview AI , in cui è stato creato un database di riconoscimento facciale utilizzando lo scraping di immagini, si è concluso con multe multimilionarie da parte di una sezione trasversale paneuropea di regolatori.
Il modo in cui funziona ChatGPT non è del tutto lo stesso, più simile a un frullatore per dati, in cui gli ingredienti originali non sono più riconoscibili. Ma ci sarà ancora la questione se le personeintendanoche i loro dati vengano utilizzati in questo modo.
La violazione del copyright è uno scenario più probabile. Negli Stati Uniti è stata intentata un'azione legale collettiva contro Stability AI, lo sviluppatore del generatore di arte AI Stable Diffusion. I pubblici ministeri hanno denunciato la violazione dei diritti dei proprietari dell'immagine originale.
E Getty Images, la libreria di foto e arte con sede nel Regno Unito, afferma che farà causa anche a Stable Diffusion per aver utilizzato le sue immagini senza licenza.
GPT = Proteggiti oggi stesso
Sebbene questi scenari possano sembrare un po' apocalittici, esistono best practice consolidate che possono essere utilizzate come misure di salvaguardia:
- La vigilanza è sempre la prima linea di difesa. Le banche e i funzionari di polizia non chiederanno mai i dettagli della carta, i PIN o le password dell'internet banking. Quindi, sii molto scettico su eventuali richieste simili.
- Quando ricevi un'e-mail, controlla i dati che solo un mittente legittimo avrebbe. Questo è il motivo per cui le banche spesso includono i codici postali nei loro messaggi. Anche l'uso degli indicatori di marca per l'autenticazione dei messaggi (BIMI) svolgerà un ruolo chiave in questo caso, poiché il protocollo di autenticazione sottostante (DMARC) conferma che l'e-mail proviene da un mittente verificato.
- Al lavoro, implementa regole per evidenziare le email provenienti dall'esterno della tua organizzazione. Un'e-mail che afferma di provenire dal tuo CEO ma preceduta da "Esterno" sarebbe una bandiera rossa immediata.
Come identificare i contenuti creati dall'intelligenza artificiale
Stiamo anche assistendo all'emergere di nuove tattiche per aiutare a identificare i contenuti creati dall'intelligenza artificiale. Ad esempio, strumenti come GPTZero sono stati sviluppati per aiutare insegnanti e docenti a determinare se i saggi dei loro studenti sono scritti da una macchina.
Inoltre, ci sono previsioni secondo cui OpenAI inserirà una filigrana nel testo proveniente da ChatGPT.
Gli individui diventeranno anche più creativi su come proteggere i dati che potrebbero essere utilizzati dall'IA generativa. C'è una famosa storia sulla rock band Van Halen che chiedeva ciotole di M&M con quelle marroni rimosse come parte dei loro requisiti per i concerti. I critici li hanno accusati di aver dato loro alla testa la fama. Quindi, il loro cantante David Lee Roth ha spiegato che questo era per garantire che i loro contratti con i promotori di eventi (con requisiti di sicurezza significativi) fossero stati letti completamente.
È del tutto possibile che le persone inizino a seminare "fatti" errati su se stessi sul Web (in modo simile a come i fornitori di antispam implementano trappole di spam incontaminate).
Ad esempio, potrei dichiarare in un blog che sono cresciuto in Australia. (In realtà era il Sudafrica.) Chiunque mi conosca saprà che il riferimento australiano non è vero, e sarebbe una bandiera rossa se fosse successivamente utilizzato nei contenuti su di me!
L'intelligenza artificiale è ancora una forza positiva
Nonostante le preoccupazioni che ho delineato in questo post, l'impatto complessivo di questa rivoluzione dell'IA dovrebbe essere straordinariamente positivo.
È paragonabile ad altre invenzioni critiche come l'automobile e il computer. I posti di lavoro cambieranno (così cambieranno le vite), ma ne emergeranno di nuovi, specialmente nei campi relativi allo sviluppo e alla distribuzione dell'IA. Forse la cosa più importante è che la produttività aumenterà.
Vuoi ascoltare le nostre previsioni su come l'IA generativa servirà il mondo del marketing? Dai un'occhiata al nostro recente webinar State of Email Live in cui approfondiamo queste opportunità.
E in risposta alla tua domanda non posta, no, non ho usato ChatGPT per scrivere questo articolo!