7 problemi comuni che fanno deragliare il successo dei test di posta elettronica A/B/n
Pubblicato: 2022-03-30Ogni volta che inizio a lavorare con nuovi clienti che affrontano grossi problemi con il loro email marketing, una delle prime cose che rivedo è il modo in cui conducono i loro test di posta elettronica.
Il test A/B/n è il modo migliore che conosco per strutturare campagne efficaci e per misurare se le strategie e le tattiche e-mail di un marchio stanno avendo successo o meno. Ma troppo spesso, i team faticano a impostare correttamente i test e misurare i risultati in modo accurato. Ciò di solito porta a esperimenti di posta elettronica inefficaci e scarsi risultati.
Se il tuo programma di test è inaffidabile, non saprai se le strategie e le tattiche scelte funzionano o falliscono. Non incolpare il canale di posta elettronica stesso se i tuoi sforzi di posta elettronica non forniscono i risultati di cui hai bisogno. Invece, guarda come testare e misurare i risultati.
Ricevi la newsletter quotidiana su cui fanno affidamento i marketer digitali.
Vedi termini.
7 problemi di test comuni e come risolverli
Questi affiorano più spesso nel mio lavoro con i clienti. Le soluzioni ad alcune di queste sfide richiederanno un cambio di mentalità totale. Per altri, il solo apprendimento del modo corretto per impostare i test può risolvere molti dei tuoi problemi attuali.
Questa è la parte buona dei test. Per ogni problema, c'è un modo per correggerlo. Ogni volta che risolvi un problema tramite test, fai un altro passo avanti per mettere il tuo programma di posta elettronica sulla strada giusta.
1. Test senza ipotesi
Molti e-mail marketer raccolgono i rudimenti dei test utilizzando gli strumenti forniti loro dai loro ESP, principalmente per impostare test divisi A/B di base su funzionalità semplici come le righe dell'oggetto.
Tuttavia, questo approccio ad hoc, una tantum, è come imparare a guidare un'auto senza saper leggere una mappa. Puoi accendere l'auto bene. Ma hai bisogno di abilità di mappatura per pianificare un viaggio che ti porti dove vuoi andare con il minor numero di ingorghi e deviazioni.
Sì, puoi lasciare che Google Maps si occupi della pianificazione per te. Ma tutti i dati - ciò che fornisci e ciò che estraggono da altre fonti - devono essere allineati correttamente. Se digiti la destinazione sbagliata o guidi in una zona morta, potresti finire a miglia di distanza da dove vorresti essere.
Questo è ciò che accade al tuo programma di posta elettronica quando non esegui il test o esegui il test in modo errato. La tua ipotesi è la tua road map per i test. Descrive ciò che pensi possa accadere e guida le tue scelte per variabili, segmenti di test, metriche di successo e persino come utilizzare i risultati.
2. Utilizzo del calcolo di conversione errato
Ciò riguarda il percorso del cliente e l'obiettivo del test.
Quando esegui uno split test A/B standard su una pagina di destinazione di un sito Web, utilizzi spesso "transazioni/sessioni web" come calcolo delle conversioni per vedere quanto sta convertendo la pagina. Questo ha senso perché non conosci il percorso seguito dai tuoi clienti per arrivarci sul sito, quindi ti concentri su questa particolare parte del viaggio, poiché ignora tutto ciò che accade prima.
Nelle e-mail, conosciamo il percorso seguito dai nostri clienti per passare dall'e-mail alla pagina di destinazione. Li mettiamo su di esso e vogliamo ottimizzarlo. Vogliamo capire quanto bene sia stata convertita la nostra e-mail, quindi dobbiamo utilizzare "transazioni/e-mail consegnate" per calcolare la nostra conversione. Questo prende in considerazione l'intero percorso dell'e-mail e non si limita a guardare la conversione della pagina di destinazione.
Come puoi vedere in questi due esempi di client, la conversione è seguita con ciò che significavano le aperture e i clic. Gli esperti di marketing utilizzano il calcolo delle "sessioni/acquisti della pagina" per vanità poiché produce una percentuale più alta. Tuttavia, significa che potresti ottimizzare per il risultato sbagliato.
Test dei segmenti tramite campagne business-as-usual

Test di programmi automatizzati

3. Misurare il successo con le metriche sbagliate
Un piano di test praticabile necessita di metriche pertinenti per misurare il successo in modo accurato. Le metriche sbagliate possono gonfiare o sgonfiare i tuoi risultati. Questo, a sua volta, può indurre in errore l'ottimizzazione per la variante perdente invece del vincitore.
Il tasso di apertura, ad esempio, è stata una metrica di successo popolare da quando abbiamo imparato a utilizzarla nei primi giorni dell'e-mail HTML. Ma è una metrica imperfetta e inaffidabile, soprattutto ora che la funzione di protezione della privacy della posta di Apple maschera il vero tasso di apertura di una campagna. Ma anche se le aperture fossero sempre accurate, il tasso di apertura non è ancora necessariamente la metrica giusta.
I clic, ad esempio, sono una misura di coinvolgimento più accurata, ma non rivelano quanto denaro ha generato la tua campagna. Se il tuo obiettivo è solo quello di ottenere clic, vai avanti e utilizza la percentuale di clic. Ma se vieni ricompensato con le entrate della campagna, devi utilizzare una metrica delle entrate come il numero di acquisti o il valore del carrello.
4. Test senza significatività statistica
Se i risultati del test sono statisticamente significativi, significa che le differenze tra i gruppi di test (il gruppo di controllo, che era invariato, e il gruppo che ha ricevuto una variabile, come un invito all'azione o un oggetto diverso) non si sono verificati a causa di caso, errore o eventi non contati.
Avere un numero limitato di risultati può eliminare i test di significatività, sia perché potresti testare solo una frazione della tua popolazione o perché il test non è stato eseguito abbastanza a lungo per generare risultati sufficienti. Ecco perché i test dovrebbero durare il più a lungo possibile (per le automazioni) e raggiungere una dimensione del campione statisticamente significativa (per le campagne).
La maggior parte dei test utilizza un fattore di significatività del 5%. Ciò significa che la tua variabile ha fatto la differenza in almeno 95 risultati su 100 nel tuo test e i restanti cinque risultati potrebbero essere casuali.
Risultati che non sono statisticamente significativi possono portarti a trarre conclusioni sbagliate e a interpretare erroneamente sia i risultati del test che i risultati della tua campagna. Raggiungere una significatività statistica del 95% indica un rischio del 5% di concludere che esiste una differenza quando non vi è alcuna differenza effettiva.


Tutto ciò che devi sapere sulla consegna dell'email marketing che i tuoi clienti desiderano e che le caselle di posta non si bloccheranno. Ottieni la tavola periodica dell'email marketing di MarTech.
Clicca qui per controllare!
5. Fermarsi con un test
Il filosofo Eraclito disse: "Nessun uomo cammina mai due volte nello stesso fiume, perché non è lo stesso fiume e non è lo stesso uomo".
Lo stesso vale per le tue campagne email. La tua base di iscritti guadagna sempre nuovi iscritti e perde quelli vecchi, e i clienti non reagiscono allo stesso modo ogni volta a ogni campagna. Una campagna che ha funzionato bene una volta potrebbe fallire quella successiva.
Se esegui un solo test e poi applichi i risultati a tutte le campagne future, perderai questi cambiamenti sottili ma importanti. Ecco perché devi eseguire i test in ogni campagna, testando tutto più di una volta per escludere anomalie.
Questo ti darà le tendenze che puoi consultare per apprendere verità generali sul tuo pubblico e indicare importanti cambiamenti negli atteggiamenti e nel comportamento. Usali per mettere a punto o rivedere gli approcci delle tue campagne.
6. Testare solo un elemento in una campagna
Il test della riga dell'oggetto è onnipresente, principalmente perché molte piattaforme di posta elettronica creano test di divisione della riga dell'oggetto A/B nelle loro piattaforme. È un ottimo inizio, ma ti dà solo una parte dell'immagine e spesso è fuorviante. Una linea dell'oggetto vincente che viene misurata sul tasso di apertura non sempre prevede una campagna che raggiunge gli obiettivi.
Questo è uno dei motivi per cui ho sviluppato la pratica chiamata Holistic Testing, che va oltre i test a canale singolo, una tantum e a variabile singola.
Ecco un esempio di un'ipotesi basata sulla motivazione che potresti utilizzare come parte di un test olistico. Denomina la metrica appropriata (conversioni) e incorpora fattori relativi alla copia come righe dell'oggetto, intestazioni, blocchi di copia, inviti all'azione e persino pagine di destinazione:
"La copia dell'avversione alla perdita genererà più conversioni rispetto alla copia basata sui vantaggi perché numerosi studi hanno dimostrato che le persone odiano perdere più di quanto si divertano a trarne vantaggio".
Finché le modifiche alle variabili supportano l'ipotesi, quindi, utilizzando più variabili, si rende il test più robusto. La differenza tra questo e un test multivariato è che tutte le variabili supportano l'ipotesi e quando viene annunciato il vincitore, possiamo applicare ciò che abbiamo imparato.
7. Non utilizzare ciò che hai imparato per migliorare la posta elettronica
Non testiamo per vedere cosa succede in una singola campagna o soddisfare la curiosità. Testiamo per scoprire come funzionano i nostri programmi e cosa li migliorerà, ora e a lungo termine. Testiamo per determinare se stiamo spendendo soldi per cose che ci aiutano a raggiungere i nostri obiettivi.
Testiamo per scoprire tendenze e cambiamenti nel nostro pubblico che possiamo applicare su altri canali di marketing, perché il nostro pubblico di posta elettronica è la nostra popolazione di clienti in un microcosmo. Non lasciare che i risultati dei test languiscano nella tua piattaforma di posta elettronica o in un taccuino del team.
Un piano d'azione per testare per perfezionare una campagna e-mail sarebbe simile al seguente:
1. Sviluppa un'ipotesi che indichi cosa ti aspetti di vedere e perché e come misurerai il successo.
2. Riportare i risultati accuratamente seguendo il piano di test stabilito.
3. Scegli le metriche pertinenti che misurano i risultati (conversioni, entrate, download, registrazioni, processi completati e simili).
4. Impostare una durata del test (se un'automazione) o il numero di test da eseguire (se una campagna) per generare risultati sufficienti per superare test significativi.
5. Analizza i risultati, scrivi la conclusione e consiglia le campagne future.
6. Metti in pratica i risultati, sia all'interno del tuo programma di email marketing che in altri canali, se del caso.
7. Perfezionare e ripetere il processo di test per migliorare e continuare il ciclo di test, analisi e implementazione.
Leggi il prossimo: Il test A/B è morto?
Il test è più importante che mai. Siete pronti?
La pandemia di COVID-19 ha ribaltato la conoscenza dei nostri clienti da parte degli operatori di email marketing. Nel 2020 avevamo bisogno di test per rilevare ciò che i clienti volevano e cosa è cambiato e cosa è rimasto lo stesso nelle loro risposte alle nostre campagne.
La pandemia si sta allontanando in molte aree ma minaccia di aumentare di nuovo in altre. I test ci aiuteranno a stare al passo con i nuovi cambiamenti e a mettere subito in pratica queste informazioni. Ciò mantiene i nostri programmi di posta elettronica pertinenti e apprezzati per i clienti e aumenta il profilo della posta elettronica come strumento affidabile per aiutare le nostre aziende a raggiungere il successo.
Ho accennato in precedenza che il tuo database di posta elettronica è un microcosmo della tua base di clienti. Risultati accurati dei test possono svelare cambiamenti nel pensiero e nella motivazione dei clienti che puoi utilizzare per testare e aggiornare i tuoi social media, il tuo sito Web, il marketing via SMS e persino offline nel marketing diretto.
Non riesco a pensare a nessun altro strumento nel kit di marketing che sia più versatile, conveniente e adattabile dell'e-mail. Test accurati e aggiornati mantengono brillante e nuovo questo vecchio strumento affidabile.
Le opinioni espresse in questo articolo sono quelle dell'autore ospite e non necessariamente di MarTech. Gli autori dello staff sono elencati qui.