UX Design

A/B Test: cosa sono, come farli e perché sono importanti

7 Marzo 2023

9 min lettura

L’A/B Test è un’arte ed una scienza allo stesso tempo. In questo articolo scoprirai i segreti dei grandi tester e come poter utilizzare le loro strategie per aumentare le prestazioni del tuo prodotto. Ormai testare è diventato un mantra. Nasce nell’ambito delle startup per poi diventare virale nel mondo dell’Adv. Adesso, l’A/B Testing si vuole […]

Daniele Lunassi

L’A/B Test è un’arte ed una scienza allo stesso tempo.

In questo articolo scoprirai i segreti dei grandi tester e come poter utilizzare le loro strategie per aumentare le prestazioni del tuo prodotto.

Ormai testare è diventato un mantra.

Nasce nell’ambito delle startup per poi diventare virale nel mondo dell’Adv. Adesso, l’A/B Testing si vuole prendere il mondo della UX Design.

Ormai tutti i designer sanno che testare il prodotto è un passo essenziale prima del suo rilascio all’utente.

Ma il testing non si ferma con il lancio del prodotto, deve essere costante fino a che il prodotto non diventi perfetto.

Cos’è un AB test?

Quando si parla di A/B Test si intende una metodologia in cui vengono create due versioni differenti di un sito, app o advertising, per poi andare a confrontare le performance di ciascuna versione per individuare quella più performante.

É una metodologia di sperimentazione utilizzata per confrontare due versioni di un elemento, come ad esempio una pagina web o una campagna pubblicitaria.

Cosa vuol dire fare A B testing?

L’obiettivo di un AB test è quello di determinare quale versione funziona meglio in termini di raggiungimento degli obiettivi prefissati.

Per esempio, supponiamo di avere due diverse versioni di una pagina web: la versione A e la versione B.

Si vuole determinare quale versione generi un maggiore tasso di conversione (per esempio, un maggiore numero di vendite o di iscrizioni alla newsletter).

In un AB test, i visitatori del sito web vengono casualmente assegnati alla versione A o alla versione B.

Successivamente, vengono monitorati i risultati e i dati raccolti vengono analizzati per determinare quale versione ha generato il miglior risultato in termini di obiettivi prefissati.

L’AB test è un metodo molto efficace per migliorare le prestazioni di un sito web o di altre iniziative di marketing.

Consentendo di testare e confrontare diverse versioni, può aiutare a ottimizzare il design e migliorare la user experience, aumentando il tasso di conversione e il successo delle campagne pubblicitarie.

A/B Test: cosa sono, come farli e perché sono importanti

A cosa serve a/b test?

Il test A/B consente di valutare in modo obiettivo e scientifico l’efficacia delle diverse versioni di un elemento, confrontandole su una base statistica solida.

Ciò significa che i risultati dell’AB test sono basati sui dati e sui comportamenti reali degli utenti, piuttosto che sulle supposizioni o le intuizioni.

Grazie all’AB test, è possibile ottimizzare la user experience dei prodotti che noi UX Designer progettiamo.

Un altro esempio può essere testare l’efficacia di diverse versioni di una landing page per aumentare il tasso di conversione dei visitatori in clienti, oppure testare l’efficacia di diversi oggetti di una email marketing per aumentare il tasso di apertura e di click.

In sostanza, l’AB test è uno strumento molto potente per migliorare le prestazioni di un sito web o di altre iniziative di marketing, consentendo di testare e confrontare diverse versioni per trovare quella più efficace e di ottimizzare il design e l’esperienza utente in base ai dati raccolti.

Quali sono i vantaggi dell’a/b testing?

L’AB testing è uno strumento molto utile per i brand che vogliono migliorare le prestazioni del loro sito web o delle loro iniziative di marketing, permettendo di testare diverse versioni e di ottimizzare il design e l’esperienza utente in base ai dati raccolti, riducendo il rischio e migliorando i risultati.

Ci sono diversi vantaggi per un brand nel fare dell’AB testing:

  1. Miglioramento dell’esperienza utente: l’AB testing consente di testare diverse versioni di un elemento per determinare quale sia la più efficace in termini di user experience. Questo può aiutare a migliorare l’esperienza utente del sito web o dell’applicazione, aumentando il coinvolgimento e la fidelizzazione degli utenti.
  2. Ottimizzazione delle prestazioni: l’AB testing consente di confrontare due o più versioni di un elemento, come una pagina web o una campagna pubblicitaria, e determinare quale versione funziona meglio in termini di raggiungimento degli obiettivi prefissati. In questo modo, è possibile ottimizzare le prestazioni dell’elemento e migliorare i risultati.
  3. Riduzione del rischio: l’AB testing consente di testare diverse versioni di un elemento in modo controllato e basato sui dati, riducendo il rischio di errori costosi o di decisioni basate su intuizioni o supposizioni.
  4. Aumento della conversione: l’AB testing può aiutare a migliorare la conversione dei visitatori in clienti, aumentando il tasso di conversione delle pagine web o delle campagne pubblicitarie.
  5. Miglioramento del ROI: l’AB testing consente di determinare quale versione di un elemento ha il maggior impatto sui risultati, aumentando il ROI delle iniziative di marketing e consentendo di investire in modo più efficace i budget pubblicitari.

Come creare un test a/b?

Per creare un AB test efficace è necessario definire gli obiettivi, identificare gli elementi da testare, creare le versioni, definire il campione, eseguire l’AB test, analizzare i risultati e implementare la versione vincente.

Vediamo insieme gli step principali per creare un ab test di successo:

  1. Definizione degli obiettivi: in primo luogo, è necessario definire gli obiettivi dell’AB test. Ciò significa identificare cosa si vuole ottenere dall’AB test, ad esempio aumentare il tasso di conversione o migliorare l’esperienza utente. (tra poco scoprirai altre metriche di esempio)
  2. Identificazione degli elementi da testare: successivamente, è necessario identificare gli elementi da testare, ad esempio una pagina web, un’immagine o una call-to-action.
  3. Creazione delle versioni: per ogni elemento da testare, creare due o più versioni. Le versioni dovrebbero differire solo per l’elemento che si sta testando, in modo da rendere il confronto il più accurato possibile.
  4. Definizione del campione: definire il campione di utenti che parteciperanno all’AB test. Ciò può essere fatto utilizzando strumenti di segmentazione come la posizione geografica, l’età o il comportamento di navigazione.
  5. Esecuzione dell’AB test: eseguire l’AB test, presentando una versione dell’elemento a un gruppo di utenti e un’altra versione a un altro gruppo. Raccogliere i dati sulle prestazioni di ciascuna versione e confrontarli per determinare quale versione ha funzionato meglio.
  6. Analisi dei risultati: analizzare i dati raccolti durante l’AB test per determinare quale versione ha funzionato meglio in termini di raggiungimento degli obiettivi prefissati.
  7. Implementazione della versione vincente: implementare la versione vincente dell’elemento, in modo da migliorare le prestazioni del sito web o delle iniziative di marketing.

Come scegliere la variabile negli A/B Test

Se nella tua mente frulla la domanda “Ma su cosa faccio A/B Testing?”, andiamo subito a darti una risposta.

Innanzitutto, a livello di Design puoi fare A/B Test su:

  • Layout: per esempio cambiando la disposizione degli elementi, senza andare a modificare il contenuto degli elementi stessi.
  • Call to Action: la loro grandezza, il colore ed i micro-copy che si trovano all’interno.
  • Font: il tipo e la dimensione del font da usare sulle differenti pagine del tuo sito o app.
  • Immagini: qui si apre un abisso dovuto all’avvento del neuromarketing.

Ecco alcune domande che puoi porti per scoprire gli elementi delle immagini su cui puoi fare dei test:

  • Usare immagini di persone, di oggetti, animali, paesaggi o oggetti astratti?
  • Se ci sono le persone nell’immagine, quante devono essere?
  • Dove devono guardare le persone?
  • Qual è lo stato d’animo delle persone nell’immagine (felice, serio, triste, ecc.)?
  • Qual è il mix di persone che appaiono in un’immagine?
  • In quale posizione dovresti mettere l’immagine?
  • E la dimensione dell’immagine, come dovrebbe essere?
  • Colore immagine? La tonalità?

Come vedi, c’è un mondo dietro alle “semplici” immagini.

Quando invece si tratta di testi, prova a sperimentare focalizzandoti su:

  • Header: utile per capire quali sono i titoli che portano più click e che generano maggiore interesse nei tuoi utenti.
  • Copy: pensa a tutti i paragrafi presenti sul tuo sito (in particolare quelli sulle pagine di acquisto, di prodotto o di lead genereation), sono tutti terreni fertili per fare A/B Testing.

Puoi testare anche sui form presenti sul tuo prodotto.

Anche qui ti suggeriamo una serie di elementi che puoi prendere in considerazione:

  • Posizione del form
  • Design del form
  • Titolo del form
  • Sottotitolo
  • Numero di campi nel form
  • Numero di campi obbligatori
  • Il design della Call-to-Action del modulo
  • Dichiarazione sulla privacy

Questi sono solo alcuni esempi, sicuramente ti avranno dato qualche spunto interessante.

Come interpretare i risultati di un test A/B

Per interpretare correttamente i risultati di un test A/B è necessario definire l’obiettivo, misurare il livello di confidenza, confrontare i risultati, analizzare i dati e implementare la versione vincente.

  1. Definizione dell’obiettivo: identificare l’obiettivo del test A/B e misurare i risultati in base a tale obiettivo. Ad esempio, se l’obiettivo è aumentare il tasso di conversione, è necessario misurare il numero di conversioni ottenute da ciascuna versione dell’elemento.
  2. Misurazione del livello di confidenza: per determinare se i risultati del test A/B sono significativi, è necessario misurare il livello di confidenza. Il livello di confidenza indica la probabilità che i risultati del test A/B siano stati causati dalle differenze tra le versioni testate e non dal caso. Solitamente, un livello di confidenza del 95% o superiore è considerato accettabile.
  3. Confronto dei risultati: confrontare i risultati delle due versioni dell’elemento testato, ad esempio confrontando il tasso di conversione o il tempo di permanenza sulla pagina. Verificare quale versione ha ottenuto risultati migliori e determinare se tali risultati sono significativi dal punto di vista statistico.
  4. Analisi dei dati: analizzare i dati raccolti durante il test A/B per identificare eventuali fattori che potrebbero avere influenzato i risultati, ad esempio il momento della giornata o il tipo di pubblico.
  5. Implementazione della versione vincente: se i risultati del test A/B indicano che una delle versioni è significativamente migliore dell’altra, implementare tale versione.

17 KPI da monitorare per capire come sta andando il tuo A/B test

“Ma come faccio a capire cosa funzione e cosa no?”

Ecco a te 17 KPI (Key Performance Indicators) da tenere d’occhio quando vuoi capire se il tuo A/B Test sta andando come speravi.

Le abbiamo suddivise per tipologia, in questo modo puoi prendere in considerazione solo quelle attinenti al tuo business.

Metriche di Acquisizione:

  • Traffico per Sorgente
  • Visitatori Unici
  • Traffico Organico
  • Domain Authority
  • Search Ranking

Metriche di Engagement e di Comportamento degli utenti:

  • Bounce Rate
  • Durata Media per Sessione
  • Dwell Time (una delle metriche più sottovalutate ma essenziale per capire quanto il contenuto del tuo sito sia digeribile)
  • Pagina per Sessione
  • Interazioni per Visita

Metriche di Conversione:

  • Conversion Rate
  • Conversione Visita a Registrazione
  • Conversione Visita a Lead
  • Completamento degli Obiettivi (ad esempio, su Google Analytics possono essere impostati e monitorati)

Metriche di User Experience:

  • Page load speed
  • Mobile responsiveness
  • Bounce rate

Quali sono alcuni errori comuni nei test a/b?

É importante evitare errori comuni come la mancanza di obiettivi chiari, pubblico non rappresentativo, test su periodi troppo brevi, test su elementi non significativi e test su più elementi contemporaneamente.

Analizziamo insieme i singoli problemi così potrai evitare di commetterli:

  1. Manca di obiettivi chiari: Se non si hanno obiettivi chiari, si può fare un test A/B che non è in grado di determinare quale versione dell’elemento funziona meglio. È importante definire gli obiettivi del test A/B e le metriche che verranno utilizzate per valutare le prestazioni.
  2. Pubblico non rappresentativo: Se il pubblico non è rappresentativo della vera popolazione, i risultati del test A/B potrebbero non essere validi. Ad esempio, se si testa una pagina web solo su un tipo di pubblico, i risultati potrebbero non essere rappresentativi per tutti i visitatori del sito.
  3. Test su periodi troppo brevi: Se si esegue un test A/B su un periodo troppo breve, i risultati potrebbero non essere rappresentativi. È importante eseguire il test per un periodo sufficientemente lungo per ottenere un campione rappresentativo.
  4. Test su elementi non significativi: Se si esegue un test A/B su elementi che non sono significativi, i risultati potrebbero non essere utili per migliorare le prestazioni del sito web o delle iniziative di marketing. È importante testare elementi significativi che possano influire sui risultati.
  5. Test su più elementi contemporaneamente: Se si testano più elementi contemporaneamente, i risultati del test A/B potrebbero essere difficili da interpretare. È meglio testare un solo elemento alla volta, in modo da avere risultati chiari e facilmente interpretabili.

Quando fermare l’A/B Test?

“Ok, il mio A/B Test è partito. Quando lo devo stoppare?

Proviamo ad utilizzare le linee guida di Google per la validazione di un test:

  • Come prima cosa, ci si deve assicurare che il traffico verso l’esperimento arrivi costantemente ogni singolo giorno.
  • Si aspetta finché l’esperimento non arrivi a 2 settimane di tempo

“Perché proprio due settimane? E’ per caso un numero magico?”

No, ma è un ottimo punto di partenza per validare un test.

Tendenzialmente, 2 settimane rappresentano una buona finestra temporale per dare senso ai dati raccolti, perché vengono compresi i giorni feriali, i fine settimana e qualsiasi altra anomalia che potrebbe verificarsi da una settimana all’altra.

Ma come ci dice Google: “due settimane è un minimo e gli esperimenti possono durare più a lungo”.

Per dare una risposta a questa più completa alla domanda “Quando devo stoppare il mio test?”, dobbiamo prendere in considerazione la significavità statistica.

Senza perdere tempo in definizioni pedanti, pensa alla significatività statistica come ad uno strumento che dice se i risultati del nostro test sono dovuti al caso oppure no.

Ovviamente, tu vuoi che i risultati del tuo test siano dovuti ai cambiamenti che tu hai apportato e non ad un colpo di fortuna.

Nell’ambito scientifico (dove i test e gli esperimenti hanno avuto origine) si utilizza il 5% oppure l’1% come livello di significatività statistica.

Questo vuol dire che si ha il 95% (oppure per il 99%) di probabilità che i risultati di un test non siano dovuti al caso.

Tu non vedrai mai la significatività statistica sulla dashboard del tuo tool per A/B Test.

Piuttosto, ti capiterà di trovare “Probability to be the best” oppure “Probability to beat baseline” con accanto una percentuale.

Sappi che la significatività statistica e “Probability to be the best”, oppure “Probability to beat baseline”, non sono proprio la stessa cosa, ma definiscono un concetti simili.

Quindi puoi fare affidamento su queste due espressioni per capire qual è la versione che migliore per il tuo prodotto.

Facciamo un esempio:

  • Sono passate due settimane, un periodo di tempo ragionevole per trarre delle conclusioni
  • Guardi la tua dashboard e trovi che “Probability to beat baseline” è del 95%
  • Puoi sentirti soddisfatto, la tua versione alternativa del prodotto è la migliore
  • Adesso testa ancora!

Conclusioni

Come promesso, abbiamo cos’è un A/B Test, come farlo e come analizzare al meglio i dati.

Se hai bisogno di un supporto con il tuo prodotto digitale, puoi contattarci oppure approfondire e migliorare le sue competenze nei nostri corsi di formazione.


Daniele Lunassi

Design Lead

Su di me:

freccia arancione che indica il titolo della sezione

Mettiamoci al lavoro

Hai un’idea pazzesca?Trasformiamola in realtà.

Prenota una call con il team

Diventa la persona più
informata sul design

Più di 15 mila iscritti alla newsletter che in soli
10minuti a settimana si aggiornano con
tante novità e consigli sul mondo della UX/UI
design e product design. Non male, vero?