Si je vous parlais d’une méthode infaillible qui permet d’améliorer continuellement l’efficacité de son site, en se basant sur les statistiques, le tout à moindre frais? Il y a fort à parier que les tests A/B ne vous viendraient pas à l’esprit, même si nous savons plus ou moins tous de quoi il s’agit. L’idée est simple : vous testez parallèlement plusieurs versions d’une page ou d’un élément de votre site et vous comparez les statistiques afin de choisir laquelle de ces versions vous apporte le plus de conversions, de clics ou d’inscriptions.
Les tests A/B font partie des pratiques les plus efficaces en webmarketing, mais elles peinent à se faire connaitre aux dépends du référencement, des médiaux sociaux ou encore de la publicité en ligne qui représentent pourtant des investissements beaucoup plus onéreux et chronophages. Cela tient peut-être à la réputation des tests A/B d’être techniques, sur le plan de la programmation comme sur celui de l’interprétation de données. Pourtant, les outils d’aujourd’hui comme Optimizely, Visual Website Optimizer ou encore Google Content Experiment, vous permettent d’implémenter ce genre de solutions beaucoup plus facilement.
Une méthode objective et flexible
Le test A/B se trouve à l’extrême opposé d’une certaine vision du webmarketing dont le succès serait fait avant tout de bonnes intuitions et de connaissance du marché. En fait si on y regarde bien, la plupart des modifications que l’on entreprend sur un site sont faites à l’aveugle, on s’en remet à notre expérience pour juger que telle bannière sera meilleure que l’autre, que le nouveau design du catalogue sera plus vendeur que l’ancien. Pourtant, très souvent l’efficacité n’est pas là où on l’attend et il faut savoir être humble et méthodique lorsqu’on est en charge du succès d’un site.
Les tests A/B représentent donc une pratique s’appuyant sur l’objectivité car le but est de continuellement améliorer les différents éléments de son site en comparant différentes versions et en ne retenant que le meilleur. Avec les outils actuels, vous pourrez rapidement constater si la couleur du nouveau bouton de vente est plus efficace, laquelle de vos pages de transactions a le plus petit taux d’attrition ou encore quel formulaire d’inscription à votre newsletter rapporte le plus d’abonnés. Les possibilités sont illimitées car il s’agit d’un méthode continue et très flexible. Si vous cherchez des idées d’applications, voici un excellent article vous proposant 71 idées de tests A/B.
Les pièges à éviter
Comme toute technique webmarketing, en particulier celles basées sur des statistiques, il y a des écueils à éviter et il est facile de mal interpréter les résultats. Voici nos conseils afin d’appliquer au mieux vos futurs test A/B:
-Il est tentant au début de vouloir tester tout et n’importe quoi. Focalisez-vous sur les test liés à vos objectifs principaux et aux appels à action: formulaire d’inscription pour une newsletter ou un compte client, demande de devis, page de transaction, bouton de passage à l’achat, bannière principale, produits vedettes.
-Dans le même ordre d’idée, faites des changements importants entre vos différentes versions si vous voulez obtenir des statistiques bien distinctes et donc faciles à interpréter.
-Il est très important d’attendre d’avoir suffisamment de transformations pour pouvoir prendre une décision. Trop d’e-marketeurs basent leur analyse sur des échantillons de visites trop faibles, par exemple une version rapport 4 conversion sur 100 contre une autre n’en rapportant qu’une seule. Attendez d’avoir suffisamment d’informations pour ne pas voir des règles là où il n’y a que le hasard. Servez-vous de la statistique « statistical significance » souvent fournie par les outils mentionnés ci-dessus. Vous pouvez aussi au besoin vous servir de calculatrices programmées dans ce but.
-Si vous n’avez que quelques conversions par jour, rien ne sert d’attendre plusieurs mois pour avoir suffisamment de transformations. Basez plutôt vos tests sur les visites en comparant les taux de clic, les taux de rebond ou le temps de visite moyen par page.
-Ne testez par vos versions les unes près les autres mais toujours en parallèle. En effet, vous risquez d’interpréter une version comme meilleure alors qu’il s’agit simplement d’une fluctuation naturelle des visites ou des ventes selon les jours de la semaine ou le mois de l’année.
-Ne modifiez pas trop votre site pour ne pas surprendre vos visiteurs les plus fidèles. Testez vos versions en filtrant seulement les nouveaux visiteurs au besoin. Et de la même manière, restez cohérent dans vos changements: si vous tester un nouveau listing de produit, faites en sorte que le même apparaisse sur toutes les sections du site pour ne pas désorienter le visiteur.
-Dernier conseil: soyez ouvert d’esprit! Les test A/B sont l’occasion de faire des tentatives inhabituelles et de sortir de votre zone de confort. Ne laissez donc pas votre intuition remplacer l’objectivité des chiffres et repousser de bonnes idées avant même de les mettre à l’épreuve de vos visiteurs.