Hello les GH,
Cas Numéro 1
Imaginons que votre équipe marketing a fait une nouvelle landing page dans le but d’augmenter le taux de conversion des inscriptions à votre SaaS.
Elle a lancé un test A/B pour voir si la nouvelle landing page était meilleure que l’ancienne.
Après 1000 visiteurs dans l’expérimentation, ils ont vérifié les résultats pour la première fois. La différence entre la nouvelle version et l’ancienne version de la landing page n’était pas statistiquement significative.
Ils ont ensuite vérifié les résultats lorsque la page avait atteint 2 000 visiteurs. Il n’y avait toujours pas de différence statistiquement significative.
Mais lorsqu’ils ont vérifié les résultats pour la troisième fois, après 3 000 visiteurs, la différence était statistiquement significative, et ils ont remarqué que la nouvelle version de landing page était plus performante.
Ils ont arrêté l’expérimentation et ont déployé la nouvelle version de la landing page à tous les utilisateurs.
Était-ce la bonne décision de déployer la nouvelle version de la landing ?
Réponse Cas Numéro 1
Réponse: Non.
L’approche ci-dessus souffre de ce que l’on appelle le « peeking problem ».
Lorsqu’on fait un A/B Test, on oublie souvent une des conditions préalables importantes qui est de déterminer la taille de l’échantillon pour l’expérience.
Le peeking problem se produit lorsqu’on vérifie par intermittence les résultats jusqu’à atteindre des résultats significatifs entre le groupe A et B et que l’on prend des décisions basées sur nos observations immédiates.
Si vous fixez la taille de l’échantillon au début du test et que vous reportez toute décision au moment où vous disposez de la bonne quantité de données, il n’y a aucun mal à observer des résultats intermédiaires.
Pour aller plus loin il y a cet article et celui-ci qui ont inspiré ce cas.
On parle ici souvent de Leboncoin, Ads, Scraping, Automatisation etc… Mais aujourd’hui j’ai une petite étude de cas pour vous.
Cas Numéro 2 :
Imaginons que vous avez lancé LaGrowthMachine il y a un an (ou un autre SaaS stv).
Récemment, tu as rencontré le CEO de Waalaxy (ton concurrent) aux Growth Awards et là tu sais que tu l’as fumé aux awards mais en discutant tu as voulu comparer ton taux de churn avec lui. Waalaxy perd 3% de ses abonnés actifs chaque mois. LGM en perd 6%. Les deux produits ciblent le même marché.
Est-il correct de dire que la rétention de LGM est pire que celle de Waalaxy ?
A+