Nos tests Facebook Ads de juillet 2021


Nos tests Facebook Ads de juillet 2021

Antoine Dalmas Guide Facebook

Chaque mois, nos Media Buyers suivent des tests en Facebook Ads pour vous donner les meilleurs conseils pour optimiser vos campagnes.

Pour les recevoir en avant première, inscrivez-vous à l'Escouade iOS14 ! Cliquez sur ce lien pour la rejoindre gratuitement et profitez de nos connaissances.

Placement 100% iOS : 30 juillet 2021

Voici notre nouveau test rendu en date du 30 juillet 2021.

Sur un panel de 12 clients (lead gen & e-com), on a noté un fait intéressant avec le passage de l’iOS 14.

En avril, 6 clients sur 12 dépensaient plus d’argent sur Android mobile qu’iOS.

En mai, nous sommes passés à 7 sur 12.

En juin, 10 clients sur 12 dépensaient plus sur Android mobile qu’iOS.

De mai à juin, le CPM Android a pris en moyenne 2$ de plus quand iOS a augmenté seulement de 0,50$.

De notre côté, on n’a absolument rien fait pour que ça arrive. Nous étions toujours en Automatic Placement, c’est donc la plateforme qui l’a décidé. Et nous ne sommes pas du tout les seuls, il faut croire.

On le sait, Facebook peut être paresseux à certains moments. Il tape continuellement sur ce qui marche, même lorsque ce n’est plus le cas. Il faut donc savoir le reprendre en main et le forcer à faire autre chose.

Contrairement à iOS, Android garde tous ses avantages d’attribution et de tracking. C’est normal que Facebook génère plus de résultats dessus et que l’argent passe uniquement sur cet OS.

Mais Apple ne disparaît pas. Encore pire, il devient beaucoup moins cher!

Que se passerait-il si on ne laissait pas le choix à Facebook et qu’on lançait des campagnes 100% Apple, en excluant Android? Voici les résultats de ce test du 30 juillet 2021.

TEST #1 - CLIENT APP - 7 JOURS DE TEST.

Contexte : Nous avons testé cette initiative pour un client en application mobile. Donc, nous avons testé pendant 1 semaine une campagne en app installs dans laquelle il fallait générer le plus d'installations possible au moindre coût.

Résultat : Après avoir dépensé près de 100$, on a généré seulement 6 app installs avec un CPI de 16$, ce qui est trop élevé. Habituellement, on tourne autour de 4,50$ du CPI.

Conclusion : Je ne valide pas ce test, car le CPI est trop cher.

-------------------------------------------------------------------------

TEST # 2 - CLIENT E-COM - 6 JOURS DE TEST.

Contexte : Nous avons lancé une campagne 100% iOS sur un client e-commerce au cours de juin pendant 6 jours à environ 150$/jour.

Résultat : Nous avons noté de nombreux problèmes de reporting de la part de Facebook, ce qui a compliqué notre travail. Mais du peu qu’on a vu, elle ne faisait qu’égaler notre campagne, sans jamais la dépasser

Conclusion : Nous ne validons pas ce test.

-------------------------------------------------------------------------

TEST #3 - CLIENT E-COM - 2 JOURS DE TEST.

Contexte : Nous avons fait compétitionner une campagne iOS only avec les mêmes ad sets que notre autre campagne evergreen qui vise tous les devices. On remarque que le CPM est très bas sur l'audience iOS only, mais que les conversions de vente ne suivent pas.

Résultat : Le CPM iOS, après 380 euros dépensés, affiche 1,41€ contre 2,46€ pour All device (avec la même dépense). Par contre, le ROAS est inférieur de 1,1 point!

Conclusion : On ne valide pas ce test

-------------------------------------------------------------------------

TEST #4 - CLIENT E-COM - 7 JOURS DE TEST.

Contexte : Nous avions déjà une campagne de conversion pour achat sur le site web et nous voulions comparer les résultats avec une campagne ciblant uniquement les mobiles iOS.

Résultat : La campagne n'a pas généré de vente et la performance de cette campagne n'était pas très bonne au niveau des autres KPI. Nous avons donc mis en pause après 110$ de dépense le 12 juillet.

Conclusion : Le test n'a pas été concluant, car aucune vente n'a été générée.

-------------------------------------------------------------------------

Coup dur pour l'escouade iOS14, car c’est le deuxième test que nous vous déconseillons de réitérer. Il s'avère inutile de forcer Facebook à dépenser sur les devices iOS bien que le CPM soit extrêmement bas…

Cependant, nous en tirons une certaine leçon. Notre autre test refusé concernait la fenêtre d’attribution (1 day click). Donc, il n’est pas intéressant de faire des tests qui contraignent Facebook à moins de volume.

Notre travail, à présent, doit reposer sur des tests davantage axés sur les créatifs, les funnels, les objectifs et d’autres éléments de ce genre!

Attribution 1 jour clic : 23 juillet 2021

Voici notre nouveau test rendu en date du 23 juillet 2021.

Facebook est une plateforme intelligente.

Du moins, c’est ce qu’on est en droit de penser. Lorsqu’on lui demande d’optimiser pour des clics, il le fait. Pour des ajouts au panier, il le fait. Pour des achats, il le fait aussi.

Et si on lui demandait de raccourcir le parcours d’achat de notre client? 

C’est la question qu’on s’est posée lorsqu’on a vu le 1 day clic attribution arriver.

Avec cette option, vous avez une fenêtre de 24h pour convertir. Ça effraie lorsqu’on était habitué aux 28 jours clic & vue!

Mais en choisissant cette option, est-ce qu’on envoie le message à Facebook qu’on cherche des gens capables de convertir en 24h et que notre offre est assez attirante pour remplir cette mission?

Vous l’aurez compris, cette semaine, on a testé le 1 day clic attribution.

Voici les résultats sur différents clients en date du 23 juillet 2021.

TEST #1  - CLIENT E-COM - 3 JOURS DE TEST.

Contexte : Nous avons mis en concurrence une campagne en attribution 7 day click one day view VS une campagne One day click seulement. Tous les autres éléments étaient les mêmes (audience, créatifs, budgets, etc). Les audiences étaient BROAD sans intérêt. Budget à 75$ par jour. 

Résultat

1 day click :

  • Montant investi : 212$
  • Add to cart : 4 à 35,43$
  • Achats : 0
  • ROAS : 0

7 Day click one day view: 

  • Montant investi : 141$
  • Add to cart : 49 à 4,34$
  • Achats : 4 

Conclusion : En près de 72h de distribution, il est évident que la fenêtre d'attribution 7 day click one day view est la meilleure. En fait, les résultats sur la campagne one day click sont 88% moins bons. 

-------------------------------------------------------------------------

TEST #2  - CLIENT E-COM - 8 JOURS DE TEST.

Contexte : Nous avons fait rouler une campagne en Purchase - 1 day click avec pour objectif de générer plusieurs achats dans la journée du clic.

Résultat : Après avoir dépensé plus de 300$ sur cette campagne, nous n'avons généré aucune vente et aucun ajout au panier.

Conclusion : Aucun résultat malgré les montants investis. On ne valide pas ce test.


-------------------------------------------------------------------------

TEST #3  - CLIENT E-COM - 4 JOURS DE TEST.

Contexte : Nous avons créé une campagne similaire à celle existante, mais en 1-click attribution. Le budget n'est cependant pas similaire.

Résultat : Les résultats sont, pour l'instant, inférieurs à la campagne en 7-day click/1 day view (0,34 de différence sur le ROAS).

Conclusion : On ne valide pas ce test.

-------------------------------------------------------------------------

TEST #4  - CLIENT E-COM - 4 JOURS DE TEST.

Contexte : Le test s'est déroulé sur moins de 24h puisque les résultats n'étaient vraiment pas bons. Nous avons par la suite créé un ad set en 1-Day clic pour bénéficier du CBO et lui non plus n'était pas bon.

Résultat

  • 1-Day clic : 248 euros de spend ; ROAS = 0,97
  • 7 -Day : 350 euros de spend ; ROAS = 2,37

Puis

  • 1-Day clic : 178 euros de spend ; ROAS = 1,13
  • 7 - Day : 436 euros de spend ; ROAS = 2,55

Conclusion : On ne valide pas ce test.

-------------------------------------------------------------------------

TEST #5  - CLIENT E-COM - 8 JOURS DE TEST.

Contexte : Nous avions une campagne qui performait bien, puis qui a subi une baisse de résultat assez forte. Nous souhaitions donc tester de lancer une nouvelle campagne similaire avec un modèle d'attribution en 1 day click.

Résultat : 147,03$ dépensés et 1 seul achat généré. ROAS inférieur à 1. Nous avons donc mis en pause cette campagne plus tôt que prévu (le 5 juillet).

Conclusion : Échec du test

-------------------------------------------------------------------------

C’est notre 3e test et c’est la première fois que les résultats sont unanimes : on ne recommande pas cette optimisation.

Contrairement à l’objectif de conversion, Facebook ne peut pas optimiser sur de l’attribution. Surtout qu’entre temps, la rétro-attribution des opt-out iOS est arrivée passant de 1 jour clic à 7 jours. Ce qui a eu un impact immédiat (et positif) sur nos campagnes.

Mais qu’est-ce qu’on peut retenir d’un test de manière plus globale?

L’attribution est le nerf de la guerre.

Vous êtes dans l’obligation de trouver des moyens pour continuer de tracker vos ventes et de les attribuer à des éléments précis. Tout ce qui vous permet d’avoir une vision plus longue est bon à prendre, que ce soit des UTM ou un système de Cohorte.

Broad Audience : 16 juillet 2021

Voici notre nouveau test rendu en date du 16 juillet 2021.

Parmi les problèmes encerclés lors du passage à l’iOS14, un de ceux qui nous ont le plus peinés était celui des audiences Lookalikes.

On a rapidement senti qu’elles ne convertissaient plus autant.

On peut trouver une explication logique à ça : le pixel Facebook étant moins performant, les audiences custom et lookalikes allaient forcément en pâtir.

C’est pourquoi on s’est posé la question suivante : est-ce que Facebook ne serait pas plus performant sans aucune limite de ciblage?

Il ne peut pas nous remonter toutes les informations, mais ça ne veut pas dire qu’il n’y a pas accès quand même.

Donc, nous avons fait le test de lancer des audiences Broad qui n’avaient aucun critère d’intérêt, seulement un ciblage géographique. Nous voulions voir si Facebook était capable de faire mieux que son outil phare.

Voici les résultats du 16 juillet 2021.

-----------------------

TEST #1 - CLIENT E-COM - 10 JOURS DE TEST

Contexte : Pour un client e-commerce (un seul produit), le test a été lancé dans une campagne de conversion Achat face à 2 lookalikes (3% et 6%) achat.

Résultat : L’audience a tenu 10 jours pour dépenser 9 200$ (64% du budget) et afficher un CAC de 71,06$ lorsque les autres étaient à 53,58$ et 37,97$. Notre objectif est d'atteindre 55$.

Conclusion : Test non concluant

----------------------------

TEST #2 - CLIENT LEAD GEN - 1 MOIS DE TEST.

Contexte : Pour un client Lead gen, nous avons lancé une audience BROAD. Face à elle, deux autres audiences à intérêt très large.

Résultat : Rapidement, la BROAD prend la majeure partie du budget et termine avec un CPL de 13,1€ pour +2,900€ dépensés contre 11,39€ pour la meilleure audience d'avant (€1,400 dépensés). Si on regarde globalement, la BROAD est plus chère, mais si on regarde semaine après semaine, elle ne fait que s'améliorer. Le mois suivant (seule), elle affiche 12,13€ de CPL. Plus aucune audience ne la bat dans cette campagne.

Conclusion : Un test plus nuancé. La Broad semble moins efficace, pourtant elle nous a permis de scaler (+76% en un mois) et de centraliser tous nos efforts à une période où toutes les autres audiences ne faisaient qu'augmenter.

----------------------------

TEST #3 - CLIENT E-COM - 20 JOURS DE TEST.

Contexte : Nous avons mis en concurrence, dans une campagne Conversion Achat, notre audience LK5% Achat et une audience 100% Broad sans intérêt, ni ciblage spécifique.

Résultat : Dans les premières semaines, les deux ad sets ont bien performé et les résultats en termes de CPA étaient assez similaires. Le ROAS étant tout de même plus important pour le ad set Lookalike. Cependant, par la suite, la campagne s'est essoufflée et nous avons pu constater une baisse de résultats sur les 2 ad sets.

Conclusion : Après réflexion, les deux fonctionnent bien ensemble. L'une amène la rentabilité qu'on attend et l'autre fournit énormément de nouveaux clients pour notre retargeting. On valide ce test.

----------------------------

TEST #4 - CLIENT E-COM - 7 JOURS DE TEST.

Contexte : Nous avons testé une audience Broad contre une audience LAL 3% Purchase. Dans la campagne, il y avait également une audience de stack remarketing.

Résultat : L'audience Broad a reçu 2 185 euros contre 1 158 euros pour l’audience Lookalike Achat 3% et son ROAS était supérieur de quasiment 1 point.

Conclusion : On valide ce test contre une de nos meilleures audiences (historiquement).

----------------------------

TEST #5 - CLIENT LEAD GEN - 14 JOURS DE TEST.

Contexte : Nous avons testé une audience Broad contre une audience Lookalike 3% inscrits du webinaire. Dans la campagne, il y avait également une audience de stack remarketing.

Résultat : Audience Broad : 3 023 euros budget ; CPL = 26,06 euros

Audience LAL : 4 158 euros budget ; CPL = 21,66 euros

Conclusion : On ne valide pas ce test pour ce compte

----------------------------

TEST #6 - CLIENT E-COM - 14 JOURS DE TEST.

Contexte : Pour ce e-commerce d’abonnement, j'ai testé une audience Broad contre une audience à intérêt qui fonctionnait historiquement très bien.

Résultat :

Audience Broad : 1 599$ de budget ;

Audience Intérêts : 2 115$ de budget ;

Le ROAS de l’audience Intérêts était légèrement supérieur à celui de l’audience BROAD, mais pas avec un écart significatif.

Conclusion : Test non concluant, mais sur les deux audiences. À refaire sur une autre campagne, avec une autre offre.

----------------------------

TEST #7 - CLIENT E-COM - 7 JOURS DE TEST.

Contexte : Pour un e-commerce, nous avons mis en concurrence une audience Lookalike VS une audience BROAD (sans intérêt) en CBO. À l'exception de l'audience, tous les autres éléments étaient identiques.

Résultat :

Audience Lookalike :

- Montant investi : 9 060$

- Achats : 41 à 220$ chaque

Audience BROAD :

- Montant investi : 10 696$

- Achats : 48 à 222,84$

Le ROAS de l’audience Lookalike était légèrement supérieur à celui de l’audience BROAD, mais pas avec un écart significatif.

Conclusion : Les résultats ne sont pas concluants—trop similaires.

----------------------------

TEST #8 - CLIENT E-COM - 7 JOURS DE TEST.

Contexte : Nous avons une campagne evergreen qui roule depuis plusieurs mois dans laquelle on promeut les produits de Bopied à plein prix en fonction de la saison. Nous testons depuis plusieurs mois une BROAD VS une LOOKALIKE 6% - Acheteurs.

Résultat : BROAD

  • Amount Spent : 6 823,71$
  • ROAS : 3,07
  • Purchases : 182
  • CAC : 37,49$


LOOKALIKE 6%

  • Amount Spent : 13 413,22$
  • ROAS : 2,54
  • Purchases : 249
  • CAC : 53,87$

Conclusion : Après réflexion, on peut conclure que ce test a fonctionné. On recommande de faire rouler une broad VS votre meilleure lookalike. Ça permet de garder deux audiences différentes en evergreen sur une longue période au besoin.

----------------------------

4 autres tests ont été menés et voici leurs résultats :

  • 2 validés pour un e-commerce & infopreneur
  • 1 refusé pour un Lead gen
  • 1 non concluant pour un e-commerce

Vous l’aurez compris, l’audience BROAD était une grande question pour nous, c’est pourquoi il y a autant de tests.

Avec ces différents résultats, nous sommes très confiants de continuer à soumettre l’audience Broad à d’autres comptes et nous vous encourageons à en faire autant!

Selon nous, la meilleure façon de tester l'audience serait d’avoir déjà de très bonnes audiences (que vous avez identifiées et que vous utilisez quotidiennement) afin de les mettre en concurrence directe avec une BROAD.

Lead Ads : 9 juillet 2021

Comme convenu, voici le premier test que nous avons effectué jusqu’au 9 juillet 2021.

Pour vous donner un peu de contexte, on a vite compris que le Pixel Facebook était impacté et que l’une des campagnes les plus touchées (tout client confondu) était la Conversion Lead.

Les listes VIP, les Lead Magnets et toutes autres campagnes de ce genre ont vu leur coût grimper sans aucune raison valable (enfin oui, on sait pourquoi). Alors, ce fut les premières dont on a voulu s’occuper.

C’est pourquoi, face à la baisse de performance du pixel et de ses conversions, nous avons testé… la Campagne Lead Ad.

Beaucoup moins belle qu’une landing page, beaucoup plus sommaire, et pourtant, beaucoup plus à même de régler l’enjeu de l’iOS14. Comme on reste à 100% sur Facebook, il n’y a aucune perte de tracking dans les conversions.

Sachez toutefois que l’attribution sur cette campagne est de 7 jours clic (et non 1 jour vue en plus).

Voici les résultats pour différents clients en date du 9 juillet 2021.

---------------------------

TEST #1 - CLIENT LEAD GEN - 7 JOURS DE TEST

Contexte : Nous avions déjà une campagne de génération de lead sur le site web pour un webinaire qui performait plutôt bien, mais nous souhaitions avoir plus de leads. Nous avons donc lancé une campagne Lead Gen directement sur Facebook.

Résultat : Après 40$ dépensés, nous n'avions qu'un seul lead sur Facebook. Nous avons donc mis en pause la campagne avant la fin de la période du test prévue.

Conclusion : test non concluant, on génère de bien meilleurs résultats directement sur le site web.

---------------------------

TEST #2 - CLIENT E-COMM - 5 JOURS DE TEST

Contexte : Nous avons mis en place une Lead Ad pour une campagne de conversion qui, historiquement, faisait du 4$/lead.

Résultat : En 5 jours et à budget égal, la Lead ad affichait un CPL de 4,06$ et l’autre de 7,68$.

Conclusion : Test concluant sans discussion.

---------------------------

TEST #3 - CLIENT LEAD GEN - 14 JOURS DE TEST.

Contexte : Coup sur coup, nous essuyons des échecs avec une campagne Dynamic puis Standard en conversion Lead. La Lead Ad s’impose.

Résultat : Pour un même budget dépensé, la Lead ad affiche 3,91$ le lead contre 5,04$ et 6,93$ pour les autres.

Conclusion : Test concluant

---------------------------

TEST #4 - CLIENT LEAD GEN - 2 MOIS DE TEST

Contexte : Pour un client Lead gen, nous avons commencé à tester une approche Lead Ad au mois de mai après que notre approche Lead Magnet ait ralenti.

Résultat : La moyenne de nos 3 campagnes Lead Ad est de 22,33$/lead alors que notre campagne Magnet-Broad Audience est à 25,34$/lead et notre ancienne campagne evergreen (maintenant arrêtée) à 28,63$/lead.

Conclusion : Test concluant

---------------------------

TEST #5 - CLIENT LEAD GEN - 1 MOIS DE TEST

Contexte : Afin de challenger notre campagne Conversion Lead, nous avons lancé une Lead Ad.

Résultat : Durant les 30 derniers jours, nous avons eu 12 leads pour 82,88$ sur la campagne conversion lead avec environ 1000$ de distribution. Cette campagne est maintenant stoppée. La campagne lead Ad, quant à elle, a obtenu 12 leads pour 51,25$ en ayant reçu seulement 615$ de distribution.

Conclusion : Test concluant, nous conservons la Lead ad!

---------------------------

Avec ces différents résultats, nous sommes à 95% certains de vous recommander ce test. Pour les raisons suivantes :

  • Les tests ont été appliqués sur différentes périodes (1 semaine jusqu’à 2 mois)
  • Une majeure partie des clients sont justement des Lead Gen


Vous aussi, recevez gratuitement nos derniers tests le lundi matin en cliquant sur ce lien.