Un client voit une annonce Google, clique mais ne convertit pas. Trois jours plus tard, il reçoit un email. Une semaine après, il revoit l’annonce sur Facebook. Enfin, il convertit. Mais qui a généré cette conversion? Google mérite-t-il le crédit? L’email? Facebook? Cette question, apparemment simple, est l’une des plus complexes du marketing digital. Les réponses qu’on y apporte déterminent le ROI, l’allocation budgétaire, et la stratégie de chaque entreprise.
L’attribution est l’art d’attribuer le crédit de chaque conversion à un ou plusieurs canaux marketing. Les modèles traditionnels existaient depuis 15 ans: last-click (le dernier clic avant conversion reçoit 100% du crédit), first-click (le premier touchpoint reçoit 100%), ou linéaire (répartition égale). Ces modèles sont simples, automatisés, mais largement inexacts. Le dernier clic ignore le rôle crucial des impressions précédentes. Le premier clic méconnaît l’effet des retouches finales.
L’ère post-cookies tiers
La fin des cookies tiers, effective depuis janvier 2024, a radicalement compliqué l’attribution. Google, Meta, et les plateformes publicitaires ne pouvaient plus suivre un utilisateur d’un site tiers vers un autre. Apple a fermé ses pistes IDFA sur mobile. Les modèles d’attribution data-driven, qui utilisaient des données historiques massives, se sont effondrés.
Les alternatives émergent: Google propose GA4 avec des modèles de machine learning basés sur les données de conversion de chaque entreprise. Meta utilise une approche hybride combinant données first-party et modélisation statistique. Ces solutions offrent une meilleure précision que les modèles legacy, mais elles restent imparfaites: une étude de 2025 du IAB montre que 56% des marketeurs trouvent leurs modèles d’attribution “pas assez fiables pour faire des décisions budgétaires majeures”.
Multi-touch vs single-touch
Les modèles multi-touch reconnaissent qu’une conversion rarement résulte d’un seul touchpoint. Ils répartissent le crédit selon différentes logiques. Le modèle “position-based” réserve 40% du crédit au premier et dernier clic, 20% au milieu. Le modèle “time decay” renforce le poids des clics récents. Ces approches approchent la réalité, mais restent arbitraires.
Les entreprises performantes testent plusieurs modèles en parallèle. Elles comparent les conclusions de last-click, first-click, linéaire, et machine learning. Les divergences révèlent où les modèles simples se trompent. Un ecommerce peut découvrir que son Google Ads surperforme en first-click mais sous-performe en last-click: cela signifie que Google génère la conscience, mais qu’un autre canal (email, direct, social) finalise la vente.
Défis méthodologiques
L’attribution à granularité très fine (attribuer une conversion unique à un clic unique) est une illusion. Les utilisateurs modernes vivent dans un écosystème multi-device: ils voient une annonce sur mobile, convertissent sur desktop. Les données de conversion sont fragmentées: un e-commerce connait chaque transaction, mais un service SaaS perd les pistes si l’utilisateur n’accepte pas les cookies.
Les biais d’exposition jouent aussi un rôle majeur. Un utilisateur qui voit 100 fois l’annonce Google au cours d’une semaine va convertir un jour ou l’autre simplement par coïncidence temporelle, pas nécessairement à cause de l’annonce. Les modèles d’attribution ne distinguent pas l’effet causal du hasard.
Approches pragmatiques
Les meilleurs praticiens adoptent une approche mixte. Ils utilisent les données d’attribution pour des décisions tactiques (ajuster les budgets entre Google et Facebook), mais aussi des tests d’expérimentation pour valider les hypothèses. Désactiver un canal pendant deux semaines, observer l’impact sur les conversions, donne une vision plus honnête que n’importe quel modèle statistique.
Autre approche: utiliser des variables de contrôle. Vérifier comment les utilisateurs qui n’ont pas vu une annonce se comportent, puis les comparer aux exposés. Cela permet d’estimer l’effet incrémental, au-delà du hasard.
L’attribution multi-canal restera un défi permanent. Mais ceux qui acceptent son imprécision, qui tesent continuellement, et qui croisent des modèles avec des expériences, obtiennent des insights bien supérieurs à ceux qui se contentent des rapports par défaut des plateformes.
