Dans beaucoup de cas business, on ne cherche pas seulement à prévoir ce qui va se passer, mais à comprendre :
👉 quel est l’effet d’une action sur une métrique ?
Autrement dit : si on change quelque chose, qu’est-ce que ça va produire ?
🎯 1. Le problème général#
On observe une variable d’intérêt \( y_t \) (ventes, trafic, conversion…).
On applique une action (marketing, prix, produit), et on observe un changement.
Mais le vrai sujet est :
👉 est-ce que ce changement est causé par notre action ?
Et non par :
- la saisonnalité
- une tendance globale
- un événement externe
- du bruit
📢 2. Marketing impact#
Exemples :
- campagne TV
- ads Google / Meta
- emailing
Ce qu’on observe :
- hausse du trafic ou des ventes
Mais attention :
- le marketing est souvent corrélé au timing business (soldes, Noël…)
- on risque de confondre corrélation et causalité
👉 Question clé :
combien de ventes supplémentaires sont réellement dues à la campagne ?
Approches typiques :
- A/B testing (si possible)
- modèles de type causal impact
- modèles avec variables de contrôle (ex : autres canaux, saisonnalité)
💰 3. Pricing#
Exemples :
- augmentation de prix
- promotions
- discounts
Ici, le problème est encore plus piégeux :
👉 le prix influence la demande… 👉 mais la demande influence aussi le prix
(on baisse souvent les prix quand les ventes baissent)
Donc :
- forte endogénéité
- biais si on ne fait rien
👉 Question clé :
quelle est l’élasticité prix ?
Approches typiques :
- modèles économétriques (log-log, elasticity)
- variables instrumentales (si dispo)
- expériences contrôlées (rare mais très puissant)
🧪 4. Product changes#
Exemples :
- nouvelle feature
- changement UX
- nouveau parcours
Problème classique :
- déploiement progressif
- utilisateurs non homogènes
👉 Question clé :
est-ce que la feature améliore vraiment la performance ?
Approches :
- A/B testing (gold standard)
- Diff-in-Diff (si rollout progressif)
- matching / causal ML
⚠️ 5. Les pièges classiques#
C’est là que la plupart des analyses business se plantent :
- ❌ comparer “avant / après” sans contrôle
- ❌ ignorer la saisonnalité
- ❌ oublier les variables confondantes
- ❌ utiliser un modèle prédictif pour répondre à une question causale
👉 règle simple :
prédire ≠ expliquer ≠ mesurer un effet causal
🔗 6. Lien avec les time series#
Ces problèmes sont souvent temporels :
- les données sont des séries temporelles
- les effets peuvent être retardés (lag)
- il y a des tendances et saisonnalités
Donc on combine :
- modèles temporels (pour bien modéliser le “baseline”)
- méthodes causales (pour isoler l’effet)
👉 Exemple :
prévoir ce qui se serait passé sans intervention, puis comparer avec le réel
🧠 7. Intuition à retenir#
Quand on fait de l’analyse d’impact, on cherche toujours :
👉 le contrefactuel
ce qui se serait passé si on n’avait rien fait
Et comme on ne peut pas l’observer directement :
👉 on doit le modéliser proprement