Avant de modéliser une série temporelle, on cherche à comprendre sa structure. On regarde notamment si elle est stable dans le temps, comment les valeurs passées influencent le présent, et quels motifs récurrents apparaissent.
📍 Stationnarité#
On dit qu’une série est stationnaire si ses propriétés statistiques ne changent pas dans le temps :
- moyenne constante
- variance constante
- structure de dépendance stable
👉 Intuition : le passé ressemble au futur.
Pourquoi c’est important :
- la plupart des modèles (AR, ARIMA…) supposent la stationnarité
- sinon, on risque de modéliser des relations instables ou trompeuses
Signes de non-stationnarité :
- tendance (trend)
- saisonnalité
- variance qui évolue
Solutions classiques :
- différenciation (diff)
- transformation logarithmique
- retrait de tendance / saisonnalité
📍 Autocorrélation (ACF / PACF)#
On cherche à mesurer la dépendance entre une valeur et ses valeurs passées.
- ACF (Autocorrelation Function) : corrélation avec les retards (lags)
- PACF (Partial Autocorrelation Function) : corrélation “directe” en isolant l’effet des autres lags
👉 Intuition :
- ACF → mémoire globale
- PACF → relations directes
Utilité :
- identifier la structure temporelle
- guider le choix des modèles (AR vs MA)
Exemple :
- décroissance lente de l’ACF → possible non-stationnarité
- coupure nette du PACF → modèle AR probable
📍 Décomposition#
On peut voir une série comme la somme (ou produit) de plusieurs composantes :
- Trend : évolution long terme
- Saisonnalité : motifs périodiques
- Bruit (résidu) : ce qui reste
👉 Intuition : on sépare le signal “structuré” du bruit.
Deux approches :
- additive : ( y = trend + saisonnalité + bruit )
- multiplicative : ( y = trend × saisonnalité × bruit )
Utilité :
- mieux comprendre la série
- nettoyer les données avant modélisation
- améliorer les performances des modèles
📍 Transformations#
On applique des transformations pour rendre la série plus “facile” à modéliser.
Les plus courantes :
log :
- stabilise la variance
- utile si croissance exponentielle
différenciation (diff) :
- supprime la tendance
- rend la série stationnaire
dé-saisonnalisation :
- enlève les effets périodiques
👉 Intuition : on transforme la série pour respecter les hypothèses des modèles.
🧠 À retenir#
- On ne modélise jamais une série “brute” sans l’analyser
- La stationnarité est une hypothèse clé
- L’ACF/PACF donnent une lecture directe de la mémoire temporelle
- La décomposition aide à comprendre la structure
- Les transformations sont souvent indispensables