Aller au contenu

Fondamentaux (stationnarité, autocorrélation, décomposition)

·2 mins·
Time Series Stationnarité ACF PACF
TimeSeries - Cet article fait partie d'une série.
Partie 7: Cet article

Avant de modéliser une série temporelle, on cherche à comprendre sa structure. On regarde notamment si elle est stable dans le temps, comment les valeurs passées influencent le présent, et quels motifs récurrents apparaissent.


📍 Stationnarité
#

On dit qu’une série est stationnaire si ses propriétés statistiques ne changent pas dans le temps :

  • moyenne constante
  • variance constante
  • structure de dépendance stable

👉 Intuition : le passé ressemble au futur.

Pourquoi c’est important :

  • la plupart des modèles (AR, ARIMA…) supposent la stationnarité
  • sinon, on risque de modéliser des relations instables ou trompeuses

Signes de non-stationnarité :

  • tendance (trend)
  • saisonnalité
  • variance qui évolue

Solutions classiques :

  • différenciation (diff)
  • transformation logarithmique
  • retrait de tendance / saisonnalité

📍 Autocorrélation (ACF / PACF)
#

On cherche à mesurer la dépendance entre une valeur et ses valeurs passées.

  • ACF (Autocorrelation Function) : corrélation avec les retards (lags)
  • PACF (Partial Autocorrelation Function) : corrélation “directe” en isolant l’effet des autres lags

👉 Intuition :

  • ACF → mémoire globale
  • PACF → relations directes

Utilité :

  • identifier la structure temporelle
  • guider le choix des modèles (AR vs MA)

Exemple :

  • décroissance lente de l’ACF → possible non-stationnarité
  • coupure nette du PACF → modèle AR probable

📍 Décomposition
#

On peut voir une série comme la somme (ou produit) de plusieurs composantes :

  • Trend : évolution long terme
  • Saisonnalité : motifs périodiques
  • Bruit (résidu) : ce qui reste

👉 Intuition : on sépare le signal “structuré” du bruit.

Deux approches :

  • additive : ( y = trend + saisonnalité + bruit )
  • multiplicative : ( y = trend × saisonnalité × bruit )

Utilité :

  • mieux comprendre la série
  • nettoyer les données avant modélisation
  • améliorer les performances des modèles

📍 Transformations
#

On applique des transformations pour rendre la série plus “facile” à modéliser.

Les plus courantes :

  • log :

    • stabilise la variance
    • utile si croissance exponentielle
  • différenciation (diff) :

    • supprime la tendance
    • rend la série stationnaire
  • dé-saisonnalisation :

    • enlève les effets périodiques

👉 Intuition : on transforme la série pour respecter les hypothèses des modèles.


🧠 À retenir
#

  • On ne modélise jamais une série “brute” sans l’analyser
  • La stationnarité est une hypothèse clé
  • L’ACF/PACF donnent une lecture directe de la mémoire temporelle
  • La décomposition aide à comprendre la structure
  • Les transformations sont souvent indispensables
Thibault CLEMENT - Intechnia
Auteur
Thibault CLEMENT - Intechnia
Data scientist
TimeSeries - Cet article fait partie d'une série.
Partie 7: Cet article