Airflow s’installe facilement via Docker.
C’est la méthode recommandée pour un environnement local reproductible.
Pourquoi utiliser Docker ?#
- Installation simplifiée
- Isolation des dépendances
- Configuration standardisée
- Environnement proche de la production
Airflow nécessite plusieurs composants (webserver, scheduler, base de données).
Docker Compose permet de les orchestrer proprement.
Installation rapide (méthode officielle)#
Airflow fournit un fichier docker-compose.yaml officiel.
Étapes :
mkdir airflow && cd airflow
curl -LfO https://airflow.apache.org/docs/apache-airflow/stable/docker-compose.yaml
Créer un fichier .env :
echo "AIRFLOW_UID=$(id -u)" > .env
Initialiser :
docker compose up airflow-init
Démarrer :
docker compose up -d
Accès à l’interface#
Une fois lancé :
- Interface Web : http://localhost:8080
- Identifiants par défaut :
airflow / airflow
Structure des dossiers#
Le dossier principal contient généralement :
dags/→ fichiers DAG Pythonlogs/→ logs d’exécutionplugins/→ extensions personnaliséesdocker-compose.yaml
Les DAG sont automatiquement détectés depuis dags/.
Bonnes pratiques#
- Utiliser PostgreSQL (pas SQLite) mĂŞme en local
- Monter explicitement le dossier
dags - Versionner les DAG avec Git
- Ne pas modifier le fichier Compose officiel sans comprendre l’impact
En résumé#
Docker + Compose est la méthode standard pour :
- développer
- tester
- reproduire un environnement Airflow