Vizzia logo

Senior Data Engineer

Vizzia
Full-time
On-site
Paris, 11

JobsCloseBy Editorial Insights

Chez Vizzia à Paris, le poste de Senior Data Engineer vise à optimiser et industrialiser les pipelines qui alimentent nos produits IA. Vous garantissez la qualité des données et collaborez avec les équipes Data Science, DevOps et Produit. Responsabilités: développer des pipelines robustes, assurer la sécurité et la traçabilité des données, mettre en œuvre l’infrastructure as code, et créer des dashboards et outils de monitoring via Datadog Grafana Prometheus. Profil: 5+ ans en data engineering, Python, SQL NoSQL, Airflow, CI/CD, AWS ou GCP, Docker, MLOps. Pour postuler, adaptez votre CV avec des pipelines en prod, dashboards et alertes conçus, mettez en avant vos réalisations mesurables et vos contributions open source, et précisez votre disponibilité onsite.


🎯 Mission

Nous recherchons un Data Engineer senior pour optimiser, fiabiliser et industrialiser les pipelines de données qui alimentent nos produits IA. Ton rôle est clé : tu garantis la qualité, la disponibilité et la performance des données utilisées au quotidien par les équipes IA, Produit et DevOps.

🛠 Responsabilités

  • Concevoir, développer et maintenir des pipelines de données robustes, automatisés et scalables.

  • Assurer la qualité, la sécurité et la fiabilité des données sur tout leur cycle de vie.

  • Définir et maintenir une infrastructure as code pour les services liés à la donnée.

  • Construire et maintenir des dashboards, outils de monitoring et rapports destinés aux équipes internes.

  • Collaborer étroitement avec les équipes Data Science, DevOps et Produit pour garantir la cohérence et la valorisation des données.

  • Surveiller et optimiser les performances via des outils d’observabilité (Datadog, Grafana, Prometheus).

✅ Profil recherché

Compétences techniques

  • Bac+5 ou équivalent en informatique, data engineering ou IA.

  • 5+ ans d’expérience en Data Engineering, idéalement en environnement cloud/IA.

  • Excellente maîtrise de Python et des bonnes pratiques de développement (tests, versioning, packaging).

  • Très bonne connaissance des bases SQL et NoSQL (PostgreSQL, DynamoDB).

  • Expérience solide sur l’automatisation des workflows (Airflow, GitHub Actions, GitLab CI/CD).

  • Maîtrise des concepts MLOps, intégration des données dans les workflows ML, monitoring et déploiement.

  • Compétences cloud sur AWS ou GCP (S3, Lambda, RDS, Step Functions).

  • Connaissance de Docker et des environnements de conteneurisation.

Soft skills

  • Rigueur technique et souci constant de qualité.

  • Autonomie forte et capacité à prendre en charge un périmètre large.

  • Communication claire, structurée, orientée collaboration.

  • Capacité à travailler avec des équipes pluridisciplinaires.

  • Esprit analytique et sens du détail.

⭐ Ce qui fera la différence

  • Expérience démontrée sur des pipelines critiques en production.

  • Pratique avancée de l’observabilité data (logs, métriques, alerting).

  • Contributions open-source dans l’écosystème data/ML.

  • Proactivité dans l’amélioration continue des workflows et environnements data.

  • Sensibilité à l’impact environnemental ou sociétal des technologies.

🧰 Stack technique

  • Langages : Python

  • Bases de données : PostgreSQL, DynamoDB

  • Pipelines : GitHub Actions

  • Cloud : AWS (S3, Lambda, RDS, Step Functions), GCP

  • Conteneurisation : Docker

  • Observabilité : Datadog, Grafana, Prometheus

  • MLOps : MLflow, SageMaker