Data Engineer H/F, 3 postes, CDI cadre, Neuilly sur Seine, 2 jours de télétravail, pour la division Services publics, Protection sociale & Santé de Scalian Consulting. Profil BAC+5 et au moins 3 ans d’expérience DATA ; maîtrise de Python et Airflow, conception et optimisation de pipelines ETL, ingestion via API et batch, tests unitaires et CI/CD, et PostgreSQL. Vous assurez le support utilisateur, challengez l’organisation Data, surveillez les flux DataOps et coordonnez les résolutions d’incidents, en renforçant la collaboration avec les métiers. Labellisé Great Place to Work, onboarding et développement de carrière sont au rendez-vous. Pour postuler, mettez en avant vos réalisations Airflow/Python et des exemples de RCA et projets publics.
Dans le TOP10 des Sociétés de Conseil en Ingénierie en France, le Groupe SCALIAN intervient sur des activités de services en management de projets industriels, supply chain, architecture et développement de systèmes numériques embarqués, applicatifs de systèmes d'information et d'Intelligence artificielle dans des secteurs d’activité aussi variés que l’aéronautique, le spatial, l’automobile, le ferroviaire, les services, le luxe ou le retail etc.
Créée en 1989, SCALIAN compte aujourd’hui plus de 5500 collaborateurs répartis dans 11 pays et 15 implantations en France pour un chiffre d’affaires de 550 millions d’euros. SCALIAN travaille pour des grands Groupes du CAC40 sur des projets en AT ou au forfait.
Labellisée Great Place to Work, SCALIAN connait une croissance de 20% chaque année.
Pourquoi SCALIAN ?
CDI (statut cadre) à Paris IDF. 2 jours de télétravail
3 ans d’expérience sur des missions Data
Rémunération selon votre expérience et vos compétences jusqu'à 50 K€
Au sein du groupe SCALIAN, la division Scalian Consulting constitue une nouvelle organisation de 200 consultants réunissant les activités de :
Vous rejoindrez notre équipe Services publics, Protection sociale & Santé au sein de Consulting, qui intervient en accompagnement des administrations et établissements publics pour mettre l’intérêt général au cœur des transformations numériques. Notre offre Data vise à déployer les moyens organisationnels, techniques, juridiques et humains pour produire de la connaissance au travers de produits data et d’expérimentations.
MISSIONS :
En tant que Data Engineer vous serez amené à mener, dans le cadre d’une première mission, les opérations suivantes :
• Support data & accompagnement utilisateurs : assurer, une journée par semaine, le support de niveau 1 (analyse des logs Airflow, relance, correctifs rapides), tracer les anomalies, garantir la qualité et la périodicité des dépôts avec les équipes émettrices, puis remonter leurs besoins métiers.
• Organisation Data : Challenger l’organisation, les processus et les pratiques des équipes Data, Ops, Transverse afin de maximiser l'efficacité et l'impact des initiatives entreprises.
• Opérations, fiabilité & DataOps : Surveillance en temps réel des exécutions (taux de succès, durées, volumes), investigation des causes d’échec, coordination avec le support pour la résolution des incidents, et maintien de la cohérence des flux entre les environnements.
• Conception, développement et optimisation des pipelines ETL : Ingestion automatisée de données issues d’API et de traitements batch ; transformations scalables en Python orchestrées avec Airflow ; tests unitaires et contrôles de qualité automatisée ; modélisation puis chargement dans PostgreSQL dans une démarche CI/CD.
Par ailleurs, de manière générale, vous serez amené à faciliter la collaboration et la communication avec les métiers, et à contribuer au développement d’une culture Data au sein d’organisations clientes.
• De formation BAC+5 (école d’ingénieur, IEP, école de commerce), vous justifiez d’une expérience professionnelle d’au moins 3 sur des missions DATA
• Vous disposez d’excellentes qualités de communication tant orale qu’écrite.
• Vous savez écouter, analyser et requalifier les besoins exprimés par un client pour proposer rapidement des solutions pertinentes et pragmatiques.
• Bon niveau indispensable sur Python et Airflow.
• Vous savez mener des investigations structurées (analyse logs + métadonnées, reproduction, validation) puis documenter la RCA (Root Cause Analysis).
Process rapide
Labellisé Great Place to Work pour la 5éme année !