Data Engineer
Poitou Charentes, Niort (79000)
Mis en ligne le 29 avril 2026 par Marie Calvert (+ d'offres)
DGTL PerformanceType de contrat :CDI
Métier :Développeur informatique
Expérience :4 ans minimum
Type d'entreprise :Autre type d'entreprise (client final)
Localisation :Poitou Charentes, Niort (79000)
Télétravail :Pas de télétravail
Poste à pourvoir
Mission : Un profilData ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark.
La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié.
En tant que Data/Software ingénieur, le prestataire interviendra au sein d'une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes :
-Conception et développement des pipelines Data et ML industrialisées et robustes
o Pipelines Batch sous Azure Databricks
o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows
o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU
o Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring
o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles
-Développement logiciel et services
o Conception et développement de packages python
o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, ...)
o API sous Azure Function et/ou Azure Container Apps
-Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d'amélioration continue
-Participation active aux rituels agiles
3j/semaine sur site
La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié.
En tant que Data/Software ingénieur, le prestataire interviendra au sein d'une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes :
-Conception et développement des pipelines Data et ML industrialisées et robustes
o Pipelines Batch sous Azure Databricks
o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows
o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU
o Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring
o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles
-Développement logiciel et services
o Conception et développement de packages python
o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, ...)
o API sous Azure Function et/ou Azure Container Apps
-Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d'amélioration continue
-Participation active aux rituels agiles
3j/semaine sur site
Profil recherché
Compétences techniques requises :
Azure Databricks
PySpark
Delta Lake
Python
Azure Databricks
PySpark
Delta Lake
Python
Description de la société
DGTL / Signe + est le facilitateur pour tous les acteurs qui recherchent des ressources ou des missions DATA.
Spécialiste du marché Data et BI, nous intervenons dans toute la France comme à l'étranger ; en sous-traitance, pré-embauche, recrutement, portage commercial, portage salarial, etc.
Depuis 2018, nous accompagnons nos clients avec proximité, juste prix et préoccupation éthique de tous les instants.
https://www.dgtl-performance.com
Spécialiste du marché Data et BI, nous intervenons dans toute la France comme à l'étranger ; en sous-traitance, pré-embauche, recrutement, portage commercial, portage salarial, etc.
Depuis 2018, nous accompagnons nos clients avec proximité, juste prix et préoccupation éthique de tous les instants.
https://www.dgtl-performance.com