Le poste correspondant à cette offre d'emploi a été pourvu.
Senior Data Engineer H/F
Ile de France, Paris (75000)
Originellement mis en ligne le 8 juillet 2022 - Remontée le 2 août 2022 par Marie Calvert (+ d'offres)
IPepper
Type de contrat :CDI
Métier :Développeur informatique
Expérience :4 ans minimum
Type d'entreprise :Autre type d'entreprise (client final)
Localisation :Ile de France, Paris (75000)
Télétravail :Pas de télétravail
Poste à pourvoir
Les applications de notre client recensent une mine d'or de données financières qui sont pourtant encore peu exploitées. L'équipe Data est en construction pour mettre à profit ces données que ce soit en interne (product analytics, BI) qu'en externe (développement de nouvelles features). En étroite collaboration avec la Head of Data, vous aurez donc pour mission de construire et maintenir la data stack nécessaire à la bonne exploitation des données. En tant que premier data engineer de l'entreprise, vous pourrez construire une stack à votre image et piloter ensuite tout le développement technique.
Les missions :
Définition et développement d'une architecture data globale et sécurisée dont : ETL/ELT, data lake, data warehouse, outil BI, environnement data science
Migration puis collecte multi-source de ces données dans ces nouveaux environnements
Construction et déploiement des pipelines de données (ETL / ELT)
Mise en place du data model pour l'harmonisation des données dans le datawarehouse
Mise à disposition des données pour leur exploitation :
Par les métiers à travers d'outils de BI
Par les data scientists pour la construction de modèles
Industrialisation des modèles de data science (API, micro services)
Porter de la vision data et participer à l'acculturation au sein de l'entreprise
Les données à analyser viennent de plusieurs sources :
Données décrivant le patrimoine financier des clients particuliers
Données décrivant le patrimoine global
Données CRM
Données analytiques issues du webtracking
Les technologies déjà présentes :
Les données sont stockées sur des BDD MySQL, les applications communiquent entre elles via des flux XML. Une grande partie de l'offre des logiciels est également disponible sous forme d'API.
Les missions :
Définition et développement d'une architecture data globale et sécurisée dont : ETL/ELT, data lake, data warehouse, outil BI, environnement data science
Migration puis collecte multi-source de ces données dans ces nouveaux environnements
Construction et déploiement des pipelines de données (ETL / ELT)
Mise en place du data model pour l'harmonisation des données dans le datawarehouse
Mise à disposition des données pour leur exploitation :
Par les métiers à travers d'outils de BI
Par les data scientists pour la construction de modèles
Industrialisation des modèles de data science (API, micro services)
Porter de la vision data et participer à l'acculturation au sein de l'entreprise
Les données à analyser viennent de plusieurs sources :
Données décrivant le patrimoine financier des clients particuliers
Données décrivant le patrimoine global
Données CRM
Données analytiques issues du webtracking
Les technologies déjà présentes :
Les données sont stockées sur des BDD MySQL, les applications communiquent entre elles via des flux XML. Une grande partie de l'offre des logiciels est également disponible sous forme d'API.
Profil recherché
Bac+5
TT partiel possible
Au moins une expérience significative sur la conception et le déploiement d'une architecture data complexe en production
Expérience en environnement cloud provider et micro services
Maitrise de Python, Scala ou Java, SQL, Git
Connaissances des outils de solution data (ETL, datawarehouse, BI..)
Connaissances en Kafka, Docker, Terraform
Bonne communication, et capacités d'adaptation face à des problématiques complexes
TT partiel possible
Au moins une expérience significative sur la conception et le déploiement d'une architecture data complexe en production
Expérience en environnement cloud provider et micro services
Maitrise de Python, Scala ou Java, SQL, Git
Connaissances des outils de solution data (ETL, datawarehouse, BI..)
Connaissances en Kafka, Docker, Terraform
Bonne communication, et capacités d'adaptation face à des problématiques complexes
Description de la société
Nous sommes le partenaire technologique préféré de ceux qui changent le monde !
iPepper c'est avant tout une façon de travailler ensemble : se faire du bien, faire du bien et prendre soin de ses clients, salariés et partenaires !
Coaching, Recrutement et Conseil : une palette de services autour de la protection et la valorisation de la data.
iPepper c'est avant tout une façon de travailler ensemble : se faire du bien, faire du bien et prendre soin de ses clients, salariés et partenaires !
Coaching, Recrutement et Conseil : une palette de services autour de la protection et la valorisation de la data.