Le poste correspondant à cette offre d'emploi a été pourvu.
Data Engineer Snowflake DBT
Rhône Alpes, Lyon (69000)
Originellement mis en ligne le 14 janvier 2025 - Remontée le 27 février 2025 par Marie Calvert (+ d'offres)

Type de contrat :CDI
Métier :Développeur informatique
Expérience :4 ans minimum
Type d'entreprise :Autre type d'entreprise (client final)
Localisation :Rhône Alpes, Lyon (69000)
Télétravail :Pas de télétravail
Poste à pourvoir
Principales responsabilités :
Collaborer avec les équipes métier pour comprendre leurs besoins et les traduire en exigences techniques.
Communiquer efficacement avec les différentes parties prenantes et partager les statuts, résultats et conclusions de manière structurée.
Travailler en collaboration avec les Data Analysts et Data Scientists pour concevoir des pipelines adaptés aux exigences métier.
Configurer et intégrer des données provenant de diverses sources (par exemple, Amazon S3, bases de données, APIs).
Créer des modèles de données et effectuer des optimisations de performance.
Garantir l'application des meilleures pratiques en matière de manipulation de données de bout en bout.
Exigences fonctionnelles :
Expérience de travail avec des équipes interfonctionnelles variées.
Bonne compréhension des processus et concepts de développement agile/Scrum.
Capacité à évoluer dans un environnement rapide et en constante évolution tout en gérant plusieurs priorités.
Approche pragmatique et aptitude à résoudre des problèmes complexes.
Orienté service, joueur d'équipe flexible avec un souci du détail.
Excellentes compétences en communication écrite, verbale et interpersonnelle pour la collaboration avec des cadres dirigeants (l'anglais est indispensable).
Livrables :
Tableau de bord
Rapport de supervision et monitoring
Pipelines automatisées
Tests automatisés
Documentation technique, release notes
Codes sources, livraisons Gitlab CI/CD
MEX (dossier d'exploitation), DIA (dossier installation)
Collaborer avec les équipes métier pour comprendre leurs besoins et les traduire en exigences techniques.
Communiquer efficacement avec les différentes parties prenantes et partager les statuts, résultats et conclusions de manière structurée.
Travailler en collaboration avec les Data Analysts et Data Scientists pour concevoir des pipelines adaptés aux exigences métier.
Configurer et intégrer des données provenant de diverses sources (par exemple, Amazon S3, bases de données, APIs).
Créer des modèles de données et effectuer des optimisations de performance.
Garantir l'application des meilleures pratiques en matière de manipulation de données de bout en bout.
Exigences fonctionnelles :
Expérience de travail avec des équipes interfonctionnelles variées.
Bonne compréhension des processus et concepts de développement agile/Scrum.
Capacité à évoluer dans un environnement rapide et en constante évolution tout en gérant plusieurs priorités.
Approche pragmatique et aptitude à résoudre des problèmes complexes.
Orienté service, joueur d'équipe flexible avec un souci du détail.
Excellentes compétences en communication écrite, verbale et interpersonnelle pour la collaboration avec des cadres dirigeants (l'anglais est indispensable).
Livrables :
Tableau de bord
Rapport de supervision et monitoring
Pipelines automatisées
Tests automatisés
Documentation technique, release notes
Codes sources, livraisons Gitlab CI/CD
MEX (dossier d'exploitation), DIA (dossier installation)
Profil recherché
Loc : Lyon ou Bordeaux (Full TT avec des déplacements ponctuels sur site)
Anglais courant demandé
Exigences techniques :
Diplôme universitaire ou équivalent en informatique, ingénierie ou domaine pertinent.
Expérience approfondie avec des solutions modernes d'entrepôts de données et d'intégration : Snowflake, DBT, Informatica
Maîtrise des services Cloud : AWS, Azure ou GCP.
Connaissance des outils d'orchestration : Airflow.
Compétence en langages de script (Python) et écriture de SQL modulaire.
Expérience approfondie en SQL et technologies/concepts de bases de données relationnelles.
Utilisation des outils de gestion de projet et de documentation : JIRA, Confluence.
Maîtrise des pipelines CI/CD avec Github Actions.
Secteur pharmaceutique
Anglais courant demandé
Exigences techniques :
Diplôme universitaire ou équivalent en informatique, ingénierie ou domaine pertinent.
Expérience approfondie avec des solutions modernes d'entrepôts de données et d'intégration : Snowflake, DBT, Informatica
Maîtrise des services Cloud : AWS, Azure ou GCP.
Connaissance des outils d'orchestration : Airflow.
Compétence en langages de script (Python) et écriture de SQL modulaire.
Expérience approfondie en SQL et technologies/concepts de bases de données relationnelles.
Utilisation des outils de gestion de projet et de documentation : JIRA, Confluence.
Maîtrise des pipelines CI/CD avec Github Actions.
Secteur pharmaceutique
Description de la société
DGTL / Signe + est le facilitateur pour tous les acteurs qui recherchent des ressources ou des missions DATA.
Spécialiste du marché Data et BI, nous intervenons dans toute la France comme à l'étranger ; en sous-traitance, pré-embauche, recrutement, portage commercial, portage salarial, etc.
Depuis 2018, nous accompagnons nos clients avec proximité, juste prix et préoccupation éthique de tous les instants.
https://www.dgtl-performance.com
Spécialiste du marché Data et BI, nous intervenons dans toute la France comme à l'étranger ; en sous-traitance, pré-embauche, recrutement, portage commercial, portage salarial, etc.
Depuis 2018, nous accompagnons nos clients avec proximité, juste prix et préoccupation éthique de tous les instants.
https://www.dgtl-performance.com