IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Le poste correspondant à cette offre d'emploi a été pourvu.

Data Engineer (IT) / Freelance

Ile de France, La Défense (92400)
Originellement mis en ligne le 20 février 2023 - Remontée le 26 mars 2023 par Marjorie Calvert (+ d'offres)
Visian
Type de contrat :Freelance
Métier :Développeur informatique
Expérience :4 ans minimum
Type d'entreprise :Autre type d'entreprise (client final)
Localisation :Ile de France, La Défense (92400)
Télétravail :Télétravail partiel
Envoyer une candidature

Poste à pourvoir

Bonjour,

VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit et la data.

Dans un marché où les enjeux de recrutement sont clés et où le nombre de freelances est en constante augmentation, Visian a créé une entité dédiée au recrutement de freelances experts du digital et d'IT: VASKA.

Dans le cadre de ses projets clients, VISIAN recherche un Data Engineer

Descriptif de la mission:

Depuis 2022, l'équipe s'est doté de l'outil Dataiku pour accélérer son delivery et gagner en autonomie dans l'industrialisation des nouveaux agrégats clients.
L'outils Dataiku utilise la data plateforme et ses données pour fonctionner (AWS - S3)
L'équipe a besoin d'un renfort pour l'accompagner dans l'amélioration continue de son utilisation de l'outil Dataiku.

Vous travaillerez directement avec des data ingénieurs, des data-ops et des data analystes.

Tests de nouvelles solutions pour améliorer l'usage interactif des données
Spark est bien adapté au lancement de traitements batch mais moins à l'exploration interactive des données (latence lié au lancement des pods, etc.)
Deux solutions à tester sont déjà identifiées : mise en place d'un SQL Engine (type Athena) et POC d'une base de données distribuées (type redshift)

Accompagnement de la mise en place du module automation pour l'industrialisation des agrégats clients
Il s'agit de contribuer à la mise en place du module automation avec les équipes IT, puis de tester et valider le nouvel environnement.
Dans ce cadre, l'intervenant sera amené à développer des flows (check de qualité de données) afin de tester les performances et partager les bonnes pratiques de développements à l'équipe.

Respect des contraintes d'entreprises :
- Coûts d'utilisation maitrisés
- Intégration avec la data plateforme
- Intégration avec les bonnes pratiques d'entreprise (sécurité/ops)

Compétences requises :
- Expert de l'outil Dataiku (au moins 2 ans d'expérience)
- Bonne Connaissance AWS et Spark requise
- Au moins 3 ans d'expérience dans le big Data ( 1 To de données de volumétries)
- La connaissance Redshift est un plus.

Si vous êtes à l'écoute du marché en ce moment je vous invite à postuler en m'envoyant votre candidature

Bien à vous,
Nadia

Envoyer une candidature