IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Développeur Hadoop H/F

Ile de France, Suresnes (92150)
Originellement mis en ligne le 28 avril 2014 - Remontée le 24 juin 2014 par Lily89 (+ d'offres)
Talend
Type de contrat :CDI
Métier :Développeur informatique
Type d'entreprise :Autre type d'entreprise (client final)
Localisation :Ile de France, Suresnes (92150)
Salaire :à définir
Compétences requises :Hadoop
Envoyer une candidature

Poste à pourvoir

Afin de soutenir notre forte croissance, nous renforçons notre équipe R&D avec le recrutement d’un(e) Développeur Hadoop H/F

Le poste proposé est ouvert au sein de l’équipe de développement qui développe et maintient nos produits Big Data (technologies Hadoop et NoSQL). Vous participerez au développement de notre framework de génération native de code Hadoop (Pig/Hive et MapReduce).
Vous devrez avoir une bonne expérience des technologies Java et Hadoop. Le candidat retenu travaillera avec les équipes de gestion de produit, de développeurs, de qualité, de documentation, ainsi qu’avec la communauté open source, afin d’améliorer et faire progresser toutes les parties de notre produit Big Data.

Descriptif de poste :
• Développer et tester des composants logiciels en Java à l’aide du processus de développement Scrum.
• Assister l’équipe de support technique lors de la résolution des problèmes rencontrés par les clients.
• Ecrire de la documentation pour les développeurs et participer au développement de la documentation pour les utilisateurs finaux.
• Encadrer et conseiller les membres juniors de l’équipe.
• Communiquer efficacement avec les membres techniques et non techniques de l’équipe du projet.
• Aider les consultants, partenaires et la communauté open source.
• Gérer simultanément plusieurs tâches et projets.

Profil recherché

• 3 ans d’expérience dans le domaine Hadoop Core (HDFS/MapReduce/HBase) et connaissance de YARN / Tez
• Expérience pratique et complète sur plusieurs technologies parmi les suivantes :
Hadoop Pig, Hive
Sqoop, Flume
Avro
Différents formats de fichiers HDFS (RC, ORC, Parquet)
Storm, Spark
Compression
• Différents mécanismes de sécurité (Kerberos, Knox, Encryption, AD)
• Connaissance et expérience pratiques :
• Expérience dans le domaine de traitement de la donnée en général, et plus particulièrement dans l’intégration de données, la qualité de données ou la gouvernance de données.
• Apache Camel
• NoSQL (MongoDB, Cassandra, Riak, Neo4J)
• Analyse d’évolutivité (Scalability analysis), monitoring des performances, analyse des problèmes / points de contention (bottleneck) et techniques de benchmarks.
• Bonnes capacités de revues de code, de debugging et soucis de la qualité

Si vous êtes intéressé, n’hésitez pas à visiter notre page career : http://fr.talend.com/about-us/careers

Description de la société

Talend fournit des solutions d’intégration réellement évolutives qui s’adaptent à tout type de projet d’intégration, à tout volume de données et à tout périmètre de projet, qu’il soit simple ou complexe. La plate-forme d’intégration de données, d’applications et de processus hautes performances de Talend permet aux entreprises de maximiser la valeur de leurs informations et d’accélérer leur rentabilité.
Optimisée pour les environnements de Big Data, l’architecture flexible de Talend est prête pour les prochaines générations de plates-formes. Une gamme d’outils faciles à utiliser, commune à l’ensemble des solutions de Talend, permet aussi de maximiser les compétences des équipes d’intégration.
A la différence des fournisseurs offrant des solutions fermées et disjointes, Talend propose une plate-forme ouverte et flexible, supportée par un modèle de souscription prévisible.

Site web : http://www.talend.com/

Envoyer une candidature