. L’infrastructure en place est constituée de 60 plateformes Hadoop réparties sur 3 datalakes .
. La mission consiste notamment à positionner la solution Hadoop via une offre de service cloud interne pour nos besoins clients. Le périmètre de la prestation est le suivant :
. Valider l’implémentation des nouvelles versions d’hadoop depuis le cloud interne
. Valider les procédures liées au LCM des plateformes. Valider les procédures d’upgrade communiquées par les référents de l’équipe ingénierie infrastructure.
. Faciliter les échanges et l’exploitabilité (support sur les procédures communiquées) des plateformes opérées par les équipes d’exploitation des 3 centres de production.
. Intégration des services hadoop au sein de l’écosystème environnant (Datawharehouse, BI, Middleware, Data science, Applicatifs etc) toujours exécutés sur linux. Une connaissance HortonWorks et/ou Cloudera est essentielle. Une connaissance des modules de sécurité (Ranger, Knox, Kerberos) est nécessaire. Une connaissance Kafka, NiFi, Discovery serait appréciée.
. Documentation, transfert de connaissances auprès des équipes assurant l’exploitation de l’infrastructure et des produits opérationnels
. Activités de support sur les datalake actuellement en production.
. Bon niveau d’anglais écrit et oral (nombreuses réunions en anglais).
. Autonomie. .