CDI
IT, Technologie & Produit
PARIS, FR, 75017
Hybride
Hybride
DevOps - Data H/F/N
Au sein de votre équipe #OneTeam
- Vous rejoindrez l'équipe Lakehouse de l'unité Analytics.
- Notre mission est de collecter, modéliser et transformer les données, en créant des outils pour exploiter et valoriser celles-ci.
- Vous serez principalement responsable de la construction, de la maintenance et de l'optimisation de solutions de données distribuées, contribuant à la fiabilité, l'évolutivité et la sécurité de notre écosystème de plateforme de données.
Vos principales responsabilités
- Concevoir, implémenter et optimiser des systèmes de stockage et de traitement de données SQL distribuées avec des technologies comme Apache Iceberg et Trino...
- Construire et maintenir des Data Lakes et Lakehouses, en assurant l'intégrité, la sécurité et un accès performant aux données.
- Développer, déployer et maintenir une solution robuste grâce à des pipelines d'automatisation CI/CD, dans des langages tels que Python, Java & Golang.
- Surveiller et améliorer les performances des systèmes de données, notamment l'optimisation des requêtes et la gestion des ressources.
- Garantir un niveau d'excellence en suivant les recommandations idiomatiques et de code analysis/coverage du marché.
- Rédiger et maintenir une documentation technique complète pour soutenir le transfert de connaissances au sein de l'équipe et se conformer aux normes de certification.
Votre futur impact
Dans 6 mois vous aurez :
- Optimisé notre système de gestion de catalogue afin de préparer l'implémentation de nouvelles features.
- Participé à l'intégration de features avancées de Trino au sein de la data platform tel que le data travelling.
- Contribué à l'amélioration continue du système d'observabilité du Lakehouse de la Data Platform.
#
Compétences requises :
- Vous avez une expérience confirmée sur des sujets DevOps, d'observabilité et de maintien en condition opérationnelles.
- Vous avez une bonne connaissance des concepts de Data Lakehouse et SQL distribué.
- Vous justifiez de connaissances sur des technologies de Lakehouse telles que Trino, Apache Iceberg.
- Vous êtes confirmé dans le développement (Python/Golang/Java...).
- Vous êtes en capacité d'analyser et surveiller les indicateurs de performance.
- Vous avez une appétence pour la recherche et la résolution de problèmes complexes dans de larges environnements.
C'est un +
- Vous assurez et promouvez une veille sur les technologies et la compétition.
- Vous avez un sens du service client.
- Vous justifiez d'une expérience de maintien en condition opérationnel d'un système à grande échelle.
1. Échange dans les 2 à 4 semaines avec notre hiring officer:
Arthur
2. Entretien avec le manager:
Yannick
DevOps - Data H/F/N
Au sein de votre équipe #OneTeam
- Vous rejoindrez l'équipe Lakehouse de l'unité Analytics.
- Notre mission est de collecter, modéliser et transformer les données, en créant des outils pour exploiter et valoriser celles-ci.
- Vous serez principalement responsable de la construction, de la maintenance et de l'optimisation de solutions de données distribuées, contribuant à la fiabilité, l'évolutivité et la sécurité de notre écosystème de plateforme de données.
Vos principales responsabilités
- Concevoir, implémenter et optimiser des systèmes de stockage et de traitement de données SQL distribuées avec des technologies comme Apache Iceberg et Trino...
- Construire et maintenir des Data Lakes et Lakehouses, en assurant l'intégrité, la sécurité et un accès performant aux données.
- Développer, déployer et maintenir une solution robuste grâce à des pipelines d'automatisation CI/CD, dans des langages tels que Python, Java & Golang.
- Surveiller et améliorer les performances des systèmes de données, notamment l'optimisation des requêtes et la gestion des ressources.
- Garantir un niveau d'excellence en suivant les recommandations idiomatiques et de code analysis/coverage du marché.
- Rédiger et maintenir une documentation technique complète pour soutenir le transfert de connaissances au sein de l'équipe et se conformer aux normes de certification.
Votre futur impact
Dans 6 mois vous aurez :
- Optimisé notre système de gestion de catalogue afin de préparer l'implémentation de nouvelles features.
- Participé à l'intégration de features avancées de Trino au sein de la data platform tel que le data travelling.
- Contribué à l'amélioration continue du système d'observabilité du Lakehouse de la Data Platform.
#
Compétences requises :
- Vous avez une expérience confirmée sur des sujets DevOps, d'observabilité et de maintien en condition opérationnelles.
- Vous avez une bonne connaissance des concepts de Data Lakehouse et SQL distribué.
- Vous justifiez de connaissances sur des technologies de Lakehouse telles que Trino, Apache Iceberg.
- Vous êtes confirmé dans le développement (Python/Golang/Java...).
- Vous êtes en capacité d'analyser et surveiller les indicateurs de performance.
- Vous avez une appétence pour la recherche et la résolution de problèmes complexes dans de larges environnements.
C'est un +
- Vous assurez et promouvez une veille sur les technologies et la compétition.
- Vous avez un sens du service client.
- Vous justifiez d'une expérience de maintien en condition opérationnel d'un système à grande échelle.