Vous voulez contribuer à des projets uniques pour construire ensemble le cloud libre ? Allons-y !
Chez OVHcloud, nous sommes animés par la même volonté, celle de construire l’avenir ensemble pour défendre la liberté d’innover.

🔗 Découvrez l’acteur majeur du cloud libre et responsable.

DÉTAILS

CDI
IT, Technologie & Produit

PARIS, FR, 75017

Hybride
Hybride

VOTRE MISSION

DevOps - Data H/F/N

 

Au sein de votre équipe #OneTeam

  • Vous rejoindrez l'équipe Lakehouse de l'unité Analytics.
  • Notre mission est de collecter, modéliser et transformer les données, en créant des outils pour exploiter et valoriser celles-ci.
  • Vous serez principalement responsable de la construction, de la maintenance et de l'optimisation de solutions de données distribuées, contribuant à la fiabilité, l'évolutivité et la sécurité de notre écosystème de plateforme de données.

 

Vos principales responsabilités

  • Concevoir, implémenter et optimiser des systèmes de stockage et de traitement de données SQL distribuées avec des technologies comme Apache Iceberg et Trino...
  • Construire et maintenir des Data Lakes et Lakehouses, en assurant l'intégrité, la sécurité et un accès performant aux données.
  • Développer, déployer et maintenir une solution robuste grâce à des pipelines d'automatisation CI/CD, dans des langages tels que Python, Java & Golang.
  • Surveiller et améliorer les performances des systèmes de données, notamment l'optimisation des requêtes et la gestion des ressources.
  • Garantir un niveau d'excellence en suivant les recommandations idiomatiques et de code analysis/coverage du marché.
  • Rédiger et maintenir une documentation technique complète pour soutenir le transfert de connaissances au sein de l'équipe et se conformer aux normes de certification.

 

Votre futur impact

 

Dans 6 mois vous aurez :

  • Optimisé notre système de gestion de catalogue afin de préparer l'implémentation de nouvelles features.
  • Participé à l'intégration de features avancées de Trino au sein de la data platform tel que le data travelling.
  • Contribué à l'amélioration continue du système d'observabilité du Lakehouse de la Data Platform.

 

#

Compétences requises :

  • Vous avez une expérience confirmée sur des sujets DevOps, d'observabilité et de maintien en condition opérationnelles.
  • Vous avez une bonne connaissance des concepts de Data Lakehouse et SQL distribué.
  • Vous justifiez de connaissances sur des technologies de Lakehouse telles que Trino, Apache Iceberg.
  • Vous êtes confirmé dans le développement (Python/Golang/Java...).
  • Vous êtes en capacité d'analyser et surveiller les indicateurs de performance.
  • Vous avez une appétence pour la recherche et la résolution de problèmes complexes dans de larges environnements.

 

C'est un +

  • Vous assurez et promouvez une veille sur les technologies et la compétition.
  • Vous avez un sens du service client.
  • Vous justifiez d'une expérience de maintien en condition opérationnel d'un système à grande échelle.

PROCESS DE RECRUTEMENT

1. Échange dans les 2 à 4 semaines avec notre hiring officer:  Arthur
2. Entretien avec le manager:  Yannick

3. Rencontre possible avec l'équipe ou un pair

Compte Épargne Temps (CET)
Intéressement
Plan d’Épargne de Groupe (PEG)
Plan d’Épargne pour la Retraite Collectif (PERCO)

Carte Ticket Restaurant
RTT
Mutuelle et prévoyance d’entreprise*
Service d’accompagnement aux Risques-Psycho-Sociaux via une plateforme dédiée*
Subventions sport & vacances
* pour tous les membres d’un même foyer

REJOINDRE L’AVENTURE OVHcloud

OVHcloud valorise la diversité des personnes qu’elle embauche et accompagne. La diversité pour nous, c’est favoriser un milieu de travail où les différences individuelles sont reconnues, appréciées et respectées de façon à développer le plein potentiel et les forces de chacune et chacun.
Soyez libre d’être vous-même !

LE DÉVELOPPEMENT DURABLE CHEZ OVHcloud, UN ENGAGEMENT PROFOND

La data a un impact fort dans tous les aspects de notre vie. Elle change aussi notre manière de concevoir le monde et son usage reflète le type de société dans laquelle nous voulons vivre.
En tant qu’acteur majeur de la tech, nous faisons tout ce qui est en notre pouvoir depuis plus de 20 ans pour réduire notre impact environnemental grâce à l’innovation industrielle et pour garantir un cloud libre #SustainableByDesign

🔗 Explorez nos engagements qui font la différence.

POUR ALLER PLUS LOIN

Découvrez nos collaboratrices et collaborateurs passionné(e)s et explorez leurs métiers chez OVHcloud!

► YouTube OVHcloud Careers

Vous voulez contribuer à des projets uniques pour construire ensemble le cloud libre ? Allons-y ! Chez OVHcloud, nous sommes animés par la même volonté, celle de construire l’avenir ensemble pour défendre la liberté d’innover.

🔗 Découvrez l’acteur majeur du cloud libre et responsable.

VOTRE MISSION

DevOps - Data H/F/N

 

Au sein de votre équipe #OneTeam

  • Vous rejoindrez l'équipe Lakehouse de l'unité Analytics.
  • Notre mission est de collecter, modéliser et transformer les données, en créant des outils pour exploiter et valoriser celles-ci.
  • Vous serez principalement responsable de la construction, de la maintenance et de l'optimisation de solutions de données distribuées, contribuant à la fiabilité, l'évolutivité et la sécurité de notre écosystème de plateforme de données.

 

Vos principales responsabilités

  • Concevoir, implémenter et optimiser des systèmes de stockage et de traitement de données SQL distribuées avec des technologies comme Apache Iceberg et Trino...
  • Construire et maintenir des Data Lakes et Lakehouses, en assurant l'intégrité, la sécurité et un accès performant aux données.
  • Développer, déployer et maintenir une solution robuste grâce à des pipelines d'automatisation CI/CD, dans des langages tels que Python, Java & Golang.
  • Surveiller et améliorer les performances des systèmes de données, notamment l'optimisation des requêtes et la gestion des ressources.
  • Garantir un niveau d'excellence en suivant les recommandations idiomatiques et de code analysis/coverage du marché.
  • Rédiger et maintenir une documentation technique complète pour soutenir le transfert de connaissances au sein de l'équipe et se conformer aux normes de certification.

 

Votre futur impact

 

Dans 6 mois vous aurez :

  • Optimisé notre système de gestion de catalogue afin de préparer l'implémentation de nouvelles features.
  • Participé à l'intégration de features avancées de Trino au sein de la data platform tel que le data travelling.
  • Contribué à l'amélioration continue du système d'observabilité du Lakehouse de la Data Platform.

 

#

Compétences requises :

  • Vous avez une expérience confirmée sur des sujets DevOps, d'observabilité et de maintien en condition opérationnelles.
  • Vous avez une bonne connaissance des concepts de Data Lakehouse et SQL distribué.
  • Vous justifiez de connaissances sur des technologies de Lakehouse telles que Trino, Apache Iceberg.
  • Vous êtes confirmé dans le développement (Python/Golang/Java...).
  • Vous êtes en capacité d'analyser et surveiller les indicateurs de performance.
  • Vous avez une appétence pour la recherche et la résolution de problèmes complexes dans de larges environnements.

 

C'est un +

  • Vous assurez et promouvez une veille sur les technologies et la compétition.
  • Vous avez un sens du service client.
  • Vous justifiez d'une expérience de maintien en condition opérationnel d'un système à grande échelle.