NANTES, FR, 44000
DataOps H/F/N
Au sein de votre équipe #OneTeam
- Supporter des applicatifs à destination des clients (ex. : ServiceNow) ou d’utilisateurs internes pour des usages opérationnels ou Analytiques (CRM, MDM, BI…)
-
S'occuper du service qui a pour vocation de répondre à des besoins de streaming d’évènements entre différentes applications. Cela s’inscrit dans une vision globale de construction d’une entreprise centrée sur la donnée (Data Centric). - de nombreuses équipes internes OVHCloud utilisent donc ce service au quotidien pour leurs transferts de données-
Vos principales responsabilités
- Etre en charge du monitoring (RUN) et de la maintenance (MCO) des plateformes basées sur la solution Apache Kafka
- Faire évoluer ces plateformes dans le respect de la roadmap (trimestrielle)
- Garantir la qualité des tests et de la documentation des fonctionnalités des nouvelles releases
- Se charger de la sécurité de la plateforme
- Etre à l'écoute des utilisateurs et véritable ambassadeur de la plateforme auprès de ces derniers
- Faire de la veille constante afin de pouvoir partager le fruit des recherches avec les co-équipiers
Votre futur impact
Dans 6 mois vous serez monté en compétence sur
-
Comment une infrastructure interne Kafka fonctionne
-
Les process de maintenance et mise en productions d’un environnement critique
-
Le périmètre PCI-DSS
-
La gestion du puppet en charge du déploiement des environnements
-
Les bonnes pratiques des revues de codes dont vous serez contributeur
Et dans 1 an vous maitriserez
- Le design et le développement d’une ou plusieurs fonctionnalités clientes
- Les architectures existantes (puppet, Git, déploiement) et serez force de proposition sur les améliorations à leur apporter
- Les process inhérents à l'organisation
- La totalité de l’infrastructure interne Kafka
Compétences requises :
- Vous maîtrisez Linux, Docker, Ansible et idéalement Golang
- Vous êtes familié avec les architectures modernes et leurs spécificités (Architecture microservices, Event sourcing, ...)
C'est un +
- Vous justifiez d'expérience de suivi d'un système Kafka en production (supervision, trouble shooting, administration)
- Vous avez des connaissances / expériences sur la technologie Apache Kafka
DataOps H/F/N
Au sein de votre équipe #OneTeam
- Supporter des applicatifs à destination des clients (ex. : ServiceNow) ou d’utilisateurs internes pour des usages opérationnels ou Analytiques (CRM, MDM, BI…)
-
S'occuper du service qui a pour vocation de répondre à des besoins de streaming d’évènements entre différentes applications. Cela s’inscrit dans une vision globale de construction d’une entreprise centrée sur la donnée (Data Centric). - de nombreuses équipes internes OVHCloud utilisent donc ce service au quotidien pour leurs transferts de données-
Vos principales responsabilités
- Etre en charge du monitoring (RUN) et de la maintenance (MCO) des plateformes basées sur la solution Apache Kafka
- Faire évoluer ces plateformes dans le respect de la roadmap (trimestrielle)
- Garantir la qualité des tests et de la documentation des fonctionnalités des nouvelles releases
- Se charger de la sécurité de la plateforme
- Etre à l'écoute des utilisateurs et véritable ambassadeur de la plateforme auprès de ces derniers
- Faire de la veille constante afin de pouvoir partager le fruit des recherches avec les co-équipiers
Votre futur impact
Dans 6 mois vous serez monté en compétence sur
-
Comment une infrastructure interne Kafka fonctionne
-
Les process de maintenance et mise en productions d’un environnement critique
-
Le périmètre PCI-DSS
-
La gestion du puppet en charge du déploiement des environnements
-
Les bonnes pratiques des revues de codes dont vous serez contributeur
Et dans 1 an vous maitriserez
- Le design et le développement d’une ou plusieurs fonctionnalités clientes
- Les architectures existantes (puppet, Git, déploiement) et serez force de proposition sur les améliorations à leur apporter
- Les process inhérents à l'organisation
- La totalité de l’infrastructure interne Kafka
Compétences requises :
- Vous maîtrisez Linux, Docker, Ansible et idéalement Golang
- Vous êtes familié avec les architectures modernes et leurs spécificités (Architecture microservices, Event sourcing, ...)
C'est un +
- Vous justifiez d'expérience de suivi d'un système Kafka en production (supervision, trouble shooting, administration)
- Vous avez des connaissances / expériences sur la technologie Apache Kafka