Role Description
L’opportunité
Nous sommes à la recherche d’un(e) développeur(se) DataOps passionné(e) qui rejoindra notre équipe dynamique de la division Grow de Unity.
Notre objectif est d’assurer la stabilité opérationnelle, la performance et la rentabilité de nos infrastructures de données hébergées dans le nuage, au service des utilisateur(rice)s internes et externes.
En tant que développeur(se) DataOps, vous maintiendrez et améliorerez la stabilité de nos infrastructures de données sur Kubernetes (AWS EKS et GCP GKE).
Vous optimiserez nos services de données pour la performance et le coût, en vous occupant des tâches d'astreinte pour garantir la disponibilité continue du service.
Vous contribuerez également au développement de nos services Druid et Streaming, en améliorant leur stabilité, leur coût et leurs performances.
Si vous aimez optimiser les systèmes de données à fort trafic, ce rôle est fait pour vous, car vous rejoindrez une équipe dynamique qui utilise des technologies de pointe pour gérer les transferts de données à grande échelle, en assurant des problèmes de production minimaux, tout en ayant un impact significatif sur les infrastructures de données de Unity.
Si vous êtes prêt(e) à faire la différence au sein d’une excellente équipe DataOps, nous serions ravis de vous connaître!
Ce que vous allez faire
- Améliorer la stabilité des infrastructures Druid, Streaming, Iceberg, Trino et MySQL
- Participer à la rotation sur appel de ces infra
- Une attention particulière portée au suivi, à la réduction des coûts et à l’amélioration des performances
- Développer des scripts en Python
- Travailler en collaboration avec les clients
Ce que nous recherchons
- Une expérience au sein d’une équipe d’opérations (DevOps ou DataOps) ayant développé en Python et ayant assuré l'astreinte des infrastructures cloud, soit sur AWS, GCP ou Azure
- Une expérience avec AWS et GCP
- Une expérience avec k8s (sur AWS EKS ou GCP GKE)
- Une expérience des technologies de diffusion en continu (Spark Streaming, Spark Structured Streaming ou Flink)
- Une expérience des bases de données (Druid, Trino)
Vous avez peut-être également
- De bonnes compétences en développement en Scala ou Python
- Une bonne compréhension de l’administration des systèmes d’exploitation Linux
- Une expérience en tant que SRE
Information supplémentaire
- L’aide à la relocalisation internationale n’est pas disponible pour ce poste.