Role Description
L’opportunité
L’équipe Data Développement de Unity est à la recherche d’un(e) développeur(se) de données senior expérimenté(e), doté(e) d’une solide expérience dans le domaine du développement de données et d’une passion pour les technologies de pointe.
En tant que développeur(se) de données senior, vous aurez la responsabilité de la conception et du développement de pipelines de données et de services permettant d’obtenir des informations basées sur les données, ainsi que des fonctionnalités performantes d’intelligence d’affaires, d’apprentissage automatique, d’expérimentation et de contact avec les utilisateur(rice)s.
Vous serez exposé(e) à de multiples plateformes infonuagique et pipelines de données qui traitent >
7 milliards d’événements par jour. Rejoignez notre équipe et aidez-nous à créer des produits de données pertinents et à rechercher des solutions techniques, avec nos équipes mondiales et
Ce que vous allez faire
- Concevoir et développer des pipelines de données à l’aide de technologies comme Spark, Python, Airflow, Snowflake, développeur , DBT et Druid
- Travailler avec les développeur(se)s d’apprentissage automatique, les scientifiques des données et les analystes afin de comprendre et de traduire les besoins de l’entreprise en solutions de données concrètes qui génèrent des informations et des rapports
- Développer des produits d’analyse et des solutions de données pour soutenir les clients internes et externes
- Appliquer les pratiques exemplaires en matière d’infrastructure, de stockage et de traitement des données dans un environnement caractérisé par des volumes élevés et des pétaoctets.
- Concevoir des solutions de données basées sur le nuage à l’aide de plateformes comme GCP, AWS et Snowflake, tout en mettant en œuvre des stratégies de gouvernance des données pour garantir la qualité, la cohérence et la sécurité
Ce que nous recherchons
- Un minimum de cinq ans d’expérience axé(e) sur la construction de pipelines de données évolutifs et efficaces
- Des compétences dans SQL et les langages de programmation comme Python, Scala ou Java
- Une expérience des technologies de big data (par exemple, Flink, Spark) et des plateformes infonuagique (par exemple, GCP de préférence, AWS)
- Une compréhension approfondie des techniques ETC / ELT, de la modélisation des données et des modèles de données comme les SCD, les CDC, les instantanés et le partitionnement
- D’excellentes compétences en matière de résolution de problèmes, une connaissance de l’architecture des données et une capacité à gérer les ambiguïtés dans un environnement dynamique et dynamique
Vous avez peut-être également
- Une connaissance de Kafka ou d’une technologie Publish-subscribe similaire
- Une expérience en AdTech est un atout, mais n’est pas requise
Information supplémentaire
- Un visa de travail ou un parrainage de l’immigration n’est pas disponible pour ce poste.
- Le support à la relocalisation n’est pas disponible pour ce poste.
- L’aide à la relocalisation internationale n’est pas disponible pour ce poste.