Ingénieur de données - Data Engineer
Job Description
Job Description
Salary : Qui nous sommes
Qui nous sommes
Nous sommes Datavalet, un acteur en pleine croissance dans le monde du Wi-Fi, des réseaux gérés et des solutions logicielles d'affaires.
Nous créons l'avenir des expériences numériques connectées. Nous sommes une entreprise de taille moyenne avec des bureaux à Montréal, Toronto et Charlotte, NC.
Le développement durable est au cœur de tout ce que nous faisons, comme l'illustre notre certification Ecocert. Nous prenons soin de notre planète, de nos communautés et de nos pratiques sociales.
Nous sommes une entreprise technologique, donc nous sommes passionnés par la création de solutions qui répondent à des problèmes réels et qui sont à la fine pointe de la technologie.
Ce que nous recherchons
Nous recherchons un Ingénieur de Données expérimenté, doté de solides compétences en leadership, pour rejoindre notre équipe DataOps et jouer un rôle clé dans la construction et l'optimisation des pipelines de données sur Google Cloud Platform .
Dans ce rôle, vous participerez activement à la conception et à l'optimisation des pipelines de données sur Google Cloud Platform, en mettant également l’accent sur la conception architecturale, la documentation et le partage de connaissances au sein de l’équipe.
Responsabilités :
- Concevoir, développer et maintenir des pipelines de données en utilisant les produits Google Cloud, tels que Cloud BigQuery, Google Cloud Storage, Cloud Pub / Sub et Cloud BigTable.
- Élaborer des diagrammes d’architecture pour visualiser le flux de données et les composants du système afin de faciliter la communication au sein de l’équipe.
- Rédiger une documentation complète pour assurer le transfert de connaissances et le respect des meilleures pratiques.
- Mettre en place et maintenir des cadres de gouvernance des données pour garantir la qualité, la sécurité et la conformité des données.
- Optimiser les coûts du cloud en gérant efficacement les ressources sur Google Cloud Platform.
- Stimuler l'innovation en diffusant les meilleures pratiques et en favorisant une culture d'amélioration continue au sein de l'équipe.
- Contribuer à la mise en œuvre de projets de Data Warehouse ou de Big Data en utilisant des technologies telles que Kafka, DataProc, Hadoop, Spark, etc.
Exigences :
- Plus de 3 ans d’expérience avérée en analyse de données, déploiement de systèmes de traitement de données distribués et gouvernance des données.
- Maîtrise de Python, Go, Java ou d'autres langages de programmation.
- Expérience pratique avec Google BigQuery, y compris l'optimisation des requêtes et la gestion de grands ensembles de données.
- Expertise dans la conception et la maintenance de pipelines de données robustes pour un flux de données efficace.
- Solide connaissance des concepts de Data Warehouse et des meilleures pratiques.
- Compétences avancées en analyse pour extraire des informations à partir de jeux de données complexes.
- Qualités de leadership, avec un accent sur le partage des connaissances et la promotion d'une culture d'amélioration continue.
- Une certification cloud (par exemple, Google Cloud Platform) est un atout.
Atouts :
- Expérience dans la création de diagrammes d'architecture pour visualiser les composants du système et le flux de données.
- Engagement fort pour la rédaction d'une documentation complète pour le transfert de connaissances.
- Capacité à diffuser les meilleures pratiques et à encourager l'innovation au sein de l’équipe.
- Connaissance du traitement en temps réel et de l’intégration de sources de données variées.
Who We Are
We are Datavalet, a growing player in the world of Wi-Fi, managed networks, and business software solutions. We’re creating the future of connected digital experiences.
We are a mid-sized company with offices in Montreal, Toronto, and Charlotte, NC. Sustainable development is at the heart of everything we do, as illustrated by our Ecocert certification.
We take care of our planet, our communities, and our social practices.
We’re a technology company, so we’re passionate about creating solutions that solve real problems and that are on the cutting edge.
What We’re Looking for
We are seeking a skilled Data Engineer with a strong emphasis on leadership capabilities to join our DataOps team and play a key role in building and optimizing data pipelines on Google Cloud Platform .
In this role, you will play a pivotal part in designing and optimizing data pipelines in Google Cloud Platform while also focusing on architectural design, documentation, and knowledge sharing within the team.
Responsibilities :
- Design, develop, and maintain data pipelines leveraging Google Cloud products such as Cloud BigQuery, Google Cloud Storage, Cloud Pub / Sub, and Cloud BigTable.
- Draft architecture diagrams to visualize data flow and system components for effective communication within the team.
- Develop comprehensive documentation to ensure knowledge transfer and maintain best practices.
- Implement and uphold data governance frameworks to ensure data quality, security, and compliance.
- Optimize cloud costs by efficiently managing resources on Google Cloud Platform.
- Drive innovation by spreading best practices and fostering a culture of continuous improvement within the team.
- Contribute to the implementation of Data Warehouses or Big Data projects using technologies like Kafka, DataProc, Hadoop, Spark, etc.
Requirements :
- 3+ years of demonstrated experience in data analytics, deploying distributed data processing systems, and data governance.
- Proficiency in Python, Go, Java, or other coding languages.
- Hands-on experience with Google BigQuery including query optimization and large dataset management.
- Expertise in designing and maintaining robust data pipelines for efficient data flow.
- Strong background in data warehousing concepts and best practices.
- Advanced analytics skills for deriving insights from complex datasets.
- Leadership qualities with a focus on knowledge sharing and fostering a culture of continuous improvement.
- Cloud certification (e.g., Google Cloud Platform) is preferred.
Additional Skills :
- Experience in drafting architecture diagrams to visualize system components and data flow.
- Strong commitment to writing comprehensive documentation for knowledge transfer.
- Ability to spread best practices and drive innovation within the team.
- Knowledge of real-time streaming and processing of diverse data sources.