Data Engineer
Veröffentlicht:
25 Oktober 2024Pensum:
100%Vertrag:
Festanstellung- Arbeitsort:Nyon
Data Engineer
- Full-time
- Contract Type: Long term contract
Company Description
Talan est un cabinet de conseil en innovation et transformation par la technologie. Depuis plus de 20 ans, Talan conseille les entreprises et les administrations, les accompagne et met en œuvre leurs projets de transformation et d’innovation en France et à l’international.
Présent dans 21 pays, le Groupe met l’innovation au cœur de son développement et intervient dans les domaines liés aux mutations technologiques des grands groupes, comme le Big Data, l’IoT, la Blockchain et l’Intelligence Artificielle.
Pour la 9ème année consécutive, Talan est lauréat du palmarès des entreprises françaises où il fait bon travailler.
Présent à Genève et à Lausanne Talan Suisse compte aujourd’hui près de150 collaborateurs. Initialement investi dans le secteur financier, Talan s’est développé ces dernières années dans les secteurs de l’horlogerie, des assurances, des médias et des services.
Job Description
- Évaluer l'architecture actuelle de SQL Server pour repérer les dépendances et les défis potentiels liés à la migration.
- Créer des pipelines de données efficaces et évolutifs en utilisant Dataform pour l'extraction, la transformation et le chargement (ETL) de données provenant de diverses sources vers BigQuery.
- Mettre en place des processus de validation et de contrôle de la qualité pour assurer l'intégrité des données tout au long de la migration.
- Collaborer étroitement avec l'équipe Data afin d'assurer une intégration fluide des données migrées dans notre écosystème cloud.
- Documenter les étapes de migration, les configurations et les scripts pour garantir la maintenabilité et la transférabilité des processus.
- Participer à l'élaboration et à la mise en œuvre de la stratégie de gouvernance des données, incluant la gestion des métadonnées, la qualité des données et la sécurité.
- Contribuer à l'automatisation des migrations et à la création d'outils et de scripts visant à optimiser l'efficacité.
- Réaliser des tests complets de migration, du datalake au data warehouse, afin de garantir la cohérence et l'intégrité des données.
Qualifications
- Expérience significative dans la conception, le développement et la maintenance de pipelines ETL.
- Excellente maîtrise de SQL (tant sur SQL Server que sur BigQuery) et bonne compréhension des concepts de modélisation de données.
- Une expérience avec SQL Server Integration Services (SSIS) serait un atout majeur.
- Expertise confirmée avec Dataform, avec des projets antérieurs en production.
- Bonne connaissance de l'environnement GCP, en particulier BigQuery, Cloud Run et autres services de données.
- Compétences en gestion de version avec Git et GitHub.
- Solides compétences en programmation Python.
- Une expérience avec Power BI ou des outils de visualisation similaires est un plus.
- Une compréhension des principes de gouvernance des données serait appréciée.