Gestionnaire principal(e), Gouvernance de données
Ce qu'il vous faut :
· Baccalauréat avec d'excellentes compétences en communication écrite et orale.
· De 8 à 12 ans d'expérience comme consultante ou consultant, ou directement auprès de clients dans un rôle où vous avez pris en charge les actifs de données de l'organisation afin de fournir aux utilisateurs des données de qualité supérieure accessibles de manière cohérente.
· De 8 à 12 ans d'expérience en facilitation d'assainissement et enrichissement des données par la déduplication et la construction de données.
· De 8 à 12 ans d'expérience dans des processus tels que la découverte de données, le profilage, et les inventaires.
· De 8 à 12 ans d'expérience dans un rôle de définition de l'architecture de données pour la gestion de données fondées sur l'infonuagique avec des connaissances de niveau expert en matière de ce qui suit : les plateformes MDM infonuagiques courantes (par exemple Informatica MDM SaaS B360/C360, Reltio, Tibco, etc.), les couches de la plateforme de données (par exemple, brutes, traitées), la conception de l'intégration des données (par exemple, API), ETL (extraire, transformer et charger), la vélocité (par exemple, transmission en continu) avec des outils tels que IDMC/ IICS, Boomi, etc., les modèles de conception de l'architecture des données maîtres et de référence.
· De 8 à 12 ans dans un rôle comprenant la définition de l'architecture des données pour la gestion des données infonuagiques en se focalisant sur les flux de processus opérationnels, y compris la gestion des données maîtres et de référence pour soutenir la consolidation, le sourçage et le traçage des données, les méthodologies et outils de modélisation des données maîtres et de référence, les architectures de référence, les définitions de données (opérationnelles) et les métadonnées, la gestion des données de référence, la gestion des données maîtres (entités de données essentielles et critiques pour l'entreprise), la traçabilité des données.
· De 8 à 12 ans dans un rôle qui définit la vision et les stratégies de gestion des données, la gestion du parcours du changement et/ou le rôle d'" architecte " pour concevoir et mettre à l'échelle la gestion des données de bout en bout, en se focalisant sur les règles de qualité des données et les indicateurs clés de performance, l'assainissement automatisé des données (par exemple, l'utilisation de l'IA / apprentissage automatique), les règles de conformité et les indicateurs clés de performance, la démocratisation des données, la sécurité des données, les politiques de conformité et de sécurité pour l'accès, l'utilisation et l'intégration des données.
· De 8 à 12 ans d'expérience en extraction et archivage de données ad hoc; gestion du cycle de vie des données.
· Expérience avec les outils et les techniques de stockage des données, modèles et techniques d'archivage des données, architecture et conception de sauvegarde infonuagique, outils d'entreposage de données, conversion et migration des données, gestion des données de référence, gestion des métadonnées, protocole de gestion des données en réseau (NDMP), Informatica MDM, gestion et intégration des données, cycle de vie du développement des systèmes (CDS), techniques et méthodologies de modélisation des données, gestion des bases de données, conception et construction technique des bases de données, outils d'extraction, de transformation et de chargement (ETL), architecture des données infonuagiques, principes d'architecture des données, outils SAS DataFlux ETL, traitement analytique en ligne (OLAP), processus de données, principes d'architecture des données, estimation de l'architecture des données.
· L'anglais est exigé pour ce poste, car le ou la titulaire de ce poste est appelé à interagir régulièrement avec des parties prenantes au Canada, aux États-Unis et dans d'autres pays de notre empreinte mondiale où l'anglais est la langue commune. En raison du volume important d'interactions avec ces parties prenantes anglophones, ce qui est intrinsèque à ce poste, une réorganisation des activités de l'entreprise n'est pas possible pour éviter cette exigence.
Points supplémentaires :
· Expertise en utilisation des technologies Hadoop, MapReduce, Spark, Pig, Hive, l'ingestion de données dans le lac de données, le stockage de données sur les principaux prestataires infonuagiques (AWS, Azure, GCP), Redshift, l'extraction de données sur les plateformes de mégadonnées et l'interfaçage des outils de sciences des données et de visualisation de données sur les plateformes de mégadonnées.
· Expérience en modélisation de données, plateformes de mégadonnées (par exemple Cloudera, Hortonworks, AWS, Talend, etc.), migration et qualité des données (à l'aide d'ETL, par exemple Informatica), MySQL/NoSQL, CQRS Event Sourcing.