- Comprendre les données existantes
- Faire le pont entre l’existant et le nouveau
- L’assurance qualité : une étape cruciale
- La compréhension des données comme base de travail
Faire migrer des données d’un système à un autre n’est pas un projet banal! Nécessaire lors de l’implantation ou de la mise à jour d’un logiciel, la migration se déroule normalement en suivant ces étapes :
- Évaluation du projet et engagement des parties prenantes
- Analyse et correspondance des données
- Planification et préparation de la migration
- Test dans un environnement de développement
- Exécution sur les données de production
- Tests et validation des données
- Assistance post-projet et fermeture du projet
Assurer la qualité des données pendant la migration (pour des données spatiales et non spatiales) est un réel défi! Les étapes nommées précédemment sont toutes importantes à respecter, mais dans une perspective de qualité, attardons-nous à celles qui se rapportent à l’analyse, la correspondance et la validation des données. En d’autres mots, on se concentre ici sur :
- Ce qu’on possède : l’analyse des données existantes
- Ce qu’on veut : le processus de correspondance entre les données
- Ce qui résulte : la validation des données issues de la migration
Comprendre les données existantes
Une des étapes fréquemment négligées d’une migration est l’évaluation des données de départ. Souvent, plusieurs personnes dans l’organisation manquent de connaissances par rapport au contenu et à la structure des données. Ils ont une compréhension partielle et parfois fausse des informations.
Le danger, à cette étape, est donc de fonder des décisions de migration sur des suppositions. Par exemple, affirmer que les données d’un champ sont complètes, alors que plusieurs champs sont vides depuis des années à cause d’un oubli. Ou encore, penser qu’une information est toujours dans un certain format alors qu’en réalité, ce n’est pas le cas partout. Ces fausses convictions peuvent provoquer de très mauvaises surprises par la suite et même, entraîner de la perte de données!
Une de nos stratégies pour valider que nous avons une compréhension complète des données sur lesquelles nous travaillons est l’utilisation d’outils ETL, comme FME, pour scanner, analyser et classifier les données. Cela nous permet savoir réellement ce qui s’y cache afin d’avancer à la prochaine étape sur des bases solides plutôt que sur de vagues perceptions.
Au bout du compte, le temps que nous prenons pour analyser l’existant facilite grandement les prochaines étapes. Même si cela exige de s’attarder, il s’agit de temps très bien investi! Il est également important de mentionner que ceci ne représente pas une étape purement technique ou informatique ; la compréhension humaine y est très importante. On ne peut pas simplement demander à quelqu’un de se placer à l’ordinateur et lui dire : « analyse-moi ça! ». Dans presque tous les cas, il faut discuter et rassembler de l’information venant de différentes personnes pour établir une compréhension fidèle des données. Faire le pont entre l’existant et le nouveau
Faire le pont entre l’existant et le nouveau
À partir du moment où les données existantes sont comprises, il est possible d’utiliser cette analyse et cette classification pour faire la correspondance avec ce qui est attendu dans le nouveau système.
Habituellement, c’est ici qu’on commence à parler de transformation de données, que ce soit une transformation structurelle (nom ou type de donnée) ou de contenu (valeur d’attribut ou type de géométrie). Planifier la transformation des données avec des diagrammes et des chiffriers clairs va permettre d’éviter la perte de données.
On s’attend toujours, dans une migration, à devoir faire des changements de structure dans les données. Cela est normal quand on passe d’un système à un autre. Mais en plus, les exigences de la nouvelle application étant souvent différentes, cela peut nécessiter des informations plus précises et donc des changements au contenu. Il faut, dans ce cas, analyser les données et planifier une transformation.
Pour s’assurer que les données sont restructurées de façon optimale, que les informations obsolètes sont supprimées et que les nouveautés sont ajoutées selon les spécifications du nouveau système, il faut qu’une expertise pointue soit présente au sein de l’équipe.
L’assurance qualité : une étape cruciale
Une fois la migration complétée, il est important de faire un contrôle de qualité serré pour valider ce qui résulte du processus. Pour y arriver, les outils ETL permettront d’analyser et de comparer les données afin de relever les anomalies, les manques et les incohérences.
Il peut être assez complexe de savoir si le produit final représente véritablement ce qui est souhaité et si les données ont bien progressé dans le parcours. Certains éléments peuvent toutefois être examinés : les types de données, le compte des objets, la validité des géométries, etc. Plusieurs de ces vérifications se font avec des scripts dans FME, et ce, autant pour des données spatiales que non spatiales.
La compréhension des données comme base de travail
La qualité des données qui résulte d’une migration est directement proportionnelle au temps investi, au préalable, à les analyser et les comprendre.
Un des plus grands défis d’une migration est le fait que, souvent, le contenu et la structure ne sont pas assez bien compris à même l’organisation. Il n’est pas rare que les gens se trompent en pensant que les données sont complètes et cohérentes, alors qu’elles sont désordonnées et remplies d’erreurs…
L’intervention humaine est très importante dans le processus. Les personnes qui posent les bonnes questions dans le but de tisser des liens logiques vont réussir à créer un jeu de données valide, fonctionnel et performant. Voilà justement une de nos grandes forces chez Consortech!
Notre équipe a réalisé des dizaines de migrations dans des contextes diversifiés
Vous aimerez aussi :