Datamigratie: De aanpak
Het belang van effectieve datamigratie is inmiddels duidelijk. Toch worstelen veel organisaties nog met het proces. De reden hiervoor is dat datamigratie complex en tijdrovend kan zijn. Het is dan ook fijn om samen te werken met een partner die gespecialiseerd is om klanten hier volledig in te ontzorgen en werken volgens een bewezen methodiek. De aanpak van HSO is gebaseerd op jarenlang gevormde best practices,
die zorgvuldig zijn geborgd en onderhouden.
De aanpak van HSO bestaat in de basis uit een zestal stappen in drie fases (zie afbeelding). Hierbij wordt de migratie zoveel mogelijk automatisch uitgevoerd voor een hoge mate van betrouwbaarheid, voorspelbaarheid en herhaalbaarheid. Zo min mogelijk handling is hierbij een belangrijk uitgangspunt.
Fase 1: Kick-off, workshops en agreements
De eerste stap in het datamigratieproces is de voorbereidingsfase. Het is belangrijk om daarin een blended team samen te stellen dat toeziet op een succesvolle migratie. In dit team werken datamigratie-specialisten samen met ontwikkelaars, functioneel consultants en key-users toe naar een geslaagde implementatie. Door data-eigenaren aan te wijzen, bewaak je ook na livegang de datakwaliteit. Gezamenlijk bepaal je de scope voor de datamigratie.
Workshops maken inzichtelijk welke legacy data wel en niet wordt meegenomen naar het nieuwe systeem. Daarbij wordt kritisch gekeken naar de requirements, planning en benodigde resources en tools. Zo kunnen interfaces worden ingezet voor een initiële load van de data, zodat er geen aparte migratie hoeft te worden gemaakt. Waar data warehouses voor worden gebruikt, dan zijn we erop gericht om niet twee keer hetzelfde te ontwikkelen. Een goede scope en planning zorgt ervoor dat het proces voorspelbaar wordt en het projectteam in control is gedurende de uitvoering.
Fase 2: Migratie en validatie
In deze fase wordt de migratie daadwerkelijk uitgevoerd. Dit is een iteratief proces van migreren, testen en valideren. De zogenaamde ETL- en validatietool (zie afbeelding) ondersteunt in deze kortcyclische manier van werken. Zo wordt in korte en snelle iteraties de kwaliteit continu verbeterd. Na iedere stap in het proces wordt de data getest en gevalideerd.
Begin met het testen van kleine batches om zo snel mogelijk inzicht te krijgen in de effectiviteit van het migratieplan. Je kunt dit doen in een afgeschermde testomgeving, net zo lang tot het gewenste resultaat is bereikt in termen van kwaliteit, juistheid en volledigheid. Het vergelijken van bron- en doelsysteem is daarbij een belangrijk uitgangspunt, waarbij rekening wordt gehouden met transformaties, samenvoegingen en splitsingen.
Probeer zoveel mogelijk aspecten van de datamigratie te automatiseren. Dit voorkomt menselijke fouten en zorgt voor optimale betrouwbaarheid, performance en voorspelbaarheid.
Fase 3: Cutover en Go-live
Na goedkeuring van de business en stuurgroep vindt de finale datamigratie plaats. De data wordt dan gemigreerd naar de productieomgeving. Als alle data is gemigreerd naar de productieomgeving en deze de requirements op het gebied van kwaliteit, correctheid en compleetheid heeft behaald, dan is het doelstysteem helemaal klaar voor livegang. Dit is een kritisch proces, omdat bron- en doelsystemen tijdelijk stil worden
gezet om de data van de ene naar de andere locatie te verhuizen. De timing en uitvoering zijn dan ook enorm belangrijk, zodat de business hier zo min mogelijk tot geen last van heeft. Een cut-over manager waakt over dit proces.
Datamanagement
Tijdens en na de datamigratie, is er een aantal bijkomende doelen behaald dat bijdraagt aan het datamanagementproces. Dankzij de datamigratie is er een goed beeld ontstaan van welke entiteiten in aanmerking komen voor Master Data en hoe de kwaliteit is van de Master Data. Ook zijn vragen rond het eigenaarschap van data duidelijk geworden en zijn de eerste Data Stewards geïdentificeerd. Vaak zijn dat namelijk de key-users die betrokken zijn bij het implementatie project van ERP/CRM. Het loont de moeite om tijdens de datamigratie het verkregen inzicht vast te leggen in Data Governance tooling, zoals Microsoft Purview .
Data Validation Framework
Met een bewezen trackrecord in ERP- en CRM-implementaties, heeft HSO veel succesvolle migraties uitgevoerd. Deze migraties hebben geleid tot ons zogenaamde Data Validation Framework (DVF).
Het DVF wordt gebruikt om gebreken in de data te detecteren die gemigreerd moet worden van elk bronsysteem naar elk doelsysteem. DVF bevat een set van vooringestelde validaties die kunnen worden gebruikt. De best practices van talloze migraties zijn gebundeld tot een rijke verzameling van validatieregels die toepasbaar zijn bij de meeste datamigratie projecten. Tegelijk is het flexibel en kunnen situatiespecifieke validaties worden toegevoegd. Uitval- en kwaliteitsbevindingen worden gecorrigeerd voordat de data in het doelsysteem geladen wordt, waardoor het nieuwe systeem werkt met gevalideerde, opgeschoonde data. Dit leidt tot minder proefmigraties en daardoor een snellere verwerkingstijd van de data migratie project als geheel. Doordat problemen vroeg in het proces worden gesignaleerd en direct teruggekoppeld naar de dataeigenaar zijn de verbeterslagen kort en snel. Rapportages geven een goed inzicht in de kwaliteit van de brondata.
Het hele proces kan geautomatiseerd worden uitgevoerd en zo vaak worden herhaald als nodig. Data wordt, zo mogelijk, rechtstreeks uit het bronsysteem gehaald met extractiescripts en ook zonder tussenkomst van losse bestandjes naar het doelsysteem gebracht. Excel als bron blijft echter ook mogelijk.
Het DVF bevat standaard extractiescripts voor AX2009 en AX2012, inclusief veelgebruikte transformaties, en standaard importscripts voor D365 F&O, waarmee een vliegende start kan worden gemaakt. Ook voor CE is het DVF toegerust. De SQL-gebaseerde tool is herkenbaar en snel uit te breiden voor iedereen met basiskennis van SQL.
Wil je weten hoe HSO ontzorgt in jouw datamigratietraject? Vul onderstaand formulier in en een van onze datamigratiespecialisten neemt zo spoedig mogelijk contact met je op.