Terug naar Insights
Data Management

Data Kwaliteit Meten: Het CACTU Framework in de Praktijk

14 min leestijd
Data Kwaliteit Meten: Het CACTU Framework in de Praktijk

Elke organisatie die datagedreven wil werken, stuit op dezelfde fundamentele vraag: hoe goed is onze data eigenlijk? Zonder een gestructureerde methode om data kwaliteit te meten, blijft het antwoord giswerk. En giswerk leidt tot slechte beslissingen.

Uit onderzoek van Gartner blijkt dat organisaties gemiddeld 12,9 miljoen dollar per jaar verliezen door slechte datakwaliteit. Niet door ontbrekende systemen, maar door data die onvolledig, verouderd of inconsistent is. Het probleem is zelden dat data ontbreekt. Het probleem is dat niemand systematisch meet hoe betrouwbaar die data is.

In dit artikel leer je hoe je data kwaliteit meet met het CACTU framework: vijf concrete dimensies, elk met een eigen KPI-formule en drempelwaarde. Gebaseerd op de DAMA DMBOK standaard en direct toepasbaar in de praktijk.

Kernpunt: Data kwaliteit meten is geen eenmalig project. Het is een doorlopend proces dat begint met vijf meetbare dimensies en eindigt met structurele verbetering.

Waarom Data Kwaliteit Meten Essentieel Is

De meeste organisaties weten dat datakwaliteit belangrijk is. Maar weinig organisaties meten het daadwerkelijk. Dit leidt tot drie structurele problemen:

1. Onzichtbare erosie van besluitvorming
Wanneer 15% van je klantgegevens verouderd is, merk je dat niet direct. Maar je marketingcampagnes presteren slechter, je verkoopprognoses kloppen niet en je klantsegmentatie deugt niet. Zonder meting blijft de oorzaak onzichtbaar.

2. Compliancerisico's
Onder de AVG en sectorspecifieke regelgeving ben je verplicht om correcte gegevens te verwerken. Data kwaliteit meten is geen luxe, het is een wettelijke vereiste. Organisaties die hun data governance niet op orde hebben, lopen risico op boetes tot 4% van de jaaromzet.

3. Verspilling van IT-investeringen
Je kunt investeren in de beste BI-tools, AI-modellen en dataplatformen. Maar als de onderliggende data niet deugt, is elke investering verspild. Het principe is simpel: garbage in, garbage out.

Kernpunt: Wie datakwaliteit niet meet, kan het niet verbeteren. En wie het niet verbetert, verliest geld, vertrouwen en concurrentiepositie.

Het CACTU Framework: Vijf Dimensies van Data Kwaliteit

Het CACTU framework is een praktische vertaling van de data kwaliteit dimensies uit de DAMA DMBOK standaard. De naam staat voor vijf meetbare dimensies:

DimensieEngelse termKernvraag
CompleetheidCompletenessZijn alle verplichte velden gevuld?
AccuraatheidAccuracyKlopt de data met de werkelijkheid?
ConsistentieConsistencyIs dezelfde data overal gelijk?
TijdigheidTimelinessIs de data actueel genoeg?
UniciteitUniquenessKomt elk record maar een keer voor?

Deze vijf dimensies dekken samen het volledige spectrum van data quality metrics dat nodig is voor betrouwbare datagedreven besluitvorming. Elk van deze dimensies is afzonderlijk meetbaar met een concrete formule.

Dimensie 1: Compleetheid (Completeness)

Compleetheid meet in welke mate alle verplichte gegevens aanwezig zijn. Dit is de meest fundamentele data kwaliteit dimensie en vaak het eerste dat je controleert.

De formule

Compleetheid% = (Aantal gevulde verplichte velden / Totaal aantal verplichte velden) x 100

Voorbeeld in de praktijk

Stel, je CRM-systeem heeft per klantrecord 8 verplichte velden: naam, adres, postcode, woonplaats, e-mail, telefoonnummer, klantnummer en segment. Bij 1.000 klantrecords zijn er 8.000 verplichte datapunten. Als 7.400 daarvan gevuld zijn:

Compleetheid = (7.400 / 8.000) x 100 = 92,5%

Drempelwaarden

NiveauScoreActie
Uitstekend98-100%Behouden en monitoren
Acceptabel90-97%Gerichte opvolging per veldtype
Onvoldoende< 90%Direct actieplan opstellen

Kernpunt: Een compleetheid van 92,5% klinkt goed, maar betekent dat bij 10.000 records er 750 datapunten ontbreken. In een facturatieproces kan dat direct tot omzetverlies leiden.

Veelgemaakte fout

Veel organisaties controleren alleen of een veld gevuld is, maar niet of de waarde zinvol is. Een telefoonnummerveld met "000-0000000" telt als compleet, maar is functioneel waardeloos. Combineer compleetheidscontrole daarom altijd met validatieregels.

Dimensie 2: Accuraatheid (Accuracy)

Accuraatheid meet of de vastgelegde gegevens overeenkomen met de werkelijkheid. Dit is de meest complexe dimensie om te meten, omdat je een betrouwbare referentiebron nodig hebt.

De formule

Accuraatheid% = (Aantal correcte records / Totaal aantal gecontroleerde records) x 100

Meetmethoden

Er zijn drie gangbare methoden om accuraatheid te meten:

  1. Vergelijking met bronsysteem: Controleer of CRM-data overeenkomt met gegevens uit het oorspronkelijke registratiesysteem
  2. Steekproefcontrole: Neem een representatieve steekproef (minimaal 5%) en verifieer handmatig tegen de werkelijkheid
  3. Cross-referencing: Vergelijk data uit meerdere systemen en identificeer afwijkingen

Drempelwaarden

NiveauScoreActie
Uitstekend97-100%Steekproefcontrole continueren
Acceptabel90-96%Oorzaakanalyse per databron
Onvoldoende< 90%Data cleansing project starten

Bij financiele data of gegevens voor wettelijke rapportages liggen de drempels hoger: daar is 99%+ accuraatheid de minimumvereiste.

Dimensie 3: Consistentie (Consistency)

Consistentie meet of dezelfde gegevens in verschillende systemen, tabellen of databases dezelfde waarde hebben. Inconsistentie ontstaat typisch wanneer er geen centraal master data management is ingericht.

De formule

Consistentie% = (Aantal overeenkomende records tussen systemen / Totaal aantal vergeleken records) x 100

Voorbeeld in de praktijk

Je hebt een klant geregistreerd in zowel je CRM als je ERP-systeem. In het CRM staat het adres als "Keizersgracht 100, Amsterdam". In het ERP staat "Keizersgr. 100, A'dam". Technisch gezien zijn dit twee verschillende waarden voor hetzelfde gegeven.

Bij een vergelijking van 5.000 klantrecords tussen CRM en ERP vind je 350 afwijkingen:

Consistentie = ((5.000 - 350) / 5.000) x 100 = 93%

Typische oorzaken van inconsistentie

  • Handmatige data-invoer zonder gestandaardiseerde formats
  • Ontbrekende synchronisatie tussen systemen
  • Geen Single Source of Truth gedefinieerd
  • Historische migraties zonder datavalidatie

Kernpunt: Inconsistentie is vaak het symptoom van een dieper probleem: het ontbreken van data governance. Wie consistentie structureel wil verbeteren, moet investeren in master data management.

Dimensie 4: Tijdigheid (Timeliness)

Tijdigheid meet of de data actueel genoeg is voor het beoogde gebruik. Data die vorige week correct was, kan vandaag verouderd zijn. Denk aan adreswijzigingen, prijsmutaties of statusveranderingen.

De formule

Tijdigheid% = (Aantal records bijgewerkt binnen de gestelde termijn / Totaal aantal records) x 100

SLA's per datatype

Niet alle data heeft dezelfde actualiteitsvereiste. Stel daarom een Service Level Agreement (SLA) in per datatype:

DatatypeMaximale verouderingVoorbeeld
TransactiedataReal-time tot 1 uurOrderverwerking, betalingen
Klantdata24-48 uurAdreswijzigingen, contactgegevens
Productdata1 weekPrijzen, specificaties
Referentiedata1 maandValutacodes, landcodes

Drempelwaarden

NiveauScoreActie
Uitstekend95-100%SLA-monitoring continueren
Acceptabel85-94%Updatefrequentie verhogen
Onvoldoende< 85%Automatisering van data-updates

Dimensie 5: Uniciteit (Uniqueness)

Uniciteit meet of elk record slechts een keer voorkomt in je dataset. Duplicaten zijn een van de meest voorkomende datakwaliteitsproblemen en ontstaan bij handmatige invoer, systeemmigraties of ontbrekende deduplicatieregels.

De formule

Uniciteit% = ((Totaal records - Duplicaat records) / Totaal records) x 100

Voorbeeld in de praktijk

Je klanttabel bevat 10.000 records. Na een deduplicatieanalyse blijken er 600 duplicaten te zijn:

Uniciteit = ((10.000 - 600) / 10.000) x 100 = 94%

Impact van duplicaten

De kosten van duplicaten gaan verder dan opslagruimte:

  • Marketingverspilling: Dezelfde klant ontvangt meerdere mailings
  • Foutieve rapportages: Omzetcijfers worden opgeblazen
  • Klanttevredenheid: Klant wordt door meerdere accountmanagers benaderd
  • Compliance: AVG-verzoeken worden niet volledig afgehandeld als niet alle records worden gevonden

Drempelwaarden

NiveauScoreActie
Uitstekend98-100%Preventieve matching-regels actief
Acceptabel93-97%Deduplicatie-run plannen
Onvoldoende< 93%Structurele deduplicatie en bronanalyse

De Totale Data Kwaliteit Score Berekenen

Met de vijf CACTU dimensies bereken je een totale data kwaliteit score. Niet elke dimensie weegt even zwaar voor elke organisatie. Gebruik daarom een gewogen gemiddelde.

Standaard weging

DimensieStandaard gewichtFinanciele sectorE-commerce
Compleetheid20%15%25%
Accuraatheid25%35%20%
Consistentie20%20%15%
Tijdigheid20%20%30%
Uniciteit15%10%10%

Rekenvoorbeeld

Een retailorganisatie meet de volgende scores:

DimensieScoreGewichtGewogen score
Compleetheid92,5%25%23,1
Accuraatheid88,0%20%17,6
Consistentie93,0%15%14,0
Tijdigheid91,0%30%27,3
Uniciteit94,0%10%9,4
Totaal100%91,4

Een totaalscore van 91,4 klinkt acceptabel, maar de accuraatheid van 88% is een duidelijk aandachtspunt. Juist door per dimensie te meten, worden de zwakke plekken zichtbaar.

Kernpunt: De kracht van het CACTU framework zit niet in het totaalcijfer, maar in het inzicht per dimensie. Focus altijd op de laagst scorende dimensie.

Data Kwaliteit Meten in de Praktijk: Drie Niveaus

Het meten van data kwaliteit hoeft niet meteen met dure tooling te beginnen. Op basis van de data maturity van je organisatie kies je het juiste niveau.

Niveau 1: Handmatig (Excel-gebaseerd)

Geschikt voor: Organisaties die starten met data kwaliteit meten

Maak een Excel-dashboard met de vijf CACTU dimensies. Voer maandelijks een steekproef uit per dimensie en registreer de scores. Dit geeft al direct inzicht in trends en knelpunten.

Voordeel: Laagdrempelig, geen IT-investering nodig
Nadeel: Arbeidsintensief, beperkt schaalbaar, gevoelig voor menselijke fouten

Niveau 2: Semi-geautomatiseerd (SQL + BI-tool)

Geschikt voor: Organisaties met basiskennis van SQL en een BI-omgeving

Schrijf SQL-queries die de CACTU metrics automatisch berekenen uit je bronsystemen. Visualiseer de resultaten in een BI-dashboard (Power BI, Tableau, Looker). Plan wekelijkse of dagelijkse verversing.

Voorbeeld SQL-query voor compleetheid:

SELECT
  ROUND(
    COUNT(CASE WHEN email IS NOT NULL AND email != '' THEN 1 END) * 100.0
    / COUNT(*), 1
  ) AS compleetheid_email_pct
FROM klanten
WHERE actief = true;

Voordeel: Reproduceerbaar, schaalbaar naar meerdere databronnen
Nadeel: Vereist technische kennis, onderhoud van queries

Niveau 3: Volledig geautomatiseerd (Data Quality Platform)

Geschikt voor: Organisaties met een volwassen data governance structuur

Implementeer een dedicated data quality platform dat continu alle dimensies monitort, alerts genereert bij afwijkingen en automatisch rapporteert aan data owners. Denk aan tools als Great Expectations, Ataccama, Informatica Data Quality of Talend.

Voordeel: Continu, proactief, schaalbaar
Nadeel: Hogere investering, vereist organisatorische volwassenheid

Van Meten naar Verbeteren: Het Actieplan

Data kwaliteit meten is het startpunt. Datakwaliteit verbeteren is het doel. Gebruik het volgende vijf-stappen actieplan om van inzicht naar impact te gaan.

Stap 1: Nulmeting uitvoeren

Meet alle vijf CACTU dimensies voor je belangrijkste datasets. Documenteer de huidige scores en identificeer de drie dimensies met de laagste scores.

Stap 2: Root cause analyse

Voor elke lage score, onderzoek de onderliggende oorzaak. Ligt het aan het invoerproces? Aan ontbrekende validatieregels? Aan verouderde koppelingen tussen systemen? Zonder root cause analyse los je symptomen op in plaats van problemen.

Stap 3: Doelen stellen per dimensie

Stel per dimensie een realistisch verbeterdoel met een tijdlijn:

  • Korte termijn (0-3 maanden): Verhoog de laagst scorende dimensie met 5 procentpunten
  • Middellange termijn (3-6 maanden): Breng alle dimensies boven de 90%
  • Lange termijn (6-12 maanden): Implementeer continue monitoring en preventieve maatregelen

Stap 4: Data governance inrichten

Wijs per dataset een data owner aan die verantwoordelijk is voor de kwaliteit. Definieer business rules en validatieregels. Richt een data quality council in die maandelijks de scores bespreekt. Zonder governance structuur is elke verbetering tijdelijk.

Stap 5: Continu monitoren en bijsturen

Bouw een data quality dashboard dat de CACTU scores in real-time toont. Stel alerts in wanneer een dimensie onder de drempelwaarde zakt. Review de scores maandelijks en stel prioriteiten bij.

Kernpunt: Datakwaliteit verbeteren is geen IT-project. Het is een organisatieverandering die eigenaarschap, processen en tooling combineert.

Vijf Veelgemaakte Fouten bij Data Kwaliteit Meten

Op basis van onze consultancypraktijk zien we vijf terugkerende fouten bij organisaties die starten met data kwaliteit meten.

1. Alles tegelijk willen meten
Start met je meest kritieke dataset en drie dimensies. Schaal daarna op. Wie alles tegelijk wil meten, meet uiteindelijk niets goed.

2. Geen eigenaarschap beleggen
Data kwaliteit is geen IT-verantwoordelijkheid. Het is een business-verantwoordelijkheid. Zonder data owner per dataset verwatert de accountability.

3. Meten zonder opvolging
Een mooi dashboard zonder actieplan is zinloos. Koppel elke meting aan een verbeteractie en een verantwoordelijke.

4. Perfectie nastreven
100% data kwaliteit bestaat niet en is ook niet nodig. Bepaal per use case wat "goed genoeg" is. Voor een marketingcampagne is 90% compleetheid acceptabel. Voor financiele rapportage niet.

5. Eenmalig meten
Data kwaliteit is een moving target. Wat vandaag 95% scoort, kan volgende maand 85% zijn door een systeemmigratie of proceswijziging. Alleen continue meting geeft betrouwbaar inzicht.

DAMA DMBOK en Data Kwaliteit: De Professionele Basis

Het CACTU framework is geen willekeurig model. Het is direct afgeleid van het DAMA DMBOK (Data Management Body of Knowledge), de internationale standaard voor data management. Binnen het DAMA DMBOK framework is Data Quality Management een van de elf kennisgebieden.

Het DAMA DMBOK positioneert data kwaliteit meten als onderdeel van een breder data management ecosysteem:

  1. Data Governance geeft de structuur en het mandaat
  2. Data Quality Management levert de meetmethoden en verbeterprocessen
  3. Master Data Management zorgt voor de Single Source of Truth
  4. Metadata Management documenteert de kwaliteitsregels en definities

Organisaties die datakwaliteit willen verbeteren zonder dit bredere kader, lossen incidenten op maar bouwen geen structurele kwaliteit. Onze data quality dienstverlening is daarom altijd geintegreerd met governance en master data management.

Wanneer Schakel Je Externe Expertise In?

Niet elke organisatie heeft de kennis of capaciteit om data kwaliteit meten zelfstandig op te zetten. Overweeg externe ondersteuning wanneer:

  • Je geen interne data management expertise hebt
  • Je een nulmeting wilt laten uitvoeren door een onafhankelijke partij
  • Je het CACTU framework wilt implementeren en verankeren in je organisatie
  • Je een data quality framework wilt opzetten conform DAMA DMBOK

Wil je weten waar jouw organisatie staat? Start met onze Data Maturity Scan voor een objectieve beoordeling van je huidige data kwaliteit niveau. Of neem contact op voor een vrijblijvend gesprek over de mogelijkheden.

Veelgestelde Vragen over Data Kwaliteit Meten

Wat is het verschil tussen data kwaliteit en datakwaliteit?

In de praktijk worden "data kwaliteit" en "datakwaliteit" door elkaar gebruikt. Beide verwijzen naar de mate waarin gegevens geschikt zijn voor het beoogde gebruik. In de DAMA DMBOK standaard wordt de Engelse term "data quality" gehanteerd. In het Nederlands zijn beide schrijfwijzen correct, maar voor consistentie adviseren wij de spelling "datakwaliteit" in beleidsdocumenten en "data kwaliteit" wanneer je over het bredere concept spreekt.

Hoe vaak moet je data kwaliteit meten?

De meetfrequentie hangt af van je datatype en gebruik. Transactiedata die dagelijks verandert, vereist dagelijkse of real-time monitoring. Stamgegevens zoals klantdata kun je wekelijks tot maandelijks meten. Referentiedata zoals landcodes of valutatabellen volstaat met een kwartaalcontrole. Start met maandelijkse metingen en verhoog de frequentie waar de scores structureel onder de drempelwaarde liggen.

Kan je data kwaliteit meten zonder speciale tools?

Ja, je kunt direct beginnen met data kwaliteit meten in Excel of met basis SQL-queries. De CACTU formules zijn bewust zo opgesteld dat ze met standaard spreadsheet-functies te berekenen zijn. Voor een eerste nulmeting heb je geen speciale tooling nodig. Zodra je structureel wilt meten over meerdere databronnen en systemen, wordt een geautomatiseerde oplossing wel aan te raden. Maar start simpel, meet consequent, en investeer in tooling als het volume en de complexiteit daarom vragen.

Veelgestelde vragen

Wilt u meer weten over data management?