AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S04E09 - De datakwaliteit-visie bij Nationale Spoorwegen (NS) - Madeleine Schellaars
Op het Dutch Data Forum spreken we met Madeleine Schellaars, Product Expert Data & Analytics bij NS.
NS heeft als ambitie om te groeien naar een datagedreven organisatie en zet volop in op digitalisering om de dienstverlening aan onze reizigers beter en voorspelbaarder te maken. Sinds begin 2022 werkt Madeline aan de onderwerpen Datakwaliteit en Datavindbaarheid.
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
We zijn vandaag te gast bij Dutch Data Forum, georganiseerd door Heliview. Diverse experts en ervaringswetenskundigen komen langs in onze pop-up studio van AIToday Live. We zitten in een mooie locatie in Den Bosch, het Conferentiecentrum. Mijn naam is Joop Snijder, CTO bij Aigency. En mijn naam is Niels Naglé, chapter lead Data AI bij Info Support. En hij haakt vandaag helaas remote aan, dus niet in het mooie settting bos, maar in het mooie Pieterhof. Dus niet in het mooie zettige bos, maar in het mooie Pieter-esk middelharnis. Dus het klinkt iets anders, maar we hebben dezelfde persoon voor ons. Hartstikke goed. En te gast is Madeleine Schellaars van NS. Madeleine, welkom in de podcast. Zou jij je eerst willen voorstellen aan de luisteraars? Jazeker. Madeleine Schijlaars, zo'n 20 jaar werkzaam bij NS in diverse functies van projectmanagement tot IT. En de laatste vijf jaar in de wereld, de wonderenwereld van de data. Waarbij je natuurlijk ziet dat dat steeds meer hip-hop en happening wordt. In mijn vorige rol was ik product owner van het datateam die alle producten maakt rondom reisinformatie. Dus ook een van onze hoofdreelnet KPIs leveren wij onze klanten tijdig juist reisinformatie. Geven ze tijdig een goed handelingsperspectief. Al dat soort zaken rapporteren wij aan de concessieverlener. Dat doen wij voor alle vervoerders in Nederland. Dus daar zijn wij, dat noemen ze dan non-conformitoir volgens mij. Dat je dan Greenfield voor alle vervoerders dezelfde dienst levert. En dat maakt ook dat je in je data gebruik natuurlijk een status aparte hebt als datateam. Omdat je de beschikking hebt over data van meerdere vervoerders. Wat weer allerlei zaken met zich meebrengt rondom awareness op geheimhouding en dergelijke. Dus dat is een zorgvuldige baan. Een hele gave job. En ik ben in afgelopen maart heb ik de stap gemaakt naar data management. Enterprise data management. En daar ben ik product owner van het data kwaliteits team. En ik heb daar nog wat andere rollen. Ook in de visie die wij hebben op de NS Data Bali. Waarbij wij eigenlijk een plek maken waar we alle data over data beschikbaar maken binnen het bedrijf. Dat is natuurlijk vaak zoeken voor collega's. Wat is nou eigenlijk de echte omschrijving van een trein? Of van een dienstregelpunt. Dat in ons bedrijf, in ons sector. Nou willen we woorden wel eens verschillend definiëren. En dat is het eerste plateau wat we doen. Is ook via de Power BI dashboards. Via een i'tje terecht komen op die echte vastgestelde definitie. Maar daarbij ook te kunnen zien van wie is nou eigenlijk de eigenaar van het domein waar die definitie in zit. Welke definities leveren daar nog meer bedrijfsbegrippen, KPIs, objecten. Dan daal je eigenlijk africhting je data fundament. Waarbij je natuurlijk ook een heleboel metadata beschikbaar wil hebben. Omdat je ook datasets makkelijk toegankelijk wil hebben voor experts. Nou ja en data kwaliteit dat is iets wat ook als een fundament onder het AI machine learning ligt. Dat is een data kwaliteit is een ontzettend interessant onderwerp. Als jij zegt dat dat hebben we beschreven. Heb je dat in een bestaand systeem? Heb je een bestaande applicatie daarvoor genomen? Of hebben jullie dat zelf ontwikkeld? Nee we hebben data kwaliteit eigenlijk als thema zetten wij dat op de kaart met twee modellen. Eén model is eigenlijk je implementatie model. En dat hebben we de vorm gegeven van een diamant. Dat we al zien van data kwaliteit is ook wel echt een groei briljant. Want je kan niet alles tegelijk. Daar zit natuurlijk op mens, proces en technologie heb je echt al een aantal dingen te doen. Wil je kunnen zeggen van ik heb de data kwaliteit in de grip. Want de kwaliteit hoeft ook niet altijd 100% te zijn. Want je moet ook kijken waar wil je je data voor gebruiken. En wat is dan de eis daarbij? Dus dat is mijn implementatie framework. En meer inhoudelijk hebben we een dimensie model. Dat we op zes manieren kijken naar data kwaliteit. Dus op volledigheid, tijdigheid, accuraat. Zitten er geen dubbelingen in? Klopt het met de taxonomie die je hebt afgesproken? Dus dat is meer de inhoudelijke bril die je opzet. En met die twee platen ga je aan de slag met data kwaliteit. Dat kan hè. Dan kan je je een dataset door een wasmachine halen. Dat noemen wij een profiling. En dan krijg je eigenlijk te zien van wat voor rariteiten vertoont deze dataset. En dat brengt je op het vaststellen van je eisen. En het maken van een scorecard. Dat is eigenlijk een beetje ons productieproces. Maar weten dat wij heel NS bedienen met een team van zeven. Doen wij niet aan gedwongen winkelnering. Want wij zouden nooit voor iedereen dashboards kunnen maken. Dus wij leren onze collega's diezelfde tools te gebruiken. Om ze op een scorecard te maken. Maar we zien ook collega's die een kwaliteitstabblad... bijvoorbeeld in een power-bejaardashboard zelf maken. En dat is ook helemaal prima. Het gaat ons er echt om dat we weten dat het bedrijf bezig is met data kwaliteit. Dat vinden we veel belangrijker dan het hoe. Met de kanttekening dat we uiteindelijk wel graag al die eisen die er overal leven... dat we die graag willen kunnen optellen. En uiteindelijk antwoord kunnen geven op die allergrootste vraag. Wat is de data kwaliteit van NS? How do you think you can boil the ocean? Dat optelbaar maken, dat vraagt ook wel eenduidige definities. Maar dat zeggen wij wel. Dat is wel ons ultieme doel. En we zijn bezig met implementeren van data kwaliteitstooling. Waarmee we ook eigenlijk al die quality checks ook kunnen gaan agregeren. Dat is natuurlijk nu nog in theorie. Maar het begint bij ambitie toch? Ja, precies. Het was ook wel leuk. Net in de afsluiting van de presentatie vroeg de dagvoorzitter... we leven in een tijd van big data en wordt data kwaliteit eigenlijk helemaal niet meer belangrijk. Want we hebben zoveel. Toen dacht ik, wat vind ik nou eigenlijk van die sterren? Zo! Gelukkig zat mijn collega uit het team, onze solution architect, in de zaal. Mag ik hem even doorspelen? Toen zei zij, het wordt juist veel belangrijker. Dat de kwaliteit juist zo belangrijk wordt in de wereld van big data. Ja, toch? Je gaat eigenlijk stapelen als het ware. Dus je hebt je toepassing die data levert. Die ga je weer hergebruiken. Wij zitten dan in AI machine learning. Dan ga je ook weer diezelfde data gebruiken. De uitkomsten daarvan worden misschien weer in volgende rapportages gebruikt. Die weer gebruikt worden. Je krijgt een opeen stapeling van. Ja, zeker. Als je een lerend systeem gaat gebruiken, dan moet het dus gewoon echt heel goed zijn. Ja. Maar ook dat je er bijna ketens, data ketens van maakt. Dus als er in het begin al gewoon troep, rotzooi in zit, vervuiling. Dan wordt het alleen maar erger. Spannende stelling. We hebben ook bijvoorbeeld Google Analytics. Volgens mij, als je gaat kijken naar het gedrag van ons op NS.nl. Waar wordt er nou geklikt en hoe wordt er geklikt? Daar heb je heel veel analytics data van. Ja, willen we ook graag gaan kijken van. Wat zit daar nou allemaal in? Kunnen we dat eigenlijk ook ontleden? En wat is daar dan de kwaliteit van? Hoe beoordeel je dat? Dat is er eentje die je op de wensenlijst staat. Ja, precies. En wat was eigenlijk de takeaway die je aan je publiek mee wilde geven vanuit je presentatie? Eenvoud. Eenvoud en het over de zaken hebben waar het om gaat. Je ziet woorden als AI of data quality, machine learning, process mining. Het zijn allemaal van die begrippen die ergens ook nog heel abstract zijn. Zeker. En voor heel veel collega's, want wij denken allemaal data, dat is al wel gemeengoed. Dat is echt niet zo. Dus die kijken je toch wel glazig aan. Waar heb je het in hemelsnaam over? Dan vind ik het gewoon echt heel fijn om het te hebben over de echte dingen. Dus wat ik in mijn presentatie ook vertelde, wij hebben een klanten database van 6 miljoen klanten. En die is echt niet vorig jaar begonnen. Kijk, want nu heb je IT waarin je een controle doet op postcode, huisnummer, zodat je een bestaand adres hebt. Nu stuur je een mail naar het mailtje, mailadres wat is ingevuld, zodat je het kan valideren. Maar onze klanten database komt uit een heel ander tijdperk, waarin je misschien wel IT had, maar geen controle. En daarvoor had je gewoon een handmatige administratie. En we hebben ontbrekende velden, maar we hebben ook gewoon vervelende dingen als adressen, zeg ik niet huisnummer 1. Weet je, zulke vrouwen dingen staan in die database. Ga het maar eens opruimen. En als je het daarover hebt met collega's, oh daar heb je het over. O ja, dus dat. En ook wel een beetje de lolligheid. We hebben dan een topper-flopper dashboard gemaakt. En je moet het ook een beetje lollig maken, want wij komen natuurlijk toch met de rosse handschoenen de poets toe. Want wij komen vertellen wat er allemaal niet klopt. Dan is hij wel een vervelend groepje. En wat staat er dan in zo'n topper-flopper? Ja, daar zie je dan de treintjes en daar zie je dan welke er gehaperd hebben in het communiceren naar de walsysteem. Geweldig. Dat je er inderdaad lol in blijft houden. Ja, we moeten het vooral ook zelf heel leuk vinden. Want we komen echt wel eens in trajecten die zijn hardnekkig. En dan denk je van daar zit een quality issue, maar waar is dat dan ontstaan? Vaak moet je zoveel stappen terug en dan zijn er bewerkingen ondertussen in de data. Dan is het best wel een speltuneuber. Heb je een voorbeeld die je mag noemen van een data kwaliteit waar je echt wel tegenaan bent gelopen? Wat lastig was om op te lossen. Ja, en wat eigenlijk geen data kwaliteit bleek. En dat was, ik weet hem niet helemaal exact, maar het zat hem in opbrengsten van treinkaartjes. En verkoopdatum versus reisdatum, wat helemaal scheef liep in systemen. Wat na even doorzoeken bleek een een of andere kruidvatactie. En mensen kopen het kaartje, gelegd onder een kerstboom en die gaan in de zomer een keer met de trein. En dan komen er soms rare dingen uit de data, onverklaarbaar op het eerste gezicht. En als je het later bij dit antwoord bent, dan denk je, he he he, tjuh. Tuurlijk hebben we dat soort acties. Maar je moet wel eerst helemaal terug om... Hoe zit dit dan? Ik heb er zelf ook nog wel eentje van, dat is echt al wel heel lang geleden hoor. Daar kwamen uit de mainframesystemen, werden er dan exports getrokken. En dat was met alles wat in, hoe noem je dat, op vaste plekken de data. En ik was dan met een collega aan het doen. En dan ga je ook allerlei crosschecks gaan doen. En toen zagen we op een gegeven moment, zeiden we van ja, maar als je dit optelt, dat kan haast niet. Want er was namelijk, er was een internationale bank. En de US dollar was maar geloof ik, nou even uit mijn hoofd, zat ergens onder de top 10 aan transacties die gedaan werden. Nou dat kon gewoon niet. En uiteindelijk bleek ook dat er dus een verkeerde positie gekozen werd. Dus er was net één verschuiving in de valutaeenheid. Maar dat zeg ik ook, hoe langer IT-ketens en bewerkingen, hoe meer risico op datakwaliteit. Want ook in ESB's en stations onderweg kan je data verliezen, blijven hangen, het kan corrupt raken, er kan inderdaad een kommaatje verkeerd. En de grap was dat wij dat aangaven en dat we eerst tegen heel veel weerstand aanliepen. Dat zeiden we, dat kan niet, want dit rapport wordt al zo lang gebruikt. Dit kan niet waar zijn. En we hebben heel veel moeten overtuigen, laten zien. Herken je dat? Loop je tegen dat soort dingen ook aan? Nou ja, dat ook wel in mijn vorige plek, weet je wel, waar we veel meer met Business Dashboard bezig waren voor besturing. Als je ergens een keer iets in hebt staan wat niet klopt, dan is gelijk de hele afdeling neer. Dan wordt het natuurlijk snel, zie je wel, het is niet betrouwbaar, je kan helemaal niet sturen met data. Dus er is natuurlijk toch wel een, niet iedereen is fan. Nee. Wij zitten in de briljante positie dat onze financial directeur de grote sponsors van data gedreven werkt. Want hij zegt, hoeveel wielstellen liggen er in dat magazijn uit het noorden van Utrecht? Hij zegt, daar krijg ik zoveel verschillende antwoorden en ik wil één antwoord. Dat is altijd de anekdote die hij gebruikt intern. Dat is natuurlijk heel fijn, maar ik spreek ook echt wel collega's die zeggen, nou, nou, nou, is er niet veel te veel aandacht voor al die data? Ja, terwijl het zo belangrijk is. Ja, maar ook in mijn beginjaren dat ik in die data wereld zat, ik kwam uit de IT, ben ik heel veel op pad geweest met de IT-collega's, want die worden natuurlijk heel erg geleefd door de operationele werking van de systemen. En dat is natuurlijk hartstikke belangrijk. Maar dat er ook nog een afslag is richting je data fundament, dat die data daar naartoe wordt gebracht en dat ze bij een change die ze doorvoeren, ook echt die check even moeten doen van, joh, zitten daar ook KPIs of producten achter waar deze data wordt gebruikt? Dat is iets wat bij IT-collega's wel steeds meer op de radar komt, maar dat is dus echt wel een weg geweest. En we hadden bijvoorbeeld op een gegeven moment een change in de telefoonnummers van onze collega's, en daar stonden maar nog 06 nummers en dat was plus 31 6 geworden. Daarmee was dat veld langer, een aantal karakters, en daardoor waren een aantal informatieproducten kapot. Gewoon heel bazaal, omdat het aantal karakters was meer geworden. En ja, dat is vooral waar je echt in die IT-dataketen gewoon echt samen moet werken, elkaar moet leren kennen en ook je IT-collega's vertellen van, joh, zit dat schans in de spits, wat we elke maand rapporteren aan de BV Nederland, dat maken we van dat wat jij daar hebt gedaan. Oh echt? Er zitten elf bron-systemen in zo'n KPI. Dus het is heel belangrijk dat je IT-collega's dat weten. En volgens mij hoorde ik je in het begin ook iets over metadata zeggen, dus de beschrijving over de data. Hoe wordt dat aangepakt? Daar hebben we nu al een aanpak staan, dus we hebben eigenlijk van een heleboel bedrijfsbegrippen, KPIs en objecten, hebben wij al heel veel metadata verzameld. En dat is eigenlijk, dat noemen wij de glossary data, dat is alles wat je handmatig invoert. Dus wie is eigenaar, wat is de beschrijving, wat is de klassificatie, beschikbaarheid, integriteit, vertrouwelijkheid, wat is je bewaartermijn, dat is allemaal al verzameld. Dat is de categorie handmatige metadata. En we gaan nu aan de slag met het implementeren van tooling die ook technische metadata ophaalt. Dus die gaat echt als een soort sniffer door het datalandschap en die haalt op van welke route legt een data object, of een regel af, van waar komt die vandaan, waar gaat die naartoe. Wanneer is dat gebeurd, allerlei technische metadata die dan boven komt en die willen we gaan combineren. En dan kom je ook op AI, want dan ga je ook alle begrippen die je eigenlijk in je glossary hebt staan, die wil je natuurlijk relateren aan alles wat in die fysieke wereld gebeurt. En daar zitten algoritmes in die tooling om dat ook te kunnen gaan combineren en dat steeds beter te gaan doen. Ja, nou sowieso als je machine learning modellen wil gaan trainen op de data die je dan hebt, is het heel belangrijk dat je metadata hebt dat iedereen begrijpt van waar kijk ik naar, wat zou er in die data moeten zitten. Dus dat is wel een hele mooie, nou ja eigenlijk noem je het ook, dat hoort bij het fundament van je data. Ja, we willen ook een soort datasets ook beschikbaar gaan stellen, criss-cross binnen het bedrijf. Collega's die van elkaar datasets willen gebruiken, dat komt natuurlijk heel veel voor. En daar is natuurlijk regelgeving op om op de basis van de doelbinding wel of niet nog langs een autorisatieproces te moeten. Maar daar willen we eigenlijk ook metadata van die sets neerzetten. Van hoe vaak wordt het, wat is de frequentie van het updaten, waar moet je het vooral niet voor gebruiken. Ja, dat is heel belangrijk. Ja, precies. Welke known errors zitten er bijvoorbeeld ook in. We hebben ergens een dag, we hebben ID-systemen gehaperd. Niet die befaamde 3 april, maar ergens anders in de keten. En daar ben je een dag kwijt. Super baal, maar dat is wel iets wat belangrijk is om te weten. Ja, dat je dat inderdaad beschrijft, dat je daar rekening mee kan houden als consument van die data. Ja, interessant. Je hebt ook veel financiële HR-systemen, dat beschrijf je ook in wat er in de sessie wordt besproken. Maar je hebt ook over streaming. Is daar nou een andere aanpak bij die jullie hanteren om daar de datakwaliteit te monitoren? Ja, nou we proberen eigenlijk dat dat framework en die diamant proberen wij gewoon wel universeel toepasbaar te maken. Maar wat ik bij die streaming-dataketens zie, is dat het aantal rollen wat je daar hebt eigenlijk, dat zijn er meer. Dus bij je normale systemen, die de batch leveringen doen, heb je die data-eigenaar, data-steward, definitie-steward, daar ben je wel. Die eigenaar hebben we dan ook nog in een gedelegeerde variant. Dus dat zijn vier rollen, daar kom je echt wel heel end. En in die ketens van streaming-data heb je zoveel IT-overdrachtsmomenten, dat je eigenlijk, ja, dan heb je meerdere rollen nodig. Dat zijn gewoon complexere ketens. Dus dat is het vooral. Ja, als het gaat over welke rollen heb je en wie is dan waarvoor verantwoordelijk in die keten, dat dat groter is. Ja, en die rollen, dat zijn dus ook echt gewoon functies die je bekleedt binnen de organisatie. Dat je verantwoordelijk bent voor een stukje data of een stukje kwaliteit van die data? Nee, dat zijn echt rollen. Dat zijn geen functies. Dus je hebt bijvoorbeeld ons directeur van de planning, die heeft als rol dat hij data-eigenaar is van de content in de planning-systeem. Dus het is altijd een rol. En het is ook niet, ik hou niet van namen in zo'n overzicht. Ik zeg, doe mij maar gewoon hoofd dit of manager dat. En die vlieger die gaat gewoon niet zo goed op, zeker bij data-stewards is dat lastig. Omdat je experts hebt in je organisatie, want wat je met data-management maakt, je heel veel impliciet maakt je expliciet. Je weet echt wel als er ergens klantsysteem op straat liggen, dan gaat echt Charlie, onze directeur, die is daarvan. Dat is vrij duidelijk. Maar je ziet ook gewoon in het werk van collega's dat ze hun verantwoordelijkheid dragen dat er iets goed in elkaar zit. Of op tijd af is, een dienstregeling die voor de volgende dag van uitvoering op tijd klaar moet staan voor de overtracht naar het volgende systeem. Dat zijn verantwoordelijkheden, die zitten in functies. En daar zit vaak impliciet een data-stewardschap bij. Want dat zijn vaak ook de collega's die heel goed snappen wat daar staat, wat er mis kan zijn, als het mis is, hoe je het moet oplossen. En dan zie je dat het stewardschap niet per se aan een functie kan worden gekoppeld. Dus je zit heel vaak op expertise van collega's. Ja, ook mijn expert of proces-expert die daar vaak bij betrokken is en aan wordt gehaakt in de processen, is mijn persoonlijke ervaring inderdaad. Ja, en zeker in zo'n groot bedrijf als waar wij werken, kom je vaak dezelfde collega's tegen die hier ook echt affiniteit mee hebben. Ja, mooi. Als er nu mensen in de organisatie luisteren die denken van ja, maar wij willen dit beter, meer professioneel gaan aanpakken, dat van de data-kwaliteit. Wat zou je ze dan mee willen geven? Hoe start je met dat je dit breder in de organisatie inzet? Binnen onze eigen organisatie? Nee, dus mensen die nu luisteren en die denken van, eigenlijk moeten wij ook wat met data-kwaliteit in onze organisatie, willen daar een initiatief voor starten. Zou je daar een tip voor hebben vanuit de ervaring die je nu hebt? Eigenlijk begint dat met een been-op-tafel sessie, om gewoon het onderwerp eens te laten neerdalen. Als ik dat nou zeg, data-kwaliteit, vind ik dat mijn data-kwaliteit goed genoeg is om mijn bedrijf mee te besturen. En als ik dan twijfel, dan zeg ik ja, dat weet ik niet zeker, hoe kom ik daar dan achter? Hoe kom ik erachter of mijn data van voldoende kwaliteit is om beslissingen op te nemen? En als je die vraag een beetje laat indalen en daar het gesprek met elkaar over voelt, dan kom je er tot de essentie. En dan kom je echt wel binnen anderhalf, twee uur, heb je echt wel boven tafel van waar moeten we dan eens een keer een thermometer insteken? Waar moeten we eens een meting doen? Misschien hebben we wel ketenmonitoring draaien, gewoon in de operatie. Wat zijn de punten in die ketenmonitoring waar je zegt, kunnen we daar niet een vlaggetje hangen? Misschien ook wel risico gedreven, denk ik. Hier voelen we intuïtief een probleem, dus laten we dat eens bekijken. Dat denk ik wel, ja. Ik denk dat het heel vaak risico en kosten is. We willen natuurlijk ook agile werken, we willen ook allemaal businesswaarde leveren. Maar ik zie dat datakwaliteit vaak aan de kant zit van risico's en kosten. En heel plat, weet je wel. Ik vertelde over die klanten database. Als een incassobureau, daar zeg ik lekker niet nummer één in. Dat schrikt natuurlijk niet op. Dus daar kom je dan op uit. Ja, mooie tip. Dus ook been op tafel, goed kijken waar je wilt beginnen, doorspreken. Ja, en je bewustzijn van people-projected knowledge. Dat de mensen in die hele keten en de awareness, de presentatie ging over datageletterdheid ook. Het is voor heel veel collega's nog zo abstract, dat het goed is om het gesprek te voeren. Waar hebben we het nou echt over? En wat is er in onze organisatie? Wat miskomt ons als we dit niet doen? Je kan de vraag gewoon echt ook omdraaien. Ja, dat vind ik ook wel mooi. Wat als je het inderdaad niet doet? Want soms kan het antwoord dan ook zijn, nou, er gaat niks kapot. Nee, waarschijnlijk gaat er vandaag niks kapot, maar er gaat over een jaar ook niks beter. En dat is vaak in de data-analytics-wereld, is dat natuurlijk ook wel vaak. Een businessanalyst bij ons die gaf een keer die quote, die zei, als ik nu niks doe, gaat er morgen niks slechter, maar er gaat volgend jaar ook niks beter. Mooi. En dat vond ik wel echt heel goed van hem gezegd. Ja. Niels? Nee, ik had hem even opgeschreven. Ik vond het wel een mooie quote, als ik wel zeg. Mooie uitschrijver toch? Ik was hem even aan het opschrijven. Mag, we copyright. Ja, ik had je af en toe dichtgezet vanwege het achtergrondgeluid. Dus ik wist niet of je nog misschien wat te vragen had. Nee? Maar niet? Nee? Oké. Nou, ik denk dat het inderdaad een hele mooie uitschrijver is. Dank je wel, Marlène, dat je de gast wilde zijn. Dat je ons dit wilde vertellen. Ik denk dat we weer een hoop geleerd hebben, geïnspireerd. Ja. Dank je wel. Leuk om met jullie in gesprek te zijn. Dank je wel voor de uitnodiging. Ja, graag gedaan. Dank je wel, graag gedaan. Leuk dat je weer luisterde naar een aflevering van EETD Live. Mis geen aflevering, abonneer je via je favoriete podcast app. En tot de volgende keer.[Muziek]