AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S04E03 - Hoe cryptografie datauitwisseling voor AI mogelijk maakt - Niek Bouman
Niek Bouman, CTO en Founder van Roseman Labs praat je bij over het delen van data tussen meerdere organisaties, zonder privacy geweld aan te doen. Hij legt de techniek uit aan de hand van verschillende use cases uit de gezondheidszorg en de publieke sector.
Wil je weten wat Sinterklaas en cryptografie samenbrengt? Luister dan snel!
Links
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
Leuk dat je luistert weer naar een nieuwe aflevering van de EITD Live. Ik ben Joop Snijder, CTO van Aigency En ik ben Niels Naglé, Chapter Lead Data & AI bij Info Support. Vandaag hebben we de gast Niek Bouman van de Roseman Labs. En Niek is gespecialiseerd in privacy data uitwisseling. En vooral eigenlijk hoe je data met elkaar deelt voor machine learning. zonder dat je dat bij elkaar ziet. Zeg ik het zo goed? Ja, dat zeg je zeker goed. Nou, kijk aan. Zou jij je voor de luisteraars even willen introduceren? Ja, heel graag. En bedankt dat ik hier mag aanschuiven. Ik vind het erg leuk. Ik ben Niek Bouman. Ik heb een achtergrond in elektrotechniek en daarna wiskunde, cryptografie. Ik heb eigenlijk een hele lange tijd het academische pad bewandeld als onderzoeker. en ben drie jaar geleden met twee andere mensen het bedrijf Rosemann Labs begonnen. Ik ben daar nu de CTO, dus eigenlijk verantwoordelijk voor de technische rol. Wat wij doen is het bouwen van privacy technologie. Dat houdt eigenlijk in dat vanuit mijn oude rol, zeg maar uit de academische wereld, Daar wordt al heel lang onderzoek gedaan naar dit soort technologieën... om eigenlijk op een privacybeschermende manier data te verwerken. Maar die technologieën hebben daar heel lang eigenlijk in de academische wereld rondgehangen... zonder dat men er in de echte wereld, zou je kunnen zeggen, van wist of gebruik van maakte. Ook wel door aantal redenen, bijvoorbeeld dat de hardware nog niet geschikt was vroeger. Maar inmiddels zijn die barrières eigenlijk weg. En inmiddels is het dus technisch mogelijk om die technologieën voor echte use cases in te zetten. En wij zijn een van de bedrijven die dan ook de software bouwt waarmee dat dan kan. En om het meteen heel concreet te maken dat de luisteraar weet waar we het over hebben. Is het misschien leuk om zo'n use case meteen te benoemen? Omdat we eerst de praktijk pakken en vervolgens kijken naar welke theorie zit er nou onder. Hoe komt dit nou tot stand? Laten we beginnen met een gekke use case. Niet echt voor een bedrijf interessant, maar meer als je denkt aan Sinterklaas. Veel mensen doen surprises en schrijven gedichten voor elkaar. Dan heb je altijd je buurman of buurvrouw nodig die dan die hoed met die namen voor elkaar husselt. Om dan te bepalen wie voor wie een gedicht moet schrijven. Het is natuurlijk niet leuk om voor jezelf een gedicht te moeten schrijven. Dus ja, wij zeggen dan eigenlijk dat je een trusted party nodig hebt... om dat zoeken van die permutatie, een wiskundige benaming, om die te zoeken. En met deze technologie zou je met alle gedichteschrijvers samen... die permutatie, dus wie voor wie een gedicht moet schrijven en niet voor jezelf... zou je gezamenlijk kunnen samplen zonder dat iemand die permutatie je helemaal kent. Oké, spannend. Dus eigenlijk de derde partij, die heb je nu niet meer nodig. Maar je gaat het met elkaar samen oplossen met behoud van geheimhouding. Oh ja. Dat is dus een beetje een raar voorbeeld. Laten we nu naar wat concreetere voorbeelden gaan uit de praktijk. Bijvoorbeeld in de zorg, daar is altijd gevoelige data in het spel, bijvoorbeeld persoonsgegevens of wat voor ziekte jij hebt of iemand bij jou in de straat, dan wil je niet dat dat op straat komt te liggen. Maar het kan bijvoorbeeld wel nuttig zijn om statistieken te berekenen over patiëntgegevens, bijvoorbeeld om de effectiviteit van een geneesmiddel te bepalen. Dan zou je dit soort technologie kunnen inzetten. Het voordeel daarvan is dat je de patiëntendossiers niet meer fysiek ergens op één hoop hoeft te gooien of samen te brengen. Maar dat de patiëntendossiers bij de ziekenhuizen kunnen blijven staan. En dus ook niet onderling gedeeld hoeven te worden tussen de ziekenhuizen. Maar toch kunnen dan de statistieken die benodigd zijn voor dat onderzoek, aannemende dat er ook een juridische basis voor is, dan kunnen die statistieken toch berekend worden.- O ja, dus de data blijft op de plek en je gaat alleen maar, laten we zeggen, beschrijvende data met elkaar delen. Dus niet echt metadata, maar statistiek? Uiteindelijk wordt de statistiek bekend, maar de statistiek kan wel berekend worden op basis van alle gegevens die daar in die bronnen aanwezig zijn. Dat klinkt een beetje paradoxaal, aan de ene kant wordt geen data gedeeld, maar toch kun je berekeningen uitvoeren op die data. Of voor mijn beeld, breng je dan een stukje machine learning al naar de data toe? In de basis werkt het eigenlijk dat je iedere datum, dus ieder stukje data uit je dataset, breng je in een speciale representatie. En dat is een gedistribueerde representatie. Dus als het ware, als ik hier een getal heb, bijvoorbeeld de leeftijd van een patiënt, of de geboortedatum van een patiënt, die splits ik op in, laten we het puzzelstukjes noemen. En ik hou bijvoorbeeld een puzzelstukje zelf en ik geef een puzzelstukje aan jou en aan iemand anders. En dan is het idee van die puzzelstukjes dat als je daar naar kijkt, als je dat puzzelstukje inspecteert, dan kun je daar geen enkele informatie uithalen over de onderliggende waarden. Maar als je genoeg van die puzzelstukjes hebt, dan kun je weer de onderliggende waarden reconstrueren. Dus het is een soort van versleuteling zou je kunnen zeggen. Of in ieder geval een soort representatie die onder bepaalde omstandigheden niks verklapt... en onder andere omstandigheden, namelijk als je genoeg van die puzzelstukjes samen hebt... dan kun je weer de data ontsleutelen of reconstrueren. Maar nou is het idee dat in die vorm waarbij je dus eigenlijk een soort... oogschijnlijk nutteloos puzzelstukje in je handen hebt... dat je daar toch mee kunt rekenen met de andere partijen samen. En door berekeningen of operaties uit te voeren op die puzzelstukjes, ben je eigenlijk de onderliggende waardes aan het verwerken. Op zo'n manier dat je er dus niks over te weten komt. Ja, want je doet niet de onderliggende... Dus je haalt niet de data letterlijk weer terug. Dus je had het net over de leeftijd. Dus de leeftijd van de patiënt is bijvoorbeeld 67. Het is niet dat als je dat met elkaar aan het delen bent, dat de ander weet dat die leeftijd 67 is? Nee, want dan zou het doel niet slagen. Dat zou dan geen nut hebben in die zin. Maar je moet natuurlijk wel opletten dat uiteindelijk de uitkomst van de berekening... niet te veel verklapt over de onderliggende data. Om daarvan een heel concreet voorbeeld te geven. Als we bijvoorbeeld zo'n berekening met z'n tweeën zouden draaien... en we berekenen onze gemiddelde leeftijd. Nou dan, omdat je je eigen leeftijd kent en dan het gemiddelde, kun je de leeftijd van die andere persoon reconstrueren. Dus dan heeft het niet zoveel zin. Dus je moet altijd kijken of het, nou ja, in die zin, of de output van de berekening niet te veel prijs geeft. En je moet ook gewoon kijken naar, is dit überhaupt ethisch wenselijk dat we dit gaan berekenen? Is er een juridische basis voor? Dat is natuurlijk geen technische vraag, maar wel een hele belangrijke vraag om te beantwoorden... al voor je zo'n data samenwerking aangaat met andere partijen. Zijn er klanten die ook daadwerkelijk op deze manier, als ze die data uitwisselen, gebruiken voor machine learning? Ja, dus kunnen we verschillende voorbeelden geven. Ik heb net over de medische sector gesproken. Daar hebben we ook een aantal klanten die daar gebruik van maken. Maar misschien is een ander voorbeeld in het delen van threat intel informatie, dus cybersecurity informatie, om bijvoorbeeld de weerbaarheid van Nederland te verbeteren. Om daar een voorbeeld van te geven is dat continu worden bedrijven en instellingen aangevallen, digitaal. Denk bijvoorbeeld aan een sluizencomplex of een bank, die moet goed weerbaar zijn tegen cyberaanvallen. En die bedrijven of instellingen die hebben er ook baat bij om bepaalde best practices te delen, of statistieken over hoe vaak zo'n aanval plaatsvindt, etc. om dat soort informatie te delen. Maar soms is het ook weer zo dat de reputatie van zo'n instelling of bedrijf in het gedrang is. dat als in de krant komt te staan dat jij je cyberverdediging niet goed op orde had, dan is dat wellicht niet goed voor je reputatie. Dus daar is dan ook een heel duidelijk confidentialiteit of privacy aspect relevant. En dan gaat het dus om de vraag van, kan ik bijvoorbeeld ook het uitwisselen van gegevens faciliteren, op zo'n manier dat die privacy gewaarborgd is. En daar ondersteunen we ook een partij in. Interessant. En ik ken zelf het principe van differential privacy. Hoe verhoudt zich dat hiertoe? Ja, dat is een goede vraag. Differential privacy, dat is een methode voor het disclosen van informatie. Dus bijvoorbeeld het CBS, als die cijfers gaat publiceren, dan zou je kunnen zeggen van ja, we willen graag dat de cijfers die we publiceren... een bepaalde mate van differential privacy hebben. Zodat iemand die dan die cijfers ziet, dat die er niet in kan slagen... om iets over individuele personen te leren die in die dataset zaten... die gebruikt zijn om die statistiek te berekenen. En dat is een techniek die eigenlijk......ortogonaal is aan de technologie waar wij mee bezig zijn als bedrijf. In de zin van je zou die technologie kunnen combineren met onze technologie. Omdat de technologie waar wij mee werken......ik heb eigenlijk nog niet eens de term genoemd......die noemen we 'multi-party computation', 'secure multi-party computation'. Die stelt je in staat om berekeningen uit te voeren. Maar de uitkomst van die berekening, die kan dan nog wel of niet differentially private zijn. Dus misschien moet je dan nog wel een extra berekening uitvoeren... om die uitkomst differentially private te maken. Dus dat is eigenlijk een ander vakgebied en het is wel mogelijk om dat te combineren.- Mooi. Hoe weet je wanneer... Ik weet niet of je daar antwoord op hebt, hoor. Maar hoe weet je alsof je die differential privacy nog nodig hebt daarna? Dat is een moeilijke vraag. In de zin van, daar moet je gewoon analyseren, het probleem wat voor je ligt, of daar risico is dat er informatie gaat lekken over iemand uit de dataset. Dus een heel concreet voorbeeld van wat vaak genoemd wordt als je het over differential privacy hebt, is dat stel je publiceert het gemiddelde salaris van een bedrijf, en dan gaat er één iemand weg, en je weet, dat is Piet van Dijk, of nog maar wat, die gaat weg, en dan wordt weer het gemiddelde salaris gepubliceerd. En dan kun je vanuit die twee gemiddeldes, en de kennis dat er één iemand is weggegaan, dan kun je afleiden wat Piet van Dijk verdient, of verdiende. Dus je moet eigenlijk afvragen van ben ik überhaupt een waarde aan het disclosen. Het is ook heel relevant als je die waarde in de krant gaat zetten. Terwijl als je bijvoorbeeld één partij hebt die die waarde krijgt, dan is misschien de impact minder groot. Dus dat zijn, ik denk dat het vooral voor CBS-achtige toepassingen, Dus echt disclosure, dat je die data in een rapport gaat publiceren. Dan moet je heel erg letten op disclosure control. En dat kan breder zijn dan alleen differential privacy. Want differential privacy is één techniek die bij die bredere ballet hoort... aan technieken voor disclosure control. Duidelijk. -Nou, heb je nog een paar andere? Ik wil je zeggen één van de technieken. Kan je voor de luisteraars nog wat andere technieken noemen... die daarbij komen kijken? Over disclosure control? Ik moet wel zeggen dat dat niet mijn eigen expertise is. We hebben toevallig laatst wel een lesje gehad van iemand van het CBS, Peter Paul de Wolf, die daar expert op is. En die heeft daar ook een boek over geschreven. Dus misschien is dat dan een goede verwijzing naar het boek van Peter Paul de Wolf. Die kunnen we opnemen in de description van de aflevering. Maken we daar even een linkje van. Ik denk dat het sowieso een belangrijk onderwerp is, zeker voor het CBS. Dus als je statistieken publiceert, dan moet je daar goed in onderlegd zijn... en weten wat je doet in die zin. En dan is er een hele toolbox van technieken. En dan moet je dus ook nog extra informatie hebben. En dan moet je ook nog extra informatie hebben over de technieken. Nou ja, en dan moet je dus ook nog expert zijn om de juiste tool voor de problem at hand te pakken. Gelukkig geldt dat voor heel veel gebieden zo. Daarom verdienen wij ons brood ook met AI machine learning. Dus niet iedereen is daar even bedreven in. Om daarop door te gaan, gebruiken jullie zelf binnen het product ook vormen van machine learning? Of andere dingen die onder AI vallen? Ja, zeker. Ook omdat het een belangrijke toepassing is. Dus er is veel vraag naar het gezamenlijk analyseren van gegevens. En mensen zijn vaak gewend om met hun methodieken te werken. En wat zijn die methodieken dan? Je kunt denken aan bijvoorbeeld een lineaire regressie of een logistische regressie. Denk aan een verzekeraar. Je wil op basis van allerlei kenmerken, van wat is het bouwjaar van de auto, wat is de nieuw prijs, wil je bijvoorbeeld het schadebedrag kunnen schatten. Maar denk nu eens aan een scenario dat er is een nieuw product, bijvoorbeeld een elektrische auto, En elke verzekeraar die elektrische auto's probeert te verzekeren, die heeft maar weinig data. Dus dan zou er misschien een business case kunnen zijn voor verzekeraars om samen te gaan werken. Maar die verzekeraars willen eigenlijk niet dat de concurrenten hun klantjes zien in die database. Dus dan is het een soort Catch-22-situatie van ik wil eigenlijk wel samenwerken, maar ik wil eigenlijk niet dat de gevoelige data of in mijn dataset, dat ik die zomaar prijs moet geven aan mijn concurrenten. En voor dit soort scenario's is deze technologie uit de mate geschikt. Dat je dus virtueel eigenlijk die datasets kunt combineren. Dus wederom blijft die data eigenlijk bij die verzekeraars zelf staan, maar je zet al die datums, al die stukjes data, zet je weer om in die puzzelstukjes, waarmee je op die dataset kunt rekenen alsof het dus één dataset is, maar eigenlijk zijn het dus die losse datasets. En dan zou je bijvoorbeeld zo'n lineair regressiemodel of een logistisch regressiemodel kunnen trainen op die totale tabel. Om dan een model te krijgen waarmee je veel beter bijvoorbeeld dat schadebedrag kunt schatten dan dat zo'n individuele verzekeraar een model had kunnen trainen. En moeten zij de data allemaal in hetzelfde formaat aanleveren? Dus allemaal met dezelfde features of dezelfde ruwe input data, dezelfde kolommen zeg maar, even voor het gemak. Ja en nee. Je moet wel een beetje van elkaar weten. Als iemand een lengte heeft, of het nou een lengte van een auto is of van een persoon, moet je natuurlijk wel weten of dat in meters is of in centimeters. Dus je moet wel zorgen dat er een correcte annotatie is van wat zijn de eenheden van de getallen en dergelijke. Bij een contract, een soort van datacontract. Ja, maar aan de andere kant, het zou juist zo kunnen zijn dat ik een of ander kenmerk weet over klanten... en jij als concurrerende partij hebt diezelfde klanten in jouw database... maar jij hebt bijvoorbeeld weer andere kenmerken. En dan zouden we onze data verticaal kunnen samenvoegen... in de zin van dat ik een kolom aanlever en jij een andere kolom, een andere kenmerk... over dezelfde set van personen. Maar het zou ook kunnen dat wij bijvoorbeeld allebei dezelfde kenmerken weten, maar over andere personen. En dan is het meer alsof je die datasets horizontaal aan elkaar plakt. Prachtig. Hoe gaat een matchingvraag er dan af? Want hoe weet je dat klant 1 hetzelfde klant is bij de andere partij? Ja, dat is een goede vraag. Dat is eigenlijk ook de basis van... Als je dus zo'n analyse wil gaan doen op basis van meerdere bronnen, Als je het hebt over een SQL join, hebben we een unieke identifier. En als je die niet hebt, dan zou je ook nog met fuzzy matching... aan een andere identifier kunnen gaan. Maar dat is natuurlijk ook een heel belangrijk punt. Dat je ook een soort van identifier hebt. Want als je een identifier hebt, dan moet je die ook... Dan zou je ook nog met fuzzy matching aan de slag kunnen gaan. Maar daar krijg je altijd natuurlijk het probleem dat je dan volgens positives, volgens negatives krijgt. Dat je denkt dat twee mensen dezelfde partij zijn en toch eigenlijk andere mensen. Precies. Doe je dat dan voordat je er puzzelstukjes van maakt? Nee, dat moet je vaak doen. Ook onder de encryptie noemen we het. In dat puzzelstukjes domein zou je kunnen zeggen. Dat is dus ook iets wat wij inmiddels kunnen. Dus dat is een soort capability die je dus ook voor heel veel dingen nodig hebt. En dan is de crux om dat snel te krijgen. Want als je het niet snel doet of niet slim, dan krijg je een zogenaamde kwadratische complexiteit. En je wil juist lineaire complexiteit. In de zin dat als het datavolume bijvoorbeeld maal 2 gaat, dat dan ook de rekentijd maal 2 gaat en niet bijvoorbeeld maal 4 of maal 16. Weet ik veel. Want dan gaat het snel tegen beperkingen aanlopen natuurlijk. Ja, gaaf. Ja, gaaf. Kun je wat delen over welke technologieën jullie gebruiken? Ja, zoals ik eigenlijk aan het begin ook zei van het gesprek is... dat vakgebied al erg volwassen uit de academische wereld. Om precies te zijn, bestaat ongeveer 40 jaar. Dus uit het begin jaren '80 kwamen de eerste ideeën. En wij gebruiken eigenlijk een mix van oude en nieuwe ideeën. Dus sommige ideeën komen letterlijk uit de tachtige jaren. Maar er zijn ook technieken die pas een aantal jaren geleden ontdekt zijn. Ik heb zelf onder andere ook nog een paar dingen beschreven in de literatuur... die we nu gebruiken in het product.- Gaaf.- Dus het is in die zin een mengelmoes van allerlei technieken. En de meeste technieken zijn ook in het publieke domein. Maar het is wel dermate specialistisch... dat er eigenlijk ook maar een kleine set van mensen of bedrijven met deze materie bezig is. Dus het is ook, je kunt zeggen, een soort pionierswerk... om die vertaalslag te maken van artikelen, dus het is opgeschreven of in boeken... naar software die werkt op een moderne server, zodat je er iets mee kan doen in de praktijk. Wat zijn dan de uitdagingen van het academische naar het pragmatische implementatie? Er zijn ook een heleboel niet-technische uitdagingen. Daar kan ik over vertellen. Het starten van een bedrijf hierin. Maar als je het hebt over de technische kant, is het gewoon zo opzetten dat het performant kan zijn. Want je hebt eigenlijk dat spel met al die puzzelstukjes. Dat begint letterlijk bij je hebt een waarde en je wil een andere waarde optellen. Dan moet je iets met die puzzelstukjes of je wil twee waardes vermenigvuldigen. Dan moet er iets met die puzzelstukjes gebeuren. Dus het grijpt in op het meest lage niveau van een algoritme. En wat je ook hebt is dat soort van de onderlinge kosten van een operatie. die is heel anders dan op een normale computer. Dus op een normale computer is bijvoorbeeld optellen en aftrekken het goedkoopst. En als je kunt optellen en aftrekken, of eigenlijk als je twee getallen van elkaar af kunt trekken, dan kun je ook kijken naar het carry bit en dan kun je twee getallen vergelijken. Maar bijvoorbeeld in die multi-party computation, dan is optellen en aftrekken ook heel goedkoop, maar twee getallen vergelijken is alweer een stuk ingewikkelder. en vergt ook communicatie tussen de partijen. Dus dan gaan er letterlijk datapakketjes over een TCP of UDP verbinding tussen partijen rond. Nou ja, dan hangt het er ook alweer vanaf van hoe snel is die verbinding, wat is de latency van die verbinding. Dus met die beperkingen, om het dan toch snel te krijgen, Dat is echt het engineering wat het ook weer leuk maakt. Want je hebt eigenlijk weer een soort nieuwe computer. Het is een soort virtuele computer. Want het is eigenlijk een computer die samengesteld is uit de computers van de meerdere partijen. En daar weer algoritmes op herimplementeren. Dus je neemt bijvoorbeeld een logistische regressie algoritme. Zo'n optimalisatie routine om zo'n model te trainen. model te trainen. En dan ga je eigenlijk helemaal afpellen of uitkleden van hoe werkt dat algoritme nou. En als je dat goed hebt doorgrond, dan ga je het eigenlijk weer opbouwen in termen van dit nieuwe kostenmodel. Dus dan ga je misschien ook wel ontwerpbeslissingen die in dat algoritme zitten, die ga jij anders nemen, omdat dat beter past bij dit kostenmodel. - Begrijp ik. Nou, ik begrijp het. Ik vind het ook wel moeilijk. Jij zegt, het is een behoorlijk specialist met dit. Er zijn weinig bedrijven, mensen specifiek hiermee bezig. Hoe komen ze uiteindelijk bij jullie? Welke zoektermen worden er gebruikt? Want dat is waarschijnlijk niet van, ik heb encryptie nodig om data uit te wisselen. Wat is eigenlijk de vraag van de klant? Ja, ik denk dat in alle eerlijkheid is het ook nog bijna het evangelie prediken. Want het is vrij paradoxaal dat het überhaupt kan. Dat je dus kunt rekenen op data zonder het aan elkaar prijs te geven. Dus er is ook nog een stuk market making nodig. Het uitleggen aan mensen dat dit überhaupt kan. En dan valt er vaak een kwartje bij een klant van verrekken. Maar als dit kan, dan kunnen we dit probleem oplossen. Het is een sleutel tot een nieuwe deur die open kan. Dat zijn ook de sterkste use cases. Als er dus iets niet kon, wat met deze technologie opeens wel mogelijk wordt. En dan nogmaals wel als er een juridische grondslag is. Uiteraard. Het is een technologie. Het moet wettelijk passen natuurlijk. Daar geldt voor heel veel dingen. Maar ik denk dat het aan het komen is dat er ook klanten zelf al die technologie kennen. Er zijn ook een aantal gerelateerde technologieën binnen die privacy technologie palet. bijvoorbeeld fully homomorphic encryption is zo'n term.- Ja, mensen kunnen niet zien, wij hebben glazerige ogen nu.- Maar misschien ook iets bekender, confidential computing, dat is een propositie van Microsoft en ook Google. Dat komt van de chipvendoren, Intel heeft SGX als technologie, AMD heeft een soort vergelijkbare technologie. Daar zit een soort geheim doosje in een computer, waar je ook dit soort use case mee kan doen. Die zijn aan de ene kant performanter, maar aan de andere kant is de multi-party computation zoals wij die inzetten, daar zit veel meer theoretisch begrip achter. Dus veel meer wiskundige kennis. Terwijl die hardware modules, zoals een Trusted Execution Environment, is een geheim doosje dat Intel heeft gebouwd, maar wat daar precies achter zit is niet zo bekend. En is ook niet te valideren uiteindelijk. Dat is niet te valideren. Je kunt zeggen je moet dan maar Intel vertrouwen, maar aan de andere kant zijn er ook wel veel vulnerabilities die daar naar buiten komen. En dit gaat natuurlijk over trust. Dit gaat over trust, ja. Dat is best lastig. Maar het is ook weer een wereld waar gewoon grote budgetten achter zitten. en misschien wel hybride oplossingen. Ja, inderdaad. Ik denk dat de use case daar wel bepalend in is. Met jouw kennis, voor mij nog een best onbekende wereld, als je dan vooruit zou kijken. Wat zie jij voor vooruitkomen? Wat zie jij voor vooruitkomen? En wat zie jij voor vooruitkomen? En wat zie jij voor vooruitkomen? En wat zie jij voor vooruitkomen? En wat zie jij voor vooruitkomen? En wat zie jij voor vooruitkomen? En wat zie jij voor vooruitkomen? Als je dan vooruit zou kijken, wat zie jij voor grote veranderingen op dit vakgebied binnen nu en drie jaar? Ik denk in ieder geval dat dit soort technologieën zijn een hele concrete manier om vorm te geven aan de dingen die de GDPR probeert te stimuleren. Dus bijvoorbeeld begrippen zoals dataminimalisatie, proportionaliteit... die kun je nou heel concreet invullen door gebruik te maken van zo'n technologie. Bijvoorbeeld dataminimalisatie. Je hoeft niet de data meer aan elkaar prijs te geven... maar alleen maar het resultaat van een analyse wordt bekend... bij één van de partijen die die informatie nodig heeft. Bijvoorbeeld weer een ander voorbeeld in de publieke sector. Denk aan een gemeente die samenwerkt met de politie en met jeugdzorg. Om iets te... Denk bijvoorbeeld aan een toelage waar iemand recht op heeft. De gemeente wil de mensen vinden die recht hebben op de toelage. Om hen bijvoorbeeld een bericht te kunnen sturen. Van 'hij, u heeft nog recht op deze toelage'. En dat hangt dan af van misschien wel iemand jeugddelinquente verleden ofzo. Terwijl je wil eigenlijk niet dat dat op allerlei plekken in databases komt te staan, dat soort informatie. Terwijl met dit soort technologie kun je eraan bijdragen dat dus ook die informatie niet overal gaat rondslingeren. Maar bij de bron blijft. Ik denk dat het daarom ook een hele belangrijke technologie is, juist omdat je het op een veilige manier kan doen. Wij lopen er best wel in de praktijk tegenaan dat bedrijven, zeker als ze onderling data moeten gaan uitwisselen, met ons uitwisselen is al een probleem als verwerker. Laat staan met meerdere partijen. Daardoor kunnen er zo ontzettend veel meer mogelijkheden ontstaan voor allerlei vormen van use cases, waar nu een risk officer echt van zegt..."Ja, dat gaan we niet doen, want de GDPR, want privacy." En als we die drempel kunnen nemen, kan je denk ik het ook de technologie inzetten voor heel veel nieuwe dingen. Nou ja, we hebben het natuurlijk vaak gehad in de podcast over ketenorganisaties. Daar zie ik echt dat dit een hele krachtige manier is om toch het resultaat te behalen... zonder dat de data de hele keten door moet, gecopieerd wordt... en vervolgens weer door wordt gegeven aan de volgende in de partij. Ja, en wat je ook noemt over die processen... die je door moet om zo'n samenwerking op te zetten. Kijk, het is niet zo dat met deze technologie... opeens de GDPR uitgeschakeld wordt, die blijft van kracht. Maar wat we wel zien is dat je bijvoorbeeld zo'n DPIA... veel makkelijker daardoorheen komt... omdat de techniek die geeft hele concrete garanties. Dit wordt bekend en dit blijft geheim. Dus in die zin wordt dat heel concreet, wat gewoon helpt met de snelheid van de juridische analyse van zo'n samenwerking. En waar je dus aan de ene kant, je kunt zeggen er komt technische complexiteit bij, maar dat is iets die wij als bedrijf voor onze rekening nemen. Dat is onze core business. Maar we verlagen de weerstand bij dat soort dpa-processen of andere juridische analyses. Ja, kan ik me alles bijvoorstellen. Dat is dan een soort businesswaarde die onze klanten weer zien. Ja, begrijp ik. Ik ben even aan het nadenken hoe ik de vraag moest stellen. Ik zie je ook moeilijk kijken. Ja, de borrel te vracht, maar de vraag kon er niet naar boven. Ik ga hem toch gewoon even stellen zoals hij in mijn hoofd zit. Dus misschien komt hij niet helemaal helder uit. Hoe kan het dan juridisch getoetst worden dat hetgene wat dan prijsgegeven is, het enige is wat nodig is om prijs te geven? Hoe kan je het valideren bedoel je eigenlijk? Ja, hoe kan je het valideren? Dat is de vraag. Nou, er zijn een aantal manieren hoe ik je vraag kan interpreteren. Je kunt bijvoorbeeld afvragen van, jullie zeggen nou wel dat jullie software dit of dat doet. En hoezo is dat dan zo? Nou, dat kan bijvoorbeeld middels een software audit worden geverifieerd. Je hebt natuurlijk ook te maken met bijvoorbeeld juristen die dan met deze technologie in aanraking komen... en daar nog niet alles van weten. van weten, dan is het vaak een proces dat juristen met andere juristen gaan praten die er al meer van weten. Wij werken zelf samen ook met een aantal juridische partijen en die weten inmiddels vrij goed hoe de technologie werkt en wat ermee mogelijk is. En verder is het natuurlijk ook nog gewoon de use case zelf. voordat je überhaupt aan techniek denkt, moet je natuurlijk heel goed nadenken van welke gegevens hebben we nodig uiteindelijk. Wat moet de uitkomst van de berekening zijn en waarom dan? En mag dat dan wel? En nou ja, et cetera. Dus kijk, het blijft natuurlijk nog gewoon een... Het is geen sinecure om een goede data-samenwerking op te zetten, waar je jezelf ook kunt verzekeren dat er geen verkeerde dingen op straat komen. Maar ik denk dat dit een heel nuttig gereedschap is om je daar beter bij te kunnen ondersteunen, deze technologie.- Je kan de risico's verlagen.- Ja, en veel educatie hoor ik ook inderdaad. Dat vroeg ik me af inderdaad, als jurist, naar deze techniek kijken. techniek kijken en zoals je hoort inderdaad dus wel samenwerken en educatie richting juristen. Hoe werkt het en wat doet het wel en wat doet het niet? Ja en ook daar is ook heel veel interesse uit die hoek, want we hebben een aantal weken geleden een juridische workshop ook in samenwerking met een juridisch kantoor georganiseerd. En ja we schatten zo 30, 40 man en uiteindelijk kwamen er meer dan 100 mensen op af. Dus daar waren dan ook FG's en privacy-juristen en dergelijke. Ja, en FG, functionarische gegevensbescherming. Ja, inderdaad, functionarische gegevensbescherming. Dus die eigenlijk binnen een organisatie ook zorgdraagt voor het correcte uitvoer van GDPR. En die kijken dus met heel veel interesse naar dit soort technologieën. en die zien het als een nieuwe tool in de toolbox, waarmee je de status quo een stuk verder kan brengen. Ja, mooi. Ik ben in heel veel wijze geworden, jij denk ik ook in ieder geval. Sommige dingen een stukje waziger, sommige een stukje middenwaziger. Ja, echt mooi. Dank je wel voor deze hele leerzame middag. Ja, heel graag gedaan. En dan sluiten we hem af. Dankjewel dat je wilde luisteren naar de EOD Today Live. Wil je geen aflevering missen? Zorg dan dat je ons volgt op Spotify, via Apple Podcasts. En dan mis je geen aflevering. TV Gelderland 2021 TV Gelderland 2021