AIToday Live

S04E12 - Trustworthy AI en de rol van auditors - Marc van Meel

Info Support AIToday Season 4 Episode 12

Wat is trustworthy AI? Dat is de eerste vraag die we aan Marc van Meel, AI Ethics Lead @ KPMG. We spreken in twee delen met Marc over AI en het effect van de technologie op de samenleving, waarbij ethiek een belangrijke rol speelt.

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

leuk dat je luistert naar een nieuwe aflevering van AI Today Live. Vandaag is het onderwerp AI en ethiek. Mijn naam is Joop Sneijder, CTO van Agency. En mijn naam is Niels Naglé, Chapter Lead Data AI bij Info Support. En we hebben vandaag de gast Mark van Meel van KPMG. Mark, voordat we beginnen zou je jezelf voor willen stellen? Ja tuurlijk, allereerst hartelijk dank voor de uitnodiging. Leuk om hier te zijn. Zal ik heel kort iets over mezelf vertellen misschien? Ik wil het even voor de luisteraars kort houden. Mijn naam is Mark van Meel, ik werk voor KPMG. Ik woon in Utrecht. Ik heb zelf een achtergrond in machine learning. Ik ben vroeger machine learning engineer geweest, data scientist. Ik heb veel image recognition gedaan, of fine-grained image recognition zoals dat heet. Letterlijk met dierenplaatjes gewerkt, het klassieke kat- en hondenverhaal, labelen weet je wel. Echt het veldwerk gedaan, zeg maar, heel leuk. Ik heb ook een achtergrond als computer scientist. Dat is een heel fancy woord voor informatica. Dat is echt een legacy term geworden. De informaticus bestaat eigenlijk niet echt meer. Informatica bestaat niet meer. Maar ik heb wel een redelijk klassieke achtergrond in de zin van leren programmeren, mens-machine interactie, de filosofie van technologie, de ethiek van technologie. Dus niet AI. Toen destijds kwam data science eigenlijk op. Toen ik studeerde was er nog geen data science, toen heette het gewoon data mining, volgens mij. Tot op een gegeven moment tegen mij vertelde, zou het niet leuk zijn als je ook zoiets met non-deterministische systemen gaat doen. Data science, misschien moet je daar iets mee. Dat is eigenlijk de data science wereld bij toeval ingerold. En dan kwam ik al heel snel achter, wacht, heel veel dingen zouden beter kunnen. Vanuit traditioneel engineering perspectief, ISO standaarden, goed coden. Dat is natuurlijk in software science al redelijk uitgespecificeerd. Dat was in data science nog niet echt aanwezig. Een paar jaar geleden heb ik eigenlijk een gok gemaakt. Ik dacht van nou AI governance, quality assurance, rondom AI en data science, dat gaat hem worden denk ik de komende tijd. Ja en ik denk dat dat tegenwoordig wel een heel actueel thema is. Absoluut. Even voordat we de ethiek en dat soort dingen ingaan en de governance die je noemt. Wat heeft het je gebracht dat je een computer science informatica achtergrond had in dit vakgebied? Ik ben dat op zich niet zo heel bijzonder hoor. Gewoon een VBO gedaan en dan moet je natuurlijk allerlei exerciële vragen gaan stellen. Wat wil ik doen met mijn leven en wat wil ik nou. Ik was altijd wel goed in programmeren, een beetje tech savvy, wel handig met computers. Dus ik hint al een beetje op de klassieke informaticus. Iemand die kan coden en ook nog een printer kan fixen. Waar mijn ouders heel blij mee. Maar heeft het je ook geholpen bij de computer vision en het vak van data scientist? Ja, ik denk zeker wel. Ik denk dat dit trouwens wel geldt voor meer mensen. Als je kijkt naar voor data science, voordat het bestond. Ik zie ook als vacatures van, we zoeken een data scientist met 10 jaar ervaring of zo. Dan denk ik wel bij mezelf, die was er nog niet destijds. Er zijn toch vaak mensen met een iets meer exacte achtergrond, misschien natuurkunde, ook informatica, ook wel wiskunde die dan een switch maken naar uiteindelijk data science. Het heeft mij persoonlijk wel heel erg geholpen. Ik heb zelf aan de TU Eindhoven gestudeerd, een redelijk exacte studie. Veel wiskunde natuurlijk, veel statistiek, dus dat helpt je al heel erg om data science te leren begrijpen, om deep learning te leren begrijpen en ja ook gewoon een beetje goed leren coden. Klinkt heel simpel, maar gewoon noem je variabelen, geef je variabelen gewoon een logische naam, weet je wel, en niet x of y en dat helpt je al zover. - Ja, dat is ook wel wat we herkennen inderdaad in de praktijk. Het stukje fatsoenlijke code kwaliteit, fashiebeheer, management van code, niet alleen het model, nee, alles eromheen in goede banen laten leiden. Script schrijven in plaats van notebooks, naar je exploratory data analysis bijvoorbeeld. Geautomatische testen, om maar eens een aantal dingen te noemen die we uit de software development kennen. Ja, en ook gewoon, hoe zeg je dat, abstract denkvermogen. Dat geldt denk ik voor heel veel technische studies of heel veel andere studies ook. Dat je op een gestructureerde manier een wat groter complex probleem weet op te delen in kleinere subproblemen. en dat logisch aan weten pakken. Maar ik kan me ook nog wel vak herinneren, evolutionaire algoritmes bijvoorbeeld, of complexe algoritmes. Als je er objectief naar kijkt, of wat running tijden, datastructuren, dat zijn vaak dingen die "al complexer" zijn dan wat ze bij data science toepassen. Dus dat helpt natuurlijk enorm. En wat is je functie nu bij KPMG? Ik ben werkzaam bij Trusted Analytics, dat is ons team, of Eye in Control, dat is de Engelse naam van onze propositie. En wij helpen eigenlijk organisaties met het bewerkstelligen van betrouwbare AI. We noemen het trustworthy AI, responsible AI. Ethische AI is natuurlijk ook daar een sub-onderdeel van. Label, misschien nog het minst interessant, maar zodat onze klanten hiervan erop kunnen vertrouwen dat hun toepassingen doen wat ze doen, zouden moeten doen, en dat ze het ook blijven doen in de toekomst, richting klanten toe. En is dat dan ook het trustworthy deal? Hoe bedoel je precies? Nou ja, dat term wordt vaak best wel gebezigd. Wij hebben datzelfde ook, maar wat verstaan we eigenlijk onder trustworthy? Ja, dat vind ik ook wel een goede vraag. Ik zal heel eerlijk zijn, toen ik een paar jaar geleden naar KPMG ging, dacht ik ook, KPMG, doe niet iets met technologie. Toch een beetje een business accountancy gevoel bij. Dat is natuurlijk ook van oudsher een van de big four's. Corporate, doen veel accountancy, assurance werk. Maar toen ik over na ging denken, bijvoorbeeld het auditen van een financial statement, van een jaarrekening bijvoorbeeld, Heel die audit-methodologie, het voorkomen van risico's, risicomitigatie en preventie, heel die methodologie kan je in principe ook heel goed toepassen op de risico's van AI-systemen. Dus ik ben eigenlijk steeds meer van overtuigd geraakt dat een, laten we het zeggen, een independent, third-party auditor juist een heel belangrijke rol kan spelen in het voorkomen van risico's die in dit geval dus gerelateerd zijn, en het zijn vaak nieuwe risico's die voortkomen uit AI-systemen. Maar dat is wat je doet. We weten nog steeds niet wat trustworthiness is, toch? Nee, sorry. Touché. Nou, kijk, ik denk... Als ik kijk naar het werk wat wij doen, bijvoorbeeld. Trustworthiness, betrouwbaarheid, heeft in de praktijk heel vaak te maken met... ik denk reliability. Dus doe jij wat je zegt dat je doet. Er is wel eens een misconceptie dat wij in ons werk explainable AI doen. Dus uitlegbare AI, of artificiale intelligentie. Ik noem dit zelf de cult of explainability, of soms ook wel de cult of privacy. En dat heeft ermee te maken dat je heel erg de neiging hebt om een systeem uitlegbaar te willen maken. Maar uitlegbaarheid is altijd een middel, geen doel. Dat noem je ook wel een instrumental goal. Je wil ergens uitlegbaar over zijn, met als doel om wat meer zekerheid af te geven of iets dergelijks. Je wilt uitlegbaar zijn om het uitlegbaar zijn is nooit een doel aan zich. Dus als ik kijk naar wat betekent nou precies vertrouwen? Ik kan je heel makkelijk een voorbeeld geven. Stel je hebt een vriend of vriendin, maakt niet zoveel uit. En die doet een belofte aan jou. En die komt je niet na. En vervolgens zeg je "Hé, wat is er aan de hand? Hoe kan dit nou?" Nou die kan een heel goede reden hebben, een heel goede uitleg. Ja, de trein was te laat, een hond, dit of dat. Dat je denkt van "Nou oké, prima, weet je wel, kan gebeuren." Nou volgende week gebeurt het weer. Je hebt weer een heel goede reden. Oma dit, of brug stond open, bla bla bla. Dan denk je van, ah oké, misschien een beetje pech, weet je wel. De week daarna gebeurt het weer. Dan ga je toch wel op een gegeven moment denken van, ik kan deze persoon simpelweg niet meer vertrouwen. Ik kan er niet op vertrouwen dat deze persoon zijn of haar beloftes nakomt. Dat heeft dus veel meer te maken met reliability. Kom je na wat je zegt, dat je zegt. Dan kan je alle uitlegbaarheid, alle goede redenen van de wereld hebben. Op een gegeven moment ga je die persoon toch niet meer vertrouwen. Is het te meten, dat trustworthiness? Nou kijk, ik ben natuurlijk een beetje biased, maar ik geloof dus heel erg in, wat ik net ook al zei, de rol die een auditor daarin kan spelen. Of in ieder geval een onafhankelijke derde partij. Bedrijven als KPMG, Deloitte, die doen dat eigenlijk al vanaf oud. Die geven assurance af op bepaalde toepassingen of op processen. Waarin ze eigenlijk zeggen, nou we kunnen het niet 100% doorgronden, maar we kunnen met redelijke zekerheid zeggen dat hier bijvoorbeeld niks is fout gegaan afgelopen jaar. Diezelfde metalurgie zou je dus ook kunnen toepassen op een analysysteem. Dat je een soort van betrouwbaarheidstempel krijgt? Ja, een soort label of een stempel, inderdaad een stempel van approval. Ja, en ik denk dat is een stempel wat je natuurlijk als ontwikkelaar zelf moeilijk erop kan plakken. Ik denk dat de overheid of welk andere orgaan die overheidse relatieert, kan daar vaak moeilijk de technologie bijbenen. Dus in dat opzicht is het heel logisch dat er audit-kantoren zijn.- Wat zijn dan een beetje zaken waarvoor je dan wel of niet een stempel zou geven? Waar kijk je dan naar aan?- Dat is een beetje het geheim van de smid. Ik kan niet heel onze metalurgie uitleggen. - Nee, dat hoeft natuurlijk niet. Zeker niet.- Ik wil het niet in details bestekken. Nou, kijk, zoals ik net ook al zei, het is vaak moeilijk. Traditionele software kan je testen. Je kan unit tests schrijven. Je zou in principe met dezelfde input altijd dezelfde output eruit moeten komen. Dus je kan heel makkelijk testcases schrijven bijvoorbeeld. Bij deterministische systemen is dat wel makkelijker dan met probabilistische systemen, waar we het hier vaak over hebben. Met andere woorden, gegeven dezelfde input hoeft het niet altijd dezelfde output uit te komen op een gegeven moment in de tijd. Maar je zou bijvoorbeeld wel kunnen kijken naar het ontwerpproces. Hoe hebben jullie dit nou uitgespecificeerd, bijvoorbeeld het systeem? Wat is nou eigenlijk het doel van het systeem? Wat zijn de performancemetrieken die jullie daarvoor hanteren? Zijn er misschien verschillende gewichten gekoppeld aan false positives, false negatives, ik noem maar wat. Zo zou je eigenlijk heel dat designproces ook kunnen doorlichten. Dat is ook een mooi voorbeeld van iets wat in softwareengineering heel normaal is. User requirements document, of tegenwoordig is dat maar wel wat meer lean en minor. Maar vroeger schreef je hele documenten, eigenlijk had je het hele systeem al uitgespecificeerd op papier. Je hoefde eigenlijk alleen nog maar tickets te coden. En dan had je eigenlijk gewoon het systeem. Maar met data science is dat niet ofzo. Dat is toch een wonderlijk...- Nee, net wat je zegt daarvan. Kijk, je kan niet gegarandeerd zeggen van... bij dezelfde input krijg je altijd dezelfde output. Als dat nodig is, dan moet je maar terug naar een regelgebaseerd systeem. En anders dan heb je gewoon te maken met onzekerheden. Ja, duidelijk. Er komt een nieuwe EU-wet aan, de AI Act. Daar zitten ook dingen in over trustworthiness, transparantie, dat soort zaken. Hoe kijk je daar tegenaan? Volgens mij was er gisteren, of in ieder geval deze week, weer een nieuwe draft van verschenen. Dat klopt ja, afgelopen maandag. Ik heb nog niet gelezen, maar volgens mij staat er op de agenda dat hij van eind 2024, 2025... Ik hoorde 2025, ja. Dat is er nu een streven. Ja, klopt. Als je kijkt hoe dat met de GDPR is gegaan, dan duurt het ook nog wel even. Hij moet eerst vastgesteld worden en volgens mij moeten uiteindelijk alle lidstaten van de Europese Commissie daar ook weer zelf nationaal uitvoering aan gegeven. Ik hoop ook dat organisaties hebben geleerd van de GDPR. Ze zagen het eigenlijk al jarenlang aankomen. Had je er op voor kunnen bereiden, je had er iets mee kunnen doen. Dus ik hoop dat ze dat hier ook doen. Wat is je gevolg over? Nou, ik heb ergens ook wel sympathiek voor organisaties. En zeker misschien wat kleinere, of MKB-organisaties. Die zowel te maken krijgen met de combinatie van de AI-Act en de GDPR. Die er dus al is. De AVG in het Nederlands. Als je een grotere organisatie bent, misschien ook de Digital Service Act, Digital Markets Act. Je moet het ook zien als een bundel. Het is niet zo dat de ene act of wetgeving je vrij waardt van de andere. Dus zeker als je een wat kleiner bedrijf bent en je doet iets met AI, misschien in een spannend domein bijvoorbeeld. Hoe ga je je navigeren door dat landschap van documentatievereisten? Dat lijkt me inderdaad heel erg lastig. Het zijn ook niet documenten die je inderdaad eventjes in een avondje wegleest. Nee, niet alleen dat, maar het zijn er natuurlijk ook veel. Dus we hebben een aflevering met Christian Verhagen. Die heeft daar uitleg over gegeven, over de AI Act. En die zei ook van, ja hallo, naast die AI Act komen er nog 18 andere. Komen eraan. Ja, je ziet ook een heel interessante trend, hè. Dat is wel grappig, hè. Dus we komen eigenlijk uit een soort van golf, ik noem het zelf techno-optimisme. Dus AI-optimisme. Dus de afgelopen paar jaren zullen jullie misschien ook wel herkennen. Dat is heel erg trendy om iets als AI te labellen. We gebruiken AI, artificiële intelligentie, terwijl als je onder de motorkap kijkt, dat het eigenlijk gewoon een query is, weet je wel. Of een deterministisch systeem of een randomizer. Ik heb heel rare dingen gezien. Maar tegenwoordig heb je dus het tegenovergestelde. Het is een soort van technopessimistische golf, waarin het niet meer zo aantrekkelijk wordt voor een organisatie of een product, als zijnde AI te labelen. Als je dat doet, dan betekent dat dus dat mensen iets bij je te zoeken hebben. Van, oh, je hebt een AI-systeem. Is dat dan een hoog risico, midden risico? Dan komen allerlei documentatiestandaarden en requirements dus om de hoek kijken. Dus je zit eigenlijk tegenovergestelde beweging nu. Dus dan wetgeving, ethische kaders. Het is meer in het collectieve bewustzijn van de bevolking dat deze systemen spelen. Dus het is niet langer zo aantrekkelijk meer om iets als zijn een algoritme, dan pak ik even de media term, algoritme of faillissysteem te leven. Ja, dat denk ik zeker. Ik denk dat je daar gelijk in hebt. En dat is misschien wel goed ook toch? Dat je dat... - AI voor AI doen zonder doel. Ja, maar ook zomaar iets daarop labelen voor marketingtechnische redenen. Wat ik nog wel weet is... Ik heb toevallig van de week een webinar gevolgd van de NEN over de AI Act. En wat er in ieder geval veranderd is, is dat wat ze eerst in de tekst hadden staan... van wat hoogrisicosystemen zijn, dat hebben ze nu naar een appendix verplaatst. Dat heeft een hele duidelijke reden, want dat betekent namelijk dat ze die wet kunnen houden, maar dat ze dus makkelijker de appendix kunnen aanpassen. Dus daarmee zeggen ze van, dan kunnen we ook de innovatie makkelijker volgen, omdat die sneller gaat dan dat de wet aangepast kan worden natuurlijk. Dus dat vond ik een hele slimme. Maar er stonden ook al meteen meer items op dan de initiële versie die ik in ieder geval toen gelezen heb. Dus een van de dingen is dat bijvoorbeeld alle medische toepassingen... zijn nu ook echt high in risico. Per definitie? - Per definitie. Oké. - En die lijst was echt wel uitgebreid. Dus dat viel mij in ieder geval op. Nou, dat is wel fijn dat de kaders wat meer helder gaan worden... en dat het meer uitgekristalliseerd wordt. En dankjewel voor je uitleg. Luisteraar zag het niet, maar ik zat je heel wazig aan te kijken... dus dank je je nog even uitleg met het stukje van appendix. Ja, dat klopt wel. Ze hebben hem... Je moet me vergeven hoor. Ik heb de laatste versie dus nog niet gelezen, maar in ieder geval de versie daarvoor hebben ze de scope wel wat aangescherpt. De initiële versie was redelijk breed. Bijna alles was een AI-systeem. Of zou je als AI-systeem kunnen verkopen, zeg maar. En in ieder geval de laatste versie die ik gelezen had, hadden ze het al wat aangescherpt. Met betrekking tot de toepassingsdomeinen. Bepaalde technieken die je dan gebruikt in een soort bijlage. Zoals de list, op zich een elegante oplossing. Aangenomen dat het een soort leefdocument wordt dan. Dat op de date gehouden wordt. Volgens mij staat in de laatste versie dat regelgebaseerde systemen, zolang de regels bedacht zijn door mensen, dan zou het klassificeren als zijn er geen AI-systeem. Het schijnt dat ze daar heel erg over aan het discussiëren zijn. Wat valt nou onder die paraplu van AI? Het is natuurlijk ook heel moeilijk om dat te vatten. Daar hoorde ik in ieder geval van dat dat de grootste struikelblok is. nu van hoe definiëer je dat en wat valt er dan onder deze wet? Waar ik wel op zich heel fan van, of waar ik ze wel credit voor moet geven eigenlijk, is dat ze kijken naar AI-systemen. Ze onderkennen al, oké, we moeten op systeemniveau kijken. Daar waar in de media vaak gesproken wordt over de algoritme, of heel vaak gaat het over individuele algoritmes, terwijl in de praktijk werken die, ten eerste een model, ik heb het liever over modellen dan algoritmes, maar die zijn altijd onderdeel van een software-applicatie. We hadden het al over software. Een model of algoritme is vaak maar een kleine component in een groter systeem. Dus het systeemniveau is al op zich een goed abstractie-niveau om erover te redeneren. Vaak interacteren die ook nog met andere systemen, andere algoritmes. Mens, de voor of de na, upstream of downstream. Persoonlijk ben ik nog meer fan om naar procesniveau te kijken. Zeker als het gaat, ik werk bij KPMG, we zitten in de risicomitigatie business. Dan is het heel erg logisch om te kijken op procesniveau, wat gebeurt hier nou eigenlijk? Ik heb een systeem, het systeem kan een zwarte lijst produceren, ik noem maar wat. Het kan het volledig eerlijk doen, er kan helemaal niks mis mee zijn. Maar als een mens bijvoorbeeld achteraf uit die lijst gaat cherrypicken, omdat een mens ook KPIs heeft natuurlijk, en die denkt, die Roemenen hebben het altijd gedaan, ik noem maar wat.- Dan Bulgaren hebben we gehad, Bulgaren of Vrouwen.- Ja, exact. Dan introduceer je dus eigenlijk een selectiebias van de mensen in dit geval, die insert je in het proces. Terwijl het systeem zelf er misschien helemaal niks mee te maken heeft. Dus persoonlijk ben ik nog meer fan van te kijken op procesniveau, wat gebeurt hier nou? En je kan ook bijvoorbeeld, we hadden het net al even over wat classificeert een AI-systeem of niet. Het kan best wel zijn dat je een keten hebt van systemen of processen, allemaal niet met mensen, die individueel niet classificeren als zijnde een AI-systeem, maar die over heel de breedte, over een afdeling, wel degelijk gevoelige input en output vooral produceren. En dus op systeemniveau of procesniveau wel degelijk zouden classificeren als zijnde een AI-systeem. Keten lijkt me sowieso heel moeilijk. Wie wordt verantwoordelijk voor welk deel in de keten? Hoe is dat afgedicht? Zeker als dat zo direct model op model op model gestapeld wordt. Ja, want dan heb je dadelijk, waar nu vaak vanuit Gartner over gesproken wordt, de model owner die je dan graag zou willen klassificeren. Maar inderdaad, wat je zegt, als je gaat ketenen aan elkaar, dan heb je nog steeds vijf model owners die in jouw proces invloed hebben. Wie is daar dan weer voor verantwoordelijk? Ja, bijvoorbeeld ook met dpi's. Stel je wilt data gebruiken voor iets, dan wordt er een check gedaan. Gebruik je wel gevoelige data of niet? Blablabla. Nou, hoeft helemaal niet het geval te zijn, maar jouw systeem kan wel daadwerkelijk bijvoorbeeld gevoelige data produceren. Wat weer gebruikt wordt als input voor een ander systeem of een ander proces waar volgens mij niks meer wordt gedaan. Of wat niet meer wordt gecontroleerd. Eigenlijk een heel fascinerende gang van zaken. - Ja, toch? En die DPA's, de Data Protection Impact Assessment, zeg ik goed heel erg. Ja, dat is data. Ja, niet privacy. Nee, maar er komen steeds meer AI Impact Assessments. Ben je daar van op de hoogte, gebruik je die, hoe kijk je daarnaar? Ja, nee, groot fan van zelfs. We hebben bij KPNG er zelf ook een aantal ontwikkeld. Dus wij zitten vooral in, ik noem het zelf een beetje de risicomitigatie, risico voorkomen business zou je het kunnen noemen. En risico assessments of impact assessments zijn natuurlijk het middel per excellence om vast te kunnen stellen van wat zijn de mogelijke risico's die gaan spelen in dit systeem of met betrekking tot dit systeem. Wat zou er mis kunnen gaan en wat is de kans dat het misgaat en zo ja wat is de potentiële impact van wat er dan misgaat. En dat maal elkaar is volgens mij de klassieke definitie van Risico. Ja, precies. Wat ik zie is dat ze best wel overal oppoppen, al die assessments. En ik kan me best wel voorstellen dat als luisteraar ook denkt van, waar moet ik nou beginnen? Als je hierop wil voorbereiden. Want ik denk wel dat het goed is, we zitten net te lachen van ja, 24, 25, komt die wet eraan. Maar hij komt, linksom of rechtsom, komt ie. Zo komt ie. Dus ik denk dat het wel goed is dat je voorbereid bent. Wat voor tips zou jij hebben voor de luisteraar? Ik wil er vooral niet een binaire keuze van maken. Nee, dat hoeft voor mij niet. - Of je bent voorbereid of niet. Ik denk dat dat heel erg veel kan helpen. Zeker als het, dat hoop ik natuurlijk niet in het allerergste geval, tot een rechtszaak komt bijvoorbeeld. Als jij kan aantonen als organisatie dat je in ieder geval alles aan hebt gedaan, of in ieder geval binnen jouw middelen, of dat er goodwill was om bijvoorbeeld iets te voorkomen, dat missen ze gaan. Kan zijn door middel van een impact assessment, een ethische commissie, ik noem maar wat. Ja, dan zal de boete aanzienlijk minder groot zijn, zeg maar. Dus laat, volgens mij was het Voltaire die wel eens zei, perfect is the enemy of the good. Laat dat vooral niet, laat het overweldigende karakter van verschillende standaarden en alles wat op je afkomt, vooral geen limiterende factor zijn om er niet daadwerkelijk ook iets mee te doen. Ik denk dat het een hele mooie is die je zegt, want we hebben het best wel heel vaak over van ja wat moet je allemaal doen en wat komt er allemaal op je af en dat houdt je misschien ook wel tegen om te beginnen, terwijl het is natuurlijk een technologie die ook heel erg kan helpen en met dit soort verhalen vergeten we dat misschien wel eens, maar we zitten hier natuurlijk ook bij elkaar omdat we heel erg van deze technologie houden toch? Ja zeker en willen implementeren. Ik had het net al even over techno pessimisme en techno optimisme. Ik vind techno pessimisme een beetje een verkeerd label. Het geeft een beetje een verkeerde associatie op. Alsof ik liever in een hutje op de hei zou willen wonen of zo. Wat tegenwoordig super populair is om te verkopen. In de tiny houses. Ja, in deze late stage capitalist society is het tegenwoordig heel erg populair om te verkopen terug naar de natuur. en je moet los van technologie zeg maar. Dat is tegenwoordig heel hip om te verkopen. Wat in mijn opinie, kunnen we straks nog over hebben, totaal verkeerd andersom werkt. Maar goed, dus mensen zeggen wel zo, oh Mark je bent zo negatief over technologie en risico's, glas is half vol weet je wel. Of sterk nog, glas zit vol met gif bijvoorbeeld, waar is de nooduitgang? Maar ik denk dat, kijk als je techno-optimist bent, dan geloof je in de red natuurlijk in de kracht van vooruitgang en wat technologie met zich mee kan nemen. bijvoorbeeld voor de markt. Technopessimisme, je hebt gewoon andere waarden waar je je om geeft. Dus bijvoorbeeld autonomie, privacy en dan de impact van technologie op die waarden. Dus als jij gewoon bekommerd bent met de autonomie van mensen en je ziet daar potentiële gevaren voor, met betrekking tot een nieuwe technologie die geïmplementeerd wordt, ja dan ben je een technopessimist zeg maar. Maar je bent natuurlijk niet echt pessimistisch of cynisch ofzo. In dat opzicht een beetje een verkeerd label. Tenminste ik zelf niet. Ja ik denk dat het wel nodig is om om er met dat perspectief ook naar te kijken. Dus juist die verschillen tussen het optimisme en het pessimisme, als die elkaar kunnen opzoeken en de discussie goed kunnen voeren, denk ik dat het voor allebei de kanten waardevoller is. Zeker. Misschien overvraag ik jullie, hoor. Ik begin gewoon met Niels, dan kan Mark er namelijk wat langer over nadenken. En juist een positief, mooi voorbeeld over waar de technologie is ingezet. Dat ga ik toch even stil te laten vallen. Ik moet toch even over nadenken inderdaad. Het zijn natuurlijk heel veel mogelijkheden en ook heel veel mooie toepassingen. Ja, ik denk, er komt niet echt één nu naar boven, dus die krijg je misschien zo nog van mij over. Maar ik heb nu een spotje op de radio, ik weet niet of het waar is, maar dat ze met AI-systemen de whale sounds aan het analyseren zijn om te kijken hoe het gaat met de planeet. Ik hoop dat ze dat ook aan het doen zijn. En anders met bebossing en analyses van signalen vanuit de ruimte. Hoe gaat het met de bebossing? Ik denk dat daar echt wel heel veel mooie nieuwe inzichten uitkomen. Waar we als maatschappij, wereld, heel veel waarde uithalen. Dus dat zou mijn zijn waar ik hem echt… Oeh, dat is wel eigenlijk raar hier toch? Tof act to follow dit. Ik heb even over je na kunnen denken. Ik mag ook vragen terugstellen. - Tuurlijk. Dit is wel een leuke. Deze vraag stel ik altijd, of ja niet altijd, als ik presentaties geef, stel ik me vaak. Dus iedereen die niet meer luistert, kan ik hem niet meer stellen. Wat denken jullie, pak een beetje, afgelopen 100 jaar, wat de meest transformatieve technologie was? Ik heb het even over een technologie die is geïntroduceerd. In de westerse samenleving met het hoogste transformatieve gehalte op onze maatschappij. Ik ben wel benieuwd wat jullie zouden zeggen. Ik zou zeggen het internet. Ja, heel flauw, dan zou ik ook internet zeggen. Maar ik ga gewoon iets anders verzinnen, omdat het anders hetzelfde is. Dus ik zeg energie. Energie, als in elektriciteit? Elektriciteit in huizen, op plekken, overal. Ik weet niet of die de afgelopen 100 jaar is geïntroduceerd, maar ik snap hem. Meestal als ik deze vraag stel, krijg ik altijd antwoorden van het internet, de smartphone of de zelfrijdende auto, Tesla. Ik zeg niet dat het zo is, maar ik kan een heel sterk betoog houden waarom het de wasmachine is. En zeg maar household appliances in generiek. Het argument wat ik altijd maak, ik geef dit als voorbeeld om aan te geven dat we hebben vaak een soort bias, dat wat dichter bij ons staat in de tijd vinden we vaak belangrijker. Hoeft helemaal niet zo te zijn. Maar de wasmachine heeft echt een radicaal transformatief effect geldt op technologie, of sorry, op de maatschappij. Omdat het eigenlijk samen met de pil ervoor heeft gezorgd dat vrouwen massaal konden gaan studeren en ook mannen eigenlijk bevrijd werden van het huishouden. Ik maak nog steeds gebruik van de wasmachine, dat is niet altijd heel leuk, maar ik kan je bijna niet voorstellen hoeveel tijd het kostte voor de wasmachine, voor mensen om de was te doen, kleren te drogen. Je kent misschien wel die oude, het is niet echt een wasmachine, een soort tijl is het, een wasbord, een schrobber inderdaad. Valt ook samen met de pil, dat is ook een enorme technologische inventie eigenlijk. Wat er eigenlijk in een eentje voor heeft gezorgd dat vrouwen konden beslissen wanneer ze kinderen wilden, hoeveel. Het heeft zo'n radicaal transformatief effect gehad op onze samenleving. Vaak wordt het toegedicht aan individuen of feminisme, daar zit natuurlijk ook wel een kern van waarheid in, maar ik zou ook niet de kracht van technologie op onze samenleving willen onderschatten. Er zijn vaak gevolgen, consequenties, transformatieve effecten die we van tevoren niet goed kunnen bedenken. Het feit dat we nou bijvoorbeeld dat vrouwen massaal kunnen gaan studeren heeft er ook wel toe geleid dat onze maatschappij nou bijvoorbeeld ingericht is op twee verdieners. Dus ik kan niet meer alleen een huis kopen. Mijn vader kon dat wel. En het is geen normatief statement wat ik maak. - Nee, het is gewoon een feitelijke.- Volgens mij is het een goede ontwikkeling, maar het heeft wel dus een radicaal effect gehad op onze samenleving. En ik denk dat heel veel AI-systemen kunnen ook dit soort radicaal transformatieve veranderingen met zich meenemen. - Ja, mooi. Dan wil ik hem om af te sluiten, maar dan maak ik hem namelijk heel klein. Voor mij heeft het bijvoorbeeld geholpen om dat werkelijk te communiceren. Dus ik ben van de zomer op vakantie geweest. Ik heb twee honden, Een van de twee werd gewoon heel erg ziek. Op een zondag in Frankrijk. En mijn Frans is ondermaats, ondanks vier jaar VVO-Frans. Dus op de zondag zijn we geholpen, gelukkig, door buurvrouw. Die helpen allemaal. Maar op maandag moest ik het echt in mijn eentje alleen doen. En ik bel daar de receptioniste van de dierenarts. en ik vraag of zij Engels spreekt en ik kreeg het hele duidelijke antwoord, nol.[GELACH] Dan was ik al voorbereid. Dus ik had een vertaal-app die speech-to-text kon doen. Ik had me al voorbereid met de vertaling. Maar het feit dat ik live wat zij sprak om kon laten zetten, dat ik mee kon lezen wat zij aan het zeggen was, en het was niet perfect, Maar ik kon eruit halen dat ik daar 's middags om half drie terecht kon. En dat was voor mij genoeg. Dus dat zijn wel... Het is misschien klein, maar op dat moment was het een lifesaver, letterlijk. Ja. Ja, ik denk dat het ook echt onderschat is hoe vaak we het eigenlijk in de praktijk gewoon gebruiken... en het eigenlijk al bijna nu voor lief nemen, zeggen kleine kinderen. Dus die nemen die technologie en al die oplossingen gewoon mee alsof het nooit niet bestaan heeft, zeg maar. Dus die kunnen echt niet zonder. Nee. Nou, dat lijkt mij een mooie afsluiter voor deel 1. Wil je meer horen, meer weten wat Marc te vertellen heeft over AI en Analytiek? Abonneer je dan en dan krijg je een seintje van je favoriete podcast-app. Wanneer de volgende aflevering live staat. Zeker. Dankjewel dat je weer luisterde naar een nieuwe aflevering van AI Today Live. Hopelijk tot de volgende keer. Bedankt voor het luisteren. TV Gelderland 2021

People on this episode