AIToday Live

S08E23 - Certificering als kompas voor verantwoorde AI

Aigency by Info Support Season 8 Episode 23

Nico Nijenhuis van TÜV NORD Nederland ziet organisaties worstelen met AI-ethiek: teams beginnen met technologie en hopen dat verantwoordelijkheid vanzelf volgt. ISO 42001 dwingt bedrijven om vooraf na te denken over hun AI-doelen en risico's, niet achteraf repareren. Deze standaard combineert innovatiedoelen met risicoanalyse: welke risico's bedreigen jouw trustworthy AI-doelstellingen?

Bij zijn klanten ziet Nico dat kaders innovatie versnellen in plaats van remmen - zoals een zorgsysteem dat automatisch favoriete muziek afspeelt bij geagiteerde patiënten. Morgen kun je beginnen met één vraag: welke waarden zijn voor jouw organisatie niet-onderhandelbaar bij AI-implementatie?

Onderwerpen

  • ISO 42001 als managementsysteem voor verantwoorde AI-implementatie, waarbij organisaties hun eigen waarden definiëren en risico's koppelen aan trustworthy AI-doelen
  • De spanning tussen innovatiesnelheid en maatschappelijke gereedheid, met aandacht voor verschillende generaties en bevolkingsgroepen die technologie moeten kunnen bijbenen
  • Praktische implementatie van AI-normering in sectoren zoals de zorg, waar kaders helpen om technologie verantwoord in te zetten zonder menselijke interactie te vervangen
  • Europese waarden-gedreven regulering versus internationale druk, en hoe organisaties bewuste keuzes maken over niet-onderhandelbare principes bij wereldwijde operaties
Links

Genoemde entiteiten: TÜV NORD Nederland - Europese Commissie

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

None
00:00:00,000 --> 00:00:05,160
Certificeringen worden vaak gezien als bureaucratie, maar Nico Nijenhuis is hier iets anders.

None
00:00:05,160 --> 00:00:11,439
Bij TÜV NORD Nederland, internationaal certificerende instelling, toetst hij of organisaties hun

None
00:00:11,439 --> 00:00:13,599
AI-systemen goed in orde hebben voor het inzetten.

None
00:00:13,599 --> 00:00:19,519
ISO 42001, de nieuwe standaard voor AI Management, zet bedrijven aan het denken.

None
00:00:19,519 --> 00:00:25,640
Niet over compliance, maar over belangrijke vragen als fairness en maatschappelijke impact.

None
00:00:25,640 --> 00:00:27,440
Laten we naar Nico gaan luisteren.

None
00:00:29,760 --> 00:00:39,840
Joop: Leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live, mijn naam Joop Snijder, CTO bij Aigency, en mijn naam, Niels Naglé, Area Lead Data & AI bij Info Support.

None
00:00:40,080 --> 00:00:42,159
Joop: In de studio hebben we Nico Nijenhuis.

None
00:00:42,159 --> 00:00:48,640
Joop: En Nico, ik vind het ontzettend leuk dat je er bent, want wij kennen elkaar al best wel heel erg lang, oud collega.

None
00:00:49,200 --> 00:00:57,279
Joop: Maar je bent al een paar jaar wat anders aan het doen, maar daar komen we direct vanzelf op, zou je jezelf eerst even willen voorstellen.

None
00:00:58,000 --> 00:01:00,479
Nico: Nico, dus inderdaad, oud collega.

None
00:01:01,680 --> 00:01:06,159
Nico: Ik werk bij een certificerende instelling Noord.

None
00:01:06,159 --> 00:01:11,040
Nico: Voor velen niet helemaal onbekend, best een grote organisatie, ook een internationale organisatie.

None
00:01:11,840 --> 00:01:18,400
Nico: En ik ben een Senior Lead Auditor, met name op het gebied van informatiebeveiliging, privacy.

None
00:01:18,400 --> 00:01:22,000
Nico: En nu vooral ook AI, wat een speerpunt is.

None
00:01:23,199 --> 00:01:31,440
Nico: Wat ik dan voornamelijk doe, is ik kom bij organisaties langs om eigenlijk te toetsen, te auditeren of zij zich houden aan die standaarden.

None
00:01:31,440 --> 00:01:32,879
Nico: Dat zijn dan managementsystemen.

None
00:01:32,879 --> 00:01:36,479
Nico: Dus managementsystemen voor informatiebeveiliging privacy en AI.

None
00:01:36,479 --> 00:01:39,519
Nico: En dat doe ik in beginsel voor Nederland.

None
00:01:41,040 --> 00:01:43,199
Nico: Voor Nederland op de loonlijst.

None
00:01:43,360 --> 00:01:50,799
Nico: Ik ben voor de globale organisatie, internationale organisatie, de TIC Manager zoals dat dan noemen, Testing Inspection en Certification.

None
00:01:50,799 --> 00:01:54,640
Nico: Voor de diensten die vallen onder privacy en AI.

None
00:01:54,879 --> 00:02:02,079
Nico: En daar zijn we nu ook echt privacy, waar voornamelijk nu ook echt AI aan het uitrollen over de rest van de wereld.

None
00:02:02,080 --> 00:02:03,519
Nico: Dat zijn internationale standaarden.

None
00:02:03,520 --> 00:02:07,040
Nico: Dat zijn niet alleen maar Nederlandse zaken en wetgeving.

None
00:02:08,158 --> 00:02:10,239
Niels: Welke standaard hebben we het dan over?

None
00:02:10,639 --> 00:02:14,479
Nico: Informatiebeveiliging is dan ISO 27.001, die bijna iedereen wel kent.

None
00:02:15,440 --> 00:02:16,720
Nico: ISO standaard is dat.

None
00:02:19,200 --> 00:02:23,599
Nico: Voor de privacy is dat de ISO 27.701.

None
00:02:24,239 --> 00:02:28,399
Nico: En als het gaat om AI is het ISO 42.001 en niet 40.000.

None
00:02:32,319 --> 00:02:33,440
Nico: Je vroeg het expliciet.

None
00:02:34,239 --> 00:02:36,639
Joop: Dan weten we ook precies waar we het over hebben.

None
00:02:36,639 --> 00:02:41,039
Joop: Ik ben wel benieuwd van je zegt van wij doen dan audits.

None
00:02:41,680 --> 00:02:44,239
Joop: Wie initieert de audit.

None
00:02:45,840 --> 00:02:46,879
Nico: De klant zelf.

None
00:02:47,120 --> 00:02:48,080
Nico: Die komt op een gegeven moment.

None
00:02:48,400 --> 00:02:51,679
Nico: De klant begint eerst natuurlijk met een eigen strategische keuze.

None
00:02:51,680 --> 00:02:53,840
Nico: Wij willen gecertificeerd raken.

None
00:02:53,840 --> 00:02:57,200
Nico: Of misschien zelfs daarvoor nog, wij willen voldoen aan een standaard.

None
00:02:57,200 --> 00:03:00,079
Nico: De meeste organisaties willen dan ook een certificaat natuurlijk.

None
00:03:00,560 --> 00:03:05,039
Nico: Vaak beginnen ze dan met een andere partij die hen helpt om zo'n managementsysteem te implementeren.

None
00:03:06,800 --> 00:03:10,480
Nico: Heel veel verstand van het implementeren van de tips en tricks.

None
00:03:10,479 --> 00:03:16,479
Nico: En dan echt in dat traject zijn ze ook op zoek naar een partij die hen dan kan certificeren.

None
00:03:16,720 --> 00:03:22,560
Nico: En de meeste organisaties zijn dan zo slim om te kijken van nou, dan worden ook een fatsoenlijke partij hebben die ook geaccrediteerd is.

None
00:03:22,560 --> 00:03:24,959
Nico: Dus waarbij zo'n certificaat ook echt iets zegt.

None
00:03:25,599 --> 00:03:29,679
Nico: Wij zijn dan een partij die heel veel van onze diensten geaccrediteerd aanbieden.

None
00:03:30,000 --> 00:03:32,159
Nico: En dat betekent eigenlijk dat wij ook weer onder toezicht staan.

None
00:03:32,160 --> 00:03:34,080
Nico: Dus wij moeten ons ook weer houden aan de spelregels.

None
00:03:34,080 --> 00:03:38,720
Nico: Dat zijn ook standaarden overigens met betrekking tot hoe we moeten auditeren.

None
00:03:39,039 --> 00:03:45,440
Nico: En dat zijn spelregels over onafhankelijkheid, maar ook hoeveel tijd we besteden en of we voldoende kennis van zaken hebben en dat soort aspecten.

None
00:03:45,440 --> 00:03:47,440
Nico: Maar het initiatief komt bij een klant.

None
00:03:47,440 --> 00:03:53,279
Nico: En dan gaan wij kijken of het een goede match is en of ze klaar zijn of niet.

None
00:03:54,000 --> 00:03:58,000
Nico: Dan op een gegeven moment komen wij langs en dan gaan we daadwerkelijk toetsen of ze klaar zijn.

None
00:03:58,239 --> 00:04:02,959
Nico: Tot daar al, maar zeggen ze dat ze klaar zijn en dan gaan we dat valideren.

None
00:04:03,199 --> 00:04:08,560
Joop: En kan je wat vertellen over de inhoud van de norm die gaat over AI.

None
00:04:09,199 --> 00:04:12,000
Nico: Ik heb net even over jullie vind ik drie genoemd.

None
00:04:12,319 --> 00:04:16,399
Nico: Het kenmerk van al die systemen zit een soort standaardstructuur in.

None
00:04:16,399 --> 00:04:23,920
Nico: Het is een managementsysteem en dat betekent dat al die systemen moeten voor de organisatie zelf beoordeeld kunnen worden als zijnde effectief.

None
00:04:23,919 --> 00:04:25,840
Nico: We willen ergens naartoe, we hebben bepaalde doelen.

None
00:04:26,080 --> 00:04:32,639
Nico: Een beetje een kenmerk wat je in al die managementsystemen ziet, al die managementsystemen moeten we iets doen aan interne auditing.

None
00:04:32,639 --> 00:04:35,440
Nico: Dat zijn allemaal dezelfde componenten die je ziet.

None
00:04:36,080 --> 00:04:40,639
Nico: Informatiebeveiliging gaat dan nadrukkelijker in op informatiebeveiliging risico's.

None
00:04:40,639 --> 00:04:46,480
Nico: Die voor zo'n organisatie dan geanalyseerd worden en gemitigeerd worden, zoals we dat dan zeggen.

None
00:04:46,640 --> 00:04:54,480
Nico: Dan hebben we een annexe, die standaarden, er zitten allemaal security maatregelen in, die dan zo'n organisatie kan implementeren om dan die risico's weer te mitigeren.

None
00:04:54,480 --> 00:04:57,759
Nico: Dus het zijn allemaal risk-based management systemen voor die organisaties.

None
00:04:58,079 --> 00:04:59,199
Nico: Dat moet ze allemaal zelf doen.

None
00:04:59,199 --> 00:05:06,960
Nico: En dan komen wij langs met de toets van hebben ze risico's goed ingeschat en hebben ze goed gekeken naar de maatregelen en past dat ook en werkt dat ook, niet geert dat ook echt.

None
00:05:08,239 --> 00:05:13,279
Nico: Voor privacy gaat het dan veel meer, natuurlijk over wat wij eigenlijk meer kennen in Nederland als AVG.

None
00:05:13,440 --> 00:05:21,839
Nico: Het is een internationale standaard, dus ik wil even benadrukken, het is niet een GDPR of AVG-certificaat, maar dat is de implementatie die we hier nodig hebben in Nederland.

None
00:05:21,840 --> 00:05:23,440
Nico: Dus dan maken we je vertaalslag ook.

None
00:05:23,759 --> 00:05:28,279
Nico: Dan moet je denken aan rechten van mensen van wie gegevens bijgehouden.

None
00:05:27,360 --> 00:05:31,639
Nico: Registraties, formele dingen, maar ook allemaal dat soort aspecten.

None
00:05:31,719 --> 00:05:34,440
Nico: Is er daadwerkelijk consent gegeven en hoe doen jullie dat?

None
00:05:34,600 --> 00:05:37,159
Nico: Er zijn allemaal, er zijn standaarden voor.
75
00:05:38,279 --> 00:05:42,360
Nico: Als ze zeggen dat ze daarvoor, dan moeten ze laten zien dat ze dat ook doen.
 76
00:05:42,600 --> 00:05:46,759
Nico: Dus dat zijn andersoortige maatregelen, controles, die ze een andere stelling kunnen brengen.
 77
00:05:46,839 --> 00:05:49,319
Nico: Het zijn ook andere risico's die zo'n organisatie dan in elkaar moet brengen.
 78
00:05:49,399 --> 00:05:53,399
Nico: Bij informatiebeveiliging ging het vooral over risico's voor hen zelf.
 79
00:05:54,199 --> 00:06:03,000
Nico: Dan beschikbaar de identiteit en vertrouwelijkheid van gegevens daar afbreuk aan worden gedaan, dan levert dat schade op aan het bedrijf, links of rechts liever niet.
 80
00:06:03,000 --> 00:06:06,199
Nico: Gaan ze zich tegen niet.
 81
00:06:06,199 --> 00:06:11,959
Nico: Voor privacy gaat het vooral ook om wat voor risico's hebben voor andere mensen.
 82
00:06:12,199 --> 00:06:18,199
Nico: De privacy van andere mensen moet je andermans privacy eigenlijk een beetje andermans belangen moet je eigenlijk een beetje voor opkomen.
 83
00:06:18,599 --> 00:06:24,680
Nico: En dat is zeker makkelijker gezegd dan gedaan, want ja, dan kan het wel eens een keertje een beetje frictie hebben met de belang van zo'n organisatie.
 84
00:06:24,680 --> 00:06:29,799
Nico: Als we nou de stap maken naar AI, dan is die nog leuker, althans dat vind ik.
 85
00:06:29,800 --> 00:06:43,159
Nico: Omdat je dan nog veel verder moet kijken, je moet niet alleen kijken van nou, wat vervolgen heeft de verwerking van de gegevens die ik heb voor die mensen van wie die geest werken, maar wat zijn nou eigenlijk de gevolgen voor mensen en de maatschappij of de maatschappijen.
 86
00:06:43,160 --> 00:06:50,520
Nico: En dan wordt het voor velen, zeker als je vanuit de IT komt, en dit is nog steeds een IT-standard, wordt al bijna een beetje vagen, een beetje filosofisch.
 87
00:06:50,519 --> 00:06:56,839
Nico: En dat vind ik nou juist het hele mooie hier aan dat hebben we nodig, moeten dat je juist combineren al die disciplines.
 88
00:06:57,079 --> 00:07:02,679
Nico: Maar dan kom je ook al heel snel uit op dingen als Trustworthy AI en dat zijn allemaal hele leuke dingen.
 89
00:07:02,680 --> 00:07:04,360
Nico: Maar wat betekent dat nou eigenlijk?
 90
00:07:04,360 --> 00:07:10,680
Nico: Nou ja, als we dat jou zouden vragen, wat betekent dat de vraag het antwoord?
 91
00:07:13,719 --> 00:07:21,879
Nico: Wat ik nog even wil zeggen, is dat ik heb een IT-achtergrond, dus er borrelt bij mij altijd iets innovatiefs.
 92
00:07:22,360 --> 00:07:27,719
Nico: Ik heb me altijd zorgen gemaakt over de impact die dat heeft en dan bedoel ik met name op mensen en maatschappij.
 93
00:07:27,719 --> 00:07:30,039
Nico: Dus dit is helemaal in mijn straatje.
 94
00:07:31,639 --> 00:07:35,159
Nico: Maar ik heb ook altijd gezegd, pas op, toen merkte ik nog hier.
 95
00:07:35,479 --> 00:07:40,199
Nico: Ik vind het wel heel interessant, ik krijg alles in mijn kant op, maar ik ben geen jurist, weet je niet of je dat nog kunt herinneren.
 96
00:07:41,160 --> 00:07:42,759
Nico: Ik vond het wel interessant altijd.
 97
00:07:43,319 --> 00:07:48,759
Nico: Inmiddels ben ik daadwerkelijk ook een jurist, ik heb net een master follow-up gedaan, want dat zit er wel in, natuurlijk.
 98
00:07:49,079 --> 00:07:53,159
Nico: En dit is de vraag die jij nu eigenlijk stelt, is eigenlijk de vraag die ik in mijn onderzoek heb gesteld.
 99
00:07:54,759 --> 00:07:59,560
Nico: Hoe verhoudt 42001 deze standaard zich tot de AI kan gebruikt worden?
 100
00:07:59,560 --> 00:08:01,639
Nico: En in welke mate ondersteunen de Trustworthy AI.
 101
00:08:01,640 --> 00:08:05,159
Nico: En dan kom je heel snel op de vraag van wat is nou eigenlijk Trustworthy AI.
 102
00:08:05,319 --> 00:08:07,079
Nico: Daar heb je heel veel verschillende antwoorden op mogelijk.
 103
00:08:07,399 --> 00:08:11,079
Nico: Er zijn verschillende frameworks aan Trustworthy AI.
 104
00:08:11,160 --> 00:08:12,759
Nico: We noemen het wel allemaal.
 105
00:08:12,759 --> 00:08:14,519
Nico: En het klinkt ook heel goed.
 106
00:08:15,000 --> 00:08:17,160
Nico: Maar hoe ga je het dan doen?
 107
00:08:17,480 --> 00:08:22,440
Nico: Even terugbrengen naar deze standaard, zegt eigenlijk de standaard bepaal het lekker zelf.
 108
00:08:23,000 --> 00:08:27,479
Nico: Min of meer let wel, hou wel even rekening met deze en deze punten.
 109
00:08:27,560 --> 00:08:31,559
Nico: Dit is wat wij denken dat wij in ieder geval aan moeten denken als het gaat om Trustworthy AI.
 110
00:08:31,560 --> 00:08:36,759
Nico: Dan komen dingen als fairness weer voorbij en ook privacy weer explainability.
 111
00:08:37,078 --> 00:08:39,958
Nico: Dingen die we vaak horen in de context van Trustworthy AI.
 112
00:08:39,958 --> 00:08:43,240
Nico: Maar als je verschillende modellen naast elkaar houdt, dan zijn die termen niet helemaal hetzelfde.
 113
00:08:43,239 --> 00:08:48,039
Nico: Sommigen lijken een beetje synoniemen voor elkaar of overlappen elkaar een beetje in de definities.
 114
00:08:49,639 --> 00:08:56,679
Nico: Het mooie aan zo'n managementsysteem is wel dat zo'n organisatie moet het ook echt implementeren voor hen, voor hun context.
 115
00:08:57,560 --> 00:09:04,440
Nico: Heel simpel, als we kijken naar privacy, wat een van de aspecten is van Trustworthy AI, dat is een belangrijk aspect, maar wel alleen maar als je da werken.
 116
00:09:04,519 --> 00:09:05,480
Nico: persoonsgegevens verwerkt.
 117
00:09:05,479 --> 00:09:08,599
Nico: Dus dat niet voor ieder AI-systeem is dat ook echt van belang.
 118
00:09:08,760 --> 00:09:14,280
Nico: Zo kun je het heel nadrukkelijk tunen op je eigen belangen en risico's, maar vooral ook je eigen context.
 119
00:09:14,519 --> 00:09:16,120
Joop Snijder: Soms moet je natuurlijk ook keuzes maken.
 120
00:09:16,119 --> 00:09:18,760
Joop Snijder: En ik kan wel zeggen van ja, fairness is belangrijk.
 121
00:09:18,760 --> 00:09:23,239
Joop Snijder: Maar hoe bepaal je die en wat is fair in jouw context?
 122
00:09:23,239 --> 00:09:25,160
Nico: Ja, eigenlijk is dat het meest belangrijk.
 123
00:09:25,400 --> 00:09:32,440
Nico: Als organisatie die vraag zelf stelt, dan moet je al weten wat bias betekenen, wat fairness betekent, en wat wel en niet acceptabel is.
 124
00:09:32,440 --> 00:09:34,280
Nico: En dat betekent dat je dingen gaat afwegen.
 125
00:09:34,280 --> 00:09:37,800
Nico: En dat is het meest essentiële van het managementsysteem, dat je over dingen nadenken.
 126
00:09:37,800 --> 00:09:42,120
Nico: Dat je die documenteert en daadwerkelijk die keuzes maakt, die je altijd dan kunt beargumenteren.
 127
00:09:42,120 --> 00:09:44,759
Nico: Of daarvan altijd kunnen zeggen van deze risico's heb ik genomen.
 128
00:09:44,759 --> 00:09:48,680
Nico: En dan mag altijd die man iets van vinden en daar vind je een order soms ook iets van.
 129
00:09:48,680 --> 00:09:50,200
Nico: Maar dan krijg je dat gesprek.
 130
00:09:50,360 --> 00:09:57,400
Nico: Soms kom je op een punt uit waarbij ik kom heel vaak op punt uit waar ik me erg zorgen over maken en dan stel ik die vraag en is die organisatie al lang over nagedacht.
 131
00:09:57,400 --> 00:10:01,719
Nico: En dan word ik heel erg gerust gesteld in, ze hebben het voor elkaar, ze begrijpen het.
 132
00:10:01,719 --> 00:10:03,240
Nico: En ze hebben daar hun keuze in gemaakt.
 133
00:10:03,239 --> 00:10:04,920
Nico: En dat hoeft ook niet mijn keuze te zijn.
 134
00:10:04,920 --> 00:10:06,920
Nico: Zij moeten de keuzes maken.
 135
00:10:07,280 --> 00:10:11,680
Niels Naglé: Het is misschien een te diepgaande vraag, maar geeft het vooral aan als niet zo is.
 136
00:10:11,079 --> 00:10:15,600
Niels Naglé: Wat ik dan aan denk, is van er zijn heel erg situatieafhankelijk.
 137
00:10:11,400 --> 00:10:17,759
Niels Naglé: Dus je bent een bepaalde AI-implementatie aan het doen.
138
00:10:17,920 --> 00:10:19,760
Niels: En zo altijd doe je voor de hele organisatie.

139
00:10:19,760 --> 00:10:24,079
Niels: Maar soms heb je dus een use case die misschien net wat anders is dan de andere standaard.

140
00:10:24,959 --> 00:10:26,720
Niels: Hoe hou je daar rekening mee in een audit?

141
00:10:26,719 --> 00:10:30,160
Niels: Of is dat het hele systeem die dan geaudit wordt?

142
00:10:30,640 --> 00:10:35,200
Nico: Ik denk dat ik je vraag begrijp, maar dat kun jij beoordelen als ik de antwoord geef.

143
00:10:35,999 --> 00:10:42,560
Nico: Wij beoordelen, wij auditeren en certificeren het managementsysteem van die organisatie.

144
00:10:42,880 --> 00:10:53,119
Nico: En ze hebben zelf behoorlijk wat ruimte om de scope te bepalen, zowel van de organisatie of de organisatieonderdeel als ook de scope van het managementsysteem.

145
00:10:53,119 --> 00:10:54,800
Nico: Maar zo'n managementsysteem.

146
00:10:54,800 --> 00:10:58,640
Nico: Dus een overall governance framework eigenlijk van zo'n organisatie.

147
00:10:58,640 --> 00:11:03,119
Nico: En als het gaat om ISO 24001, vallen daar binnen één of meerdere AI-systemen.

148
00:11:03,119 --> 00:11:04,560
Nico: Dat kunnen er meerdere zijn.

149
00:11:04,560 --> 00:11:10,640
Nico: Soms is het er maar één, of is het één hele complexe, of bestaat die uit verschillende soorten of componenten van AI.

150
00:11:10,959 --> 00:11:12,319
Nico: Dus dat kan heel erg verschillen.

151
00:11:12,319 --> 00:11:17,680
Nico: Dat zijn de verschillende use cases voor die organisatie, maar dat kunnen de verschillen zijn binnen een organisatie.

152
00:11:17,680 --> 00:11:21,920
Nico: En sommigen kunnen al in productie leven, sommigen worden nog ontwikkeld.

153
00:11:21,920 --> 00:11:26,400
Nico: Soms vervangt de een de ander, of komt er naast te staan, of heeft zo'n organisatie.

154
00:11:26,400 --> 00:11:31,600
Nico: En ik heb een heel fantastisch idee en zijn dolenthousiast bezig met iets nieuws.

155
00:11:31,680 --> 00:11:36,319
Nico: Dus dat kan een enorme variatie zijn van verschillende AI-systemen.

156
00:11:36,319 --> 00:11:40,880
Nico: En wij kijken dan naar van welke AI-systemen zit er in welke fase, in welke levenscyclus.

157
00:11:41,120 --> 00:11:45,440
Nico: Wat hoort ten opzichte van het commitment bij die fase.

158
00:11:45,760 --> 00:11:47,360
Nico: Wat zit er in de pijplijn?

159
00:11:47,999 --> 00:11:49,760
Nico: Hoe bepaal je een pijplijn?

160
00:11:50,239 --> 00:11:54,639
Nico: Sommige systemen die komen gaan de pipeline in, maar die komen niet eens in de buurt van het productie.

161
00:11:54,959 --> 00:11:58,959
Nico: Om hele goede redenen ze juist weer afvallen, maar daar zijn we niet geïnteresseerd.

162
00:11:58,959 --> 00:12:02,640
Nico: Welke criteria hanteer je om door te gaan of juist de stekker eruit te trekken.

163
00:12:02,640 --> 00:12:06,079
Nico: En dat is eigenlijk het managen van AI.

164
00:12:06,079 --> 00:12:08,079
Nico: En dus hoort dat bij het managementsysteem.

165
00:12:08,880 --> 00:12:12,800
Joop Snijder: Ik heb nog wel een persoonlijke vraag, want je zegt, je komt uit IT.

166
00:12:12,800 --> 00:12:15,920
Joop Snijder: Dus volgens mij ook als ontwikkelaar begonnen.

167
00:12:17,040 --> 00:12:24,079
Joop Snijder: Wat heeft die passie, zeg maar voor privacy en dit soort zaken?

168
00:12:24,560 --> 00:12:26,319
Joop Snijder: Waar komt dat vandaan?

169
00:12:27,759 --> 00:12:33,120
Joop Snijder: Ik ken je als iemand die daar heel gepassioneerd over is, wat trek je er zo in aan?

170
00:12:33,120 --> 00:12:36,079
Nico: Ja ik denk een beetje combinatie van factoren allemaal.

171
00:12:36,719 --> 00:12:45,040
Nico: Ik ben wel altijd in IT geweest en ik heb ook echt daadwerkelijk code geschreven, maar ik heb me nooit echt die nerd gevoeld en dat bedoel ik nerd in de meest positieve zin van het woord.

172
00:12:45,680 --> 00:12:50,800
Nico: En ik heb altijd heel veel bewondering gehad naar heel veel nerds die ik wel tegenkwam.

173
00:12:51,520 --> 00:13:00,160
Nico: Ik heb in verschillende hoedanigheden daarmee samengewerkt en later als projectleider meer leiding gegeven waar ik zo moet.

174
00:13:01,920 --> 00:13:05,839
Nico: Ik heb me altijd meer betrokken gevoeld bij mensen.

175
00:13:06,160 --> 00:13:12,319
Nico: Bijvoorbeeld in mijn rol als projectleider vond ik die uitdaging eigenlijk al veel sneller groter dan de technische uitdagingen.

176
00:13:13,199 --> 00:13:16,240
Nico: Voel ik nu veel fijner bij als die dingen wist op te lossen.

177
00:13:16,239 --> 00:13:18,560
Nico: En ik ben altijd heel maatschappelijk betrokken geweest.

178
00:13:18,560 --> 00:13:31,520
Nico: En ik kwam op een gegeven moment wel eens in situaties terecht waarin ik zelf vond niet zozeer hier, maar wij als IT-sector, zeg maar eigenlijk veel te veel bezig waren met hele coole slimme dingen verzinnen.

179
00:13:31,839 --> 00:13:35,520
Nico: Die de klant het prima vond en waar de rekening van werd betaald.

180
00:13:35,599 --> 00:13:37,440
Nico: En daar was iedereen eigenlijk al tevreden.

181
00:13:37,440 --> 00:13:48,719
Nico: Terwijl de impact die we maakten lang niet altijd goed was, en die zag je heel vaak terugkomen in de maatschappij waar we enorme impact hadden, er zijn hier compleet governance van gevallen hier, we hebben nieuwe verkiezingen gehad, zelfs om dat soort dingen.

182
00:13:48,719 --> 00:13:53,760
Nico: Je ziet heel veel dingen toch echt misgaan, omdat er bepaalde perspectieven niet worden meegenomen.

183
00:13:53,760 --> 00:14:01,760
Nico: En dat zijn vooral die perspectieven waarin het gaat om de risico's voor iemand anders dan de organisatie of voor het belang van iets anders dan het belang van hun organisatie.

184
00:14:01,759 --> 00:14:04,720
Nico: Wat toch in veel gevallen winst is.

185
00:14:05,120 --> 00:14:09,920
Nico: En ik vond dat wij als IT echt daar te weinig aandacht voor hadden voor die impact.

186
00:14:11,759 --> 00:14:12,880
Joop Snijder: Het is niet alleen maar winst.

187
00:14:13,040 --> 00:14:17,440
Joop Snijder: Want er zijn natuurlijk ook hele duidelijke gevallen vanuit de overheid waar gedacht werd.

188
00:14:18,560 --> 00:14:21,200
Joop Snijder: En dan gaat het misschien over efficiëntie of dat soort zaken.

189
00:14:21,199 --> 00:14:22,240
Joop Snijder: En is dat misschien je winst.

190
00:14:23,120 --> 00:14:25,839
Joop Snijder: Maar het gaat niet altijd maar om geldelijke.

191
00:14:26,239 --> 00:14:33,680
Nico: Het punt dat ik helemaal gelijk, maar ze gaan even en we gaan nog wel eens voorbij aan het feit dat er allemaal mensen achter zit en dat we mensen raken.

192
00:14:33,680 --> 00:14:37,920
Nico: En daarmee gezinnen en maatschappijen en culturen.

193
00:14:39,360 --> 00:14:41,199
Nico: Dat heeft mij altijd heel erg getrokken.

194
00:14:41,520 --> 00:14:44,719
Nico: Ik geloof er nou juist in dat die twee samen zou moeten komen.

195
00:14:45,040 --> 00:14:49,680
Nico: IT moet de mensheid ondersteunen, niet alleen maar een bedrijf of een Belastingdienst.

196
00:14:52,160 --> 00:14:54,880
Nico: Daar komt het een beetje vandaan, denk ik, dat men dat heel erg heeft getrokken.

197
00:14:54,880 --> 00:14:58,599
Nico: En ik heb daarvoor de ruimte gekregen en gepakt die er toen was.

198
00:14:57,280 --> 00:15:01,719
Nico: Dus toen ben ik langzaamaan die kant steeds meer op geschoven.

199
00:15:01,959 --> 00:15:05,560
Niels Naglé: En toen ben je de juridische kant op gaan, en heb je dat gecombineerd?

200
00:15:05,560 --> 00:15:12,440
Niels Naglé: Wat heeft je het meest verrast van wat je geleerd hebt van de juridische kant, die je graag al had willen weten toen je nog in de techniek zat.

201
00:15:16,760 --> 00:15:30,119
Nico: Wat mij als eerste te binnenschiet, is het meest juridische dat ik heb gedaan nog onder de noemen van ik ben een IT-er eigenlijk, is die als data protection officer.

202
00:15:30,999 --> 00:15:32,920
Nico: De functionaris voor de bescherming.
203
00:15:32,920 --> 00:15:40,839
Nico: Onafhankelijke positie in organisatie, nou gaat over een organisatie houdt aan privacy wet en regelgeving en daar advies over geeft ook echt bij betrokken moet worden.

204
00:15:41,079 --> 00:15:46,599
Nico: Daar heb je eigenlijk twee soorten, of het is iemand die komt uit IT, of het is een jurist.

205
00:15:46,920 --> 00:15:49,400
Nico: De meeste van de juristen hadden toch wel wat moeite met die techniek.

206
00:15:49,400 --> 00:15:53,639
Nico: En de meeste die uit IT komen, heel weinig of te weinig met dat juridische gedeelte.

207
00:15:53,640 --> 00:15:55,079
Nico: Dat is dan vaak het geval.

208
00:15:55,079 --> 00:15:58,599
Nico: En ik was vaak degene, ik vond het fijn om die juist te combineren.

209
00:15:58,599 --> 00:16:03,640
Nico: Wel, vaak met opmerking, pas op, ik ben geen jurist, maar ik had er wel degelijk af en toe mee te maken.

210
00:16:03,640 --> 00:16:06,440
Nico: Maar ik kreeg heel snel, terwijl ik uit IT was toch door.

211
00:16:06,760 --> 00:16:09,160
Nico: Jij bent degene die met juridisch gedeelte komt.

212
00:16:09,560 --> 00:16:11,720
Nico: Dat vond ik altijd wel, ik vond het interessante speelveld.

213
00:16:11,719 --> 00:16:16,760
Nico: En ik heb met veel mensen ook samengewerkt, sommigen wat meer dan anderen, sommigen zagen daar wat meer nut van in.

214
00:16:17,239 --> 00:16:28,360
Nico: Maar ik vond het vooral interessant om te zien dat je in zo'n rol heel makkelijk een ander perspectief kunnen bieden, waar simpelweg nooit eens over nagedacht en alleen maar door dat ter sprake te brengen, gaan de lampjes aan.

215
00:16:29,079 --> 00:16:33,960
Nico: We kunnen heel veel dingen ook oplossen op een niet technische manier.

216
00:16:33,959 --> 00:16:40,120
Nico: En dat is voor heel veel mensen, als het heel erg beperkt is in zo'n team of in zo'n ontwikkelteam.

217
00:16:40,120 --> 00:16:45,479
Nico: Als het heel beperkt is door IT's, dan vinden we proberen we ook alleen maar zien we eigenlijk alleen maar de oplossing.

218
00:16:45,479 --> 00:16:47,640
Nico: Natuurlijk kunnen die daar ook in te vinden, zijn maar lang niet altijd.

219
00:16:47,640 --> 00:16:52,040
Nico: En soms is een heel ander perspectief, veel makkelijker, sneller en goedkoper.

220
00:16:52,040 --> 00:16:53,800
Nico: En dat vond ik wel heel leuk.

221
00:16:53,800 --> 00:17:02,280
Nico: En dat bracht mij ook tot het besef, dat kun je een juridisch perspectief inbrengen, maar ik heb ook al heel lang gezegd in die IT, je hebt niet alleen maar iets juridisch.

222
00:17:02,519 --> 00:17:04,760
Nico: Je hebt ook iets van filosofen nodig.

223
00:17:04,759 --> 00:17:08,599
Nico: Dat klonk allemaal heel erg raar, maar nu hebben we het over ethiek en over trustworthiness.

224
00:17:08,598 --> 00:17:11,640
Nico: En nu krijgt dat wat tractie.

225
00:17:11,800 --> 00:17:12,839
Joop Snijder: Zeker zeker.

226
00:17:12,999 --> 00:17:20,040
Joop Snijder: Je wil niet weten hoeveel mensen we in de podcast hebben gehad die filosofie hebben gestudeerd en nu in de AI terecht zijn gekomen.

227
00:17:20,839 --> 00:17:21,959
Nico: Dat begrijp ik.

228
00:17:23,880 --> 00:17:35,719
Joop Snijder: Hoe helpt nou de AI Act, de norm, bedrijven om te innoveren binnen dit vlak?

229
00:17:40,680 --> 00:17:43,640
Nico: Interessante vraag om even voor na te denken hoe ik dit ga beantwoorden.

230
00:17:43,959 --> 00:17:57,160
Nico: Ik denk in eerste instantie dat de AI Act geeft een richting aan developers of gebruikers van AI-systemen.

231
00:17:57,160 --> 00:18:05,319
Nico: Win als het ware een soort, dat vind ik zelf en dan pak ik gelijk toch even weer dat wat meer filosofische ethische deel.

232
00:18:06,279 --> 00:18:08,920
Nico: Waarin ook heel duidelijk wordt gezegd van dit willen we hier niet.

233
00:18:08,920 --> 00:18:19,160
Nico: Als je kijkt naar de basis is een soort risk category systeem, waarin het heel breed is, we beginnen heel breed in AI Act.

234
00:18:19,479 --> 00:18:21,479
Nico: En we beginnen met de unacceptable risks.

235
00:18:21,640 --> 00:18:23,400
Nico: En die vind ik heel erg interessant.

236
00:18:23,640 --> 00:18:26,279
Nico: Want wat vinden we nou wel of niet eigenlijk nog kunnen.

237
00:18:26,279 --> 00:18:34,199
Nico: En dat is toch wel een beetje een ethische vraag eigenlijk, terwijl dat nu een beetje lijkt vastgelegd in een wet, dat is een beetje gek.

238
00:18:36,440 --> 00:18:39,559
Nico: En het ethische, dat is niet hetzelfde.

239
00:18:40,120 --> 00:18:47,319
Nico: Maar nu lijkt toch een stukje ethiek te zijn, vastgelegd in een stukje wetgeving, en dat ben ik heel blij mee.

240
00:18:49,080 --> 00:18:51,959
Nico: Ik vind het ook heel goed dat wij in dit geval als dan Europa.

241
00:18:51,959 --> 00:18:56,519
Nico: Natuurlijk zeggen van nou, tot hier en niet verder, dit is de grens, dit is wat wij onze waarde vinden.

242
00:18:56,519 --> 00:18:59,399
Nico: En ik hou echt van dat we vanuit waarde denken.

243
00:18:59,719 --> 00:19:08,039
Nico: Dus ik denk dat daarmee Europa, maar ook organisaties die binnen Europa systemen op de markt willen zetten of daar willen houden.

244
00:19:08,039 --> 00:19:14,839
Nico: Daarmee geholpen worden van daar is een rode lijn, ik weet niet of je dat nu vandaag de dag kan zeggen.

245
00:19:15,640 --> 00:19:17,560
Nico: Dus dat vind ik heel erg goed.

246
00:19:17,880 --> 00:19:22,199
Nico: Het brengt ook heel veel andere hele leuke vragen in stelling.

247
00:19:22,199 --> 00:19:23,880
Nico: Vooral als je internationaal opereert.

248
00:19:24,120 --> 00:19:25,479
Nico: Dat doen wij.

249
00:19:25,640 --> 00:19:30,040
Nico: Dat zijn dan de Europese waarden als het gaat om in ieder geval AI.

250
00:19:30,279 --> 00:19:32,280
Nico: Maar we hebben het over een internationale standaard.

251
00:19:32,280 --> 00:19:33,879
Nico: En hoe verhoudt je dat nou?

252
00:19:34,519 --> 00:19:36,240
Joop Snijder: Waar komt het dan de meeste wrijving?

253
00:19:36,239 --> 00:19:37,239
Joop Snijder: Waar ontstaat die?

254
00:19:37,959 --> 00:19:42,799
Nico: Het is niet alleen maar wrijving, het is ook dat we voor het eerst na gaan denken over dingen.

255
00:19:42,199 --> 00:19:45,920
Nico: Niet per definitie wrijving te zijn, maar dan ga je er eens over nadenken.

256
00:19:42,280 --> 00:19:47,440
Nico: En dan denk je, oké, daar moet je iets van vinden.

257
00:19:47,519 --> 00:19:49,759
Nico: Maar wie moet wie kan daar iets van vinden eigenlijk?

258
00:19:49,920 --> 00:19:52,160
Nico: Dat vind ik hele leuke vraagstuk.

259
00:19:52,799 --> 00:19:56,799
Nico: Ik vind dat daarmee worden organisaties ook geholpen.

260
00:19:56,799 --> 00:19:58,079
Nico: Dat is de vraag worden gesteld.

261
00:19:58,320 --> 00:20:01,519
Nico: Nu neem nou even deze vind ik zelf heel erg leuk.

262
00:20:03,920 --> 00:20:06,719
Nico: Dan schieten nu iets anders binnen dat ik heel even moet vertellen.

263
00:20:06,719 --> 00:20:17,680
Nico: De reden waarom je dit doen, zo gepassioneerd over ben, ik wil heel naïef klinken hoor, maar ik ben intrinsiek gemotiveerd om de wereld een klein beetje beter te maken als ik mezelf hoor denken van nou, dat is naïef, maar dat is eigenlijk wel zo.

264
00:20:18,799 --> 00:20:20,480
Nico: Dan is het werk een heel stuk leuker.

265
00:20:21,199 --> 00:20:25,279
Nico: En dat kan het doen door bedrijven en net iets privacy vriendelijker te maken of net iets veiliger te maken.

266
00:20:25,600 --> 00:20:27,840
Nico: Nu met AI komen dit soort vraagstuk ook.

267
00:20:27,840 --> 00:20:38,640
Nico: En ik denk van als wij nou binnen Europa hebben vastgesteld dat wij bepaalde AI-systemen echt gewoon niet vinden kunnen, dan zijn het onze waarden, oké, prima, dan doen we dat hier niet, want het mag ook niet.
268
00:20:39,600 --> 00:20:46,639
Nico: Maar wat nu als wij het social credit system van China zouden gaan auditeren, dan kijken naar de standaard zelf.

269
00:20:46,880 --> 00:20:48,959
Nico: De standaard zeg niet dat dat niet kan.

270
00:20:49,440 --> 00:20:51,360
Nico: Want het is een internationale standaard.

271
00:20:51,680 --> 00:20:55,599
Nico: Als je dat binnen Europa, dan kan dat niet, want daar is wetgeving voor.

272
00:20:55,999 --> 00:20:59,039
Nico: In China, daar is de AI echt niet van toepassing.

273
00:20:59,279 --> 00:21:03,599
Nico: Dus daar is het strik genomen volgens de wetgeving niet verboden.

274
00:21:04,239 --> 00:21:05,999
Nico: Ze hebben daar een ander waardensysteem.

275
00:21:06,320 --> 00:21:09,920
Nico: En daar wil ik geen oordeel vellen, maar we weten wel iets over ons waardensysteem.

276
00:21:09,920 --> 00:21:11,359
Nico: En wij zijn toch echt Europees.

277
00:21:11,360 --> 00:21:13,840
Nico: Dus wij gaan met ons koffertje naar China toe.

278
00:21:13,840 --> 00:21:16,479
Nico: En dan denk ik van, maar dan gaan wij toch ook met onze waarden.

279
00:21:16,559 --> 00:21:23,279
Nico: Wij denken toch niet in één keer anders over mensen, omdat dat ander type mensen zijn of een andere achtergrond hebben of ergens anders wonen.

280
00:21:25,120 --> 00:21:27,279
Nico: Daar is dan eigenlijk niet zo erg over nagedacht.

281
00:21:27,279 --> 00:21:37,839
Nico: En ik vind dat we daar nu al over na moeten denken, omdat daar wordt nu al aan de deur geklopt van, vooral ook buiten Europa, wij willen ook gecertificeerd raken, wij gaan ook die kant op.

282
00:21:37,999 --> 00:21:42,959
Joop Snijder: En we hebben ook natuurlijk de druk andersom, dat er vanuit Amerika wordt gezegd.

283
00:21:43,039 --> 00:21:47,359
Joop Snijder: Ja, leuk dat jullie bepaalde waarden hebben, maar onze techbedrijven.

284
00:21:47,920 --> 00:21:48,879
Joop Snijder: Wij vinden dat niet.

285
00:21:48,880 --> 00:21:51,039
Joop Snijder: Dus Europa, jullie moeten niet zeuren.

286
00:21:52,080 --> 00:21:54,160
Joop Snijder: Ja, gaan we aan de kant met die waarden.

287
00:21:54,959 --> 00:21:56,320
Nico: En dan gaat het onder druk zijn.

288
00:21:56,320 --> 00:21:58,399
Nico: En dan kom je erachter van wat zijn nou echt waarden.

289
00:21:58,880 --> 00:22:02,320
Nico: Dat vind ik het leuk, wanneer ga je nou echt ergens een keertje voor staan?

290
00:22:02,320 --> 00:22:07,360
Nico: En is het dan een commerciële waarde of kunnen allerlei verschillende waarden zijn?

291
00:22:07,360 --> 00:22:08,640
Nico: Ja, wat prevaleert nou?

292
00:22:08,640 --> 00:22:10,079
Nico: Dat vind ik hele interessante vraag.

293
00:22:10,079 --> 00:22:15,279
Nico: En even los van het antwoord erop, en iedereen mag voor zichzelf ook een opinie hebben.

294
00:22:15,279 --> 00:22:17,520
Nico: En dan komen we heel snel bij integriteit uit, denk ik.

295
00:22:17,999 --> 00:22:25,279
Nico: Ik vind het vooral belang van belang dat we daar van tevoren over nadenken, niet achteraf tot de conclusie kan van zit, dat we dat nou niet even wat eerder te tafel hadden hadden.

296
00:22:25,360 --> 00:22:27,279
Nico: Nu zitten we in dit verder.

297
00:22:27,599 --> 00:22:35,680
Nico: Dus ik denk dat zo een AI, ik moet ook een standaard, organisatie ook echt helpt om na te denken en keuzes te maken.

298
00:22:35,999 --> 00:22:42,239
Joop Snijder: Maar dan nog, want dan hebben we dus de wet, hebben we de standaard waar je iets tegenaan kan houden.

299
00:22:42,239 --> 00:22:47,120
Joop Snijder: Ik ben eigenlijk wel juist benieuwd van hoe gaat dit innovatie helpen?

300
00:22:47,440 --> 00:22:59,119
Joop Snijder: Want waarom ik dit vragen, is dat ik namelijk zelf geloof dat kaders, je helpen om creatief te denken.

301
00:22:59,440 --> 00:23:06,239
Joop Snijder: Er wordt heel vaak gezegd, dus regels beperken je, maar ik denk dat beperkingen helpen bij creativiteit.

302
00:23:06,559 --> 00:23:09,440
Joop Snijder: De insteek is een positieve insteek als vraag.

303
00:23:09,680 --> 00:23:17,600
Joop Snijder: Hoe gaat nou eigenlijk de wet zo'n zo'n nomering en het orde van de nomering?

304
00:23:17,759 --> 00:23:21,759
Joop Snijder: Je helpen als bedrijf om je innovaties verder te brengen.

305
00:23:23,920 --> 00:23:24,880
Nico: Stiekem vraag is in.

306
00:23:27,519 --> 00:23:32,719
Nico: Laat ik even als eerste reageren op jouw positieve noten, want die zie ik ook.

307
00:23:32,959 --> 00:23:36,080
Nico: En die zit ook in de wetgeving, die zit ook in de standaard.

308
00:23:36,400 --> 00:23:40,320
Nico: Het gaat er niet om dat AI een enorme bedreiging is.

309
00:23:40,559 --> 00:23:43,919
Nico: Het gaat er ook niet om dat het een enorme innovatieve kracht is, het heeft beide.

310
00:23:43,920 --> 00:23:46,079
Nico: En daar moeten we beide naar kijken.

311
00:23:46,239 --> 00:23:50,319
Nico: Ik heb snel dan eigenlijk om te zeggen van over het vergelijking trekken met een baksteen.

312
00:23:50,320 --> 00:23:55,279
Nico: En een baksteen kun je hele mooie huizen bouwen, ook je hele coole dingen mee bouwen, maar je kunnen hem ook gebruik om iemand een kop mee in te slaan.

313
00:23:55,279 --> 00:23:57,440
Nico: En dat mag je die baksteen niet kwalijk nemen.

314
00:23:57,680 --> 00:24:01,119
Nico: Maar hoe zet je nou, hoe gebruik je nou zo'n baksteen op een verantwoordelijke manier?

315
00:24:01,280 --> 00:24:03,199
Nico: Eigenlijk is dat waar het hier over gaat.

316
00:24:03,519 --> 00:24:07,199
Nico: Hoe zetten we nu AI op een verantwoorde manier in.

317
00:24:07,519 --> 00:24:13,120
Nico: Als het gaat om, we hebben het al vaak nu over Responsible AI.

318
00:24:13,360 --> 00:24:15,239
Nico: Dan zie je dat terug in de wetgeving.

319
00:24:15,239 --> 00:24:17,040
Nico: Wat vinden we wel en niet verantwoordelijk.

320
00:24:17,039 --> 00:24:18,239
Nico: Daar is over nagedacht.

321
00:24:18,239 --> 00:24:20,160
Nico: Er zijn keuzes over gemaakt.

322
00:24:20,160 --> 00:24:21,039
Nico: Dit vinden wij.

323
00:24:21,039 --> 00:24:23,120
Nico: En dus moet je daaraan voldoen.

324
00:24:23,120 --> 00:24:27,119
Nico: En dat helpt organisaties om op die manier invloed te geven in hun verantwoordelijkheid.

325
00:24:27,199 --> 00:24:37,719
Nico: Je kunt niet alleen maar iets iets cools technologisch innoveren dat functioneel werkt of waar klanten misschien te vereniging zijn, maar wat compleet onverantwoord is.

326
00:24:38,199 --> 00:24:42,119
Nico: Althans vinden wij, en daar ben ik het wel mee eens.

327
00:24:44,120 --> 00:24:47,239
Nico: Datzelfde geldt voor een standaard.

328
00:24:48,759 --> 00:24:58,519
Nico: Het hele idee is dat we moeten zorgen dat die kaders ook inderdaad een richting geven waarbinnen we die innovatie kunnen doen en die innovatie hebben we heel erg nodig.

329
00:24:58,920 --> 00:25:03,319
Nico: Ik vind het heerlijk als ik als auditor bij bedrijven komen en zie hoe zij AI toepassen.

330
00:25:04,360 --> 00:25:05,639
Nico: Dat is waar het voor nodig is.

331
00:25:05,640 --> 00:25:09,400
Nico: Dat is wat onze maatschappij ook echt helpt, een hele verantwoorde manier door.

332
00:25:09,719 --> 00:25:16,119
Nico: Ik zie het nu vooral ook in het zorg heel veel hele interessante toepassingen waar mensen echt beter voor worden kwaliteit van leven verbeterd wordt.

333
00:25:16,920 --> 00:25:22,120
Nico: Hele grote problemen als personeelstekort in de zorg kunnen worden opgelost.

334
00:25:22,120 --> 00:25:23,959
Nico: Ik zie dat nu ook echt gebeuren.

335
00:25:23,959 --> 00:25:27,320
Nico: Ik werk zij not ook nog als ethic expert bij de Europese Commissie.

336
00:25:27,320 --> 00:25:30,920
Nico: Dat is een soort soort voorbode van waar allemaal in wordt geïnvesteerd.

337
00:25:30,999 --> 00:25:33,239
Nico: Vind je heel interessant om te zien wat ze daarom doen zijn.

338
00:25:33,239 --> 00:25:34,279
Nico: Daar word ik echt vrolijk van.

339
00:25:34,279 --> 00:25:36,759
Nico: En dan gaat mijn IT-haar natuurlijk ook een beetje.

340
00:25:36,759 --> 00:25:39,400
Nico: Dat is waarom we ook heel erg blij moeten zijn met de AI.

341
00:25:39,400 --> 00:25:40,520
Nico: Het gaat ons ook echt helpen.

342
00:25:40,519 --> 00:25:43,400
Nico: Dus ik zie die positieve noot heel nadrukkelijk.
00:25:43,400 --> 00:25:49,160
Nico: Maar ik zie ook dat als ik dan in zo'n ethical review board zie, dat er toch heel veel dingen nog even over het hoofd worden gezien.

None
00:25:49,479 --> 00:25:53,239
Nico: En daarmee kun je dus aan de hand van wetgeving.

None
00:25:53,400 --> 00:25:57,319
Nico: Daar moet ik het eigenlijk alleen maar aan de hand van wetgeving doen.

None
00:25:58,120 --> 00:26:08,039
Nico: Kan ik zo'n organisatie mee helpen om binnen die kaders te blijven om ervoor te zorgen dat er verantwoord blijft dat hij niet straks tot het conclusie komt dat hij zijn innovatie van de muur moet groei.

None
00:26:08,360 --> 00:26:10,680
Nico: Daar heeft hij niks aan, maar is de maatschappij ook niks aan.

None
00:26:11,799 --> 00:26:13,559
Niels Naglé: Ik moest even nog verder aan die baksteen denk ik.

None
00:26:13,559 --> 00:26:17,959
Niels Naglé: Ik ben heel vies denken, maar ik probeer even voor mezelf te worden dat je iemand dat je iemand.

None
00:26:18,680 --> 00:26:19,959
Joop Snijder: Je zal ze wel een huis te bouwen.

None
00:26:20,360 --> 00:26:23,399
Niels Naglé: Ik zat iets altijd met de baksteen gewoon mooi te maken, inderdaad.

None
00:26:26,120 --> 00:26:26,999
Niels Naglé: Dankjewel.

None
00:26:28,840 --> 00:26:30,599
Niels Naglé: De bak zijn niet kwalijk nemen.

None
00:26:30,600 --> 00:26:33,400
Niels Naglé: En sommige organisaties hebben ook niet het brede beeld.

None
00:26:33,400 --> 00:26:38,680
Niels Naglé: En ik denk dat het daar eigenlijk helpt om aan organisaties duidelijk te maken, waar moet je allemaal over nadenken?

None
00:26:38,680 --> 00:26:42,759
Niels Naglé: Wat zijn die kaders, de vragen stellen die je moet doen, ook perspectieven moet je aannemen.

None
00:26:42,759 --> 00:26:48,119
Niels Naglé: En ik denk dat het zo'n norm daarbij helpt om eigenlijk dat plaatje breder bekend te maken.

None
00:26:48,120 --> 00:26:49,799
Niels Naglé: Dus daarom kan ik even een baksteen.

None
00:26:49,959 --> 00:26:51,400
Niels Naglé: Je kan de baksteen niet kwalijk nemen.

None
00:26:51,400 --> 00:26:55,480
Niels Naglé: En ja, we kunnen het organisaties wel kwalijk nemen, want er zijn gewoon normeringen, er zijn gewoon wetgevingen.

None
00:26:55,640 --> 00:27:02,840
Niels Naglé: Ga dat dus ook gebruiken om dat voor jezelf voor je eigen organisatie helder te krijgen, dat is even waarvoor ik even moest terugdenken aan de bakstenen.

None
00:27:03,320 --> 00:27:12,839
Niels Naglé: Het idee was dat ik met die metafoor het makkelijker maken, ik weet dat het voor veel leuk was, maar goed, voor mij misschien even een rateltje van binnen.

None
00:27:13,719 --> 00:27:19,239
Nico: Wat nog wel een kenmerk verschil is tussen wetgeving en dan zo'n standaard, is dat zo'n wetgeving, daar heb je niet zo over te zeggen die iets van toepassing of niet.

None
00:27:19,239 --> 00:27:21,799
Nico: En dat moet je weten of dat had je moeten weten.

None
00:27:22,039 --> 00:27:25,799
Nico: Wat best complex is, want er komt heel veel wetgeving op organisaties af.

None
00:27:26,279 --> 00:27:30,040
Nico: Een standaard is echt een soort vrijwillige commitment.

None
00:27:30,039 --> 00:27:33,719
Nico: Dat geeft een strategische keuze, maar het is niet verplichtend.

None
00:27:33,799 --> 00:27:36,680
Nico: En dat is toch wel even weer vind ik iets belangrijk.

None
00:27:36,680 --> 00:27:40,920
Nico: Want als je dan ook echt het commitment geeft, dan moet je ook wel weten waar je commitment op geeft.

None
00:27:40,920 --> 00:27:42,919
Nico: En daar gaat het ook nog wel eens mis.

None
00:27:43,320 --> 00:27:51,959
Nico: Ik zie nog als organisatie die heel erg fanatiek inderdaad hele leuke innovatieve coole AI-dingen doen, maar eigenlijk heel weinig verstand hebben van zo'n standaard.

None
00:27:51,959 --> 00:27:55,320
Nico: Dus je hebt dan ook, je hebt niet alleen maar kennis nodig van de technologie.

None
00:27:55,799 --> 00:28:01,160
Nico: Je hebt ook echt kennis nodig van zo'n standaard en eigenlijk wat de bedoeling is van zo'n standaard.

None
00:28:01,479 --> 00:28:06,759
Nico: En daarbij is het lastig ook wel, dat zo'n standaard is niet een lekker leesbaar romannetje.

None
00:28:07,239 --> 00:28:10,520
Nico: Dus eigenlijk heb je daar wel weer een beetje hulp in nodig, dat begrijp ik ook nog wel.

None
00:28:10,519 --> 00:28:29,959
Joop Snijder: Ja, maar dat zou ook meteen een vraag zijn, weet je, van ik zou dit willen als organisatie, waar begin ik dan om hier kennis van op te doen en dat ik het eigenlijk laat ik zeggen vandaag een beetje kennis ervan opdoen, morgen al een beetje proberen dat ik dat ik het kan gaan opbouwen.

None
00:28:32,519 --> 00:28:42,120
Nico: Dat hangt er een beetje vanaf of je alles zelf wil doen en ook in huis wil houden, of dat je daar inderdaad hulp bij nodig in het begin of dat je dat ook wil houden, dat zijn verschillende van je bent.

None
00:28:42,120 --> 00:28:47,719
Nico: Maar je moet die kennis wel in huis halen en op de enige manier houden.

None
00:28:48,680 --> 00:28:57,239
Nico: Als je dat niet hebt en je leest het wel van begin tot eind, dan loop je ook het risico dat je eigenlijk alleen maar als een soort afvinkmachine dingetjes in te vullen.

None
00:28:58,440 --> 00:29:00,519
Nico: Maak je een heel bureaucratisch systeem.

None
00:29:01,079 --> 00:29:07,559
Nico: Kan aan de normen voldoen, maar dat kan heel makkelijk niet voor jou als organisatie werken en helemaal niet heel erg efficiënt zijn.

None
00:29:08,039 --> 00:29:15,440
Nico: Als je als je de relaties niet kunt leggen, dan begrijpt niet waarom je dingen doet voor dat je weet doe je het voor de orde die langskomt.

None
00:29:17,039 --> 00:29:18,079
Nico: Dat moet je begrijpen.

None
00:29:18,400 --> 00:29:20,240
Nico: Je kunt zelf trainingen gaan volgen.

None
00:29:20,239 --> 00:29:23,039
Nico: Je kunt organisaties inschakelen die je bij helpen.

None
00:29:23,039 --> 00:29:24,640
Nico: Die zijn daar specifiek ook voor opgedrenzen.

None
00:29:24,719 --> 00:29:28,160
Nico: Wij mogen dat als auditerende certificerende instelling zelf niet doen.

None
00:29:28,160 --> 00:29:34,160
Nico: Wat soms ook nog wel eens lastig is, zeker waar ik vandaan kom, want je wilt graag zelf, soms is het licht de oplossing voor de hand.

None
00:29:34,160 --> 00:29:38,799
Nico: Maar je moet ze niet meegeven in hoe ze het zouden moeten doen.

None
00:29:40,320 --> 00:29:42,160
Nico: Dan zijn er niet meer objectief.

None
00:29:45,120 --> 00:29:47,119
Nico: Daar begint het eigenlijk mee.

None
00:29:47,680 --> 00:29:57,039
Nico: Wij zelf geven her en derde informatie of webinars, dan proberen mensen mee dan zeker als we al klanten hebben die bijvoorbeeld als ze in thuis een hebben.

None
00:29:57,840 --> 00:29:59,519
Nico: Is privacy misschien niet ook iets voor je.

None
00:30:00,400 --> 00:30:03,199
Nico: Ik zie dat jullie met AI-ontwikkelingen bezig gaan.

None
00:30:03,360 --> 00:30:08,160
Nico: Vanuit de koken van zo'n informatiebewijsbeste, moet dat tot aangeboden besteed van is dit niet iets.

None
00:30:08,160 --> 00:30:12,079
Nico: En dan kun je er wel iets van informerende zin aan toelichten.

None
00:30:12,239 --> 00:30:17,440
Nico: Maar uiteindelijk zul je die verdiepingslag zelf moeten doen, dan moet je ook echt een track beginnen in zo'n organisatie.

None
00:30:17,440 --> 00:30:22,319
Nico: En het is niet makkelijk om vanuit andere perspectieven naar je organisatie te kijken.

None
00:30:22,320 --> 00:30:27,039
Nico: Je moet in één keer inhouden privacy naar de risico's voor anderen.

None
00:30:27,360 --> 00:30:30,239
Nico: Daar heb je dan ook echt weer wat stand van privacy voor nodig.

None
00:30:30,239 --> 00:30:32,319
Nico: Maar AI gaat dan nog breder.
402
00:30:33,519 --> 00:30:35,839
Nico: Dus ja, daar heb je waarschijnlijk hulp bij nodig.

403
00:30:35,840 --> 00:30:41,680
Nico: Of je moet mensen competenties mensen in gaan huren of aannemen.

404
00:30:41,680 --> 00:30:45,199
Nico: Of die competenties moet je gaan verschaffen.

405
00:30:48,799 --> 00:30:56,959
Joop Snijder: We hebben ook een kaartspel ontwikkeld, over verschillende competenties en verschillende perspectieven gesproken.

406
00:30:59,199 --> 00:31:05,839
Joop Snijder: Deze versie hebben wij samen met het ETZ ontwikkeld, het liefst bij twee steden ziekenhuis uit Tilburg.

407
00:31:05,840 --> 00:31:11,040
Joop Snijder: Zij zijn voorlopers op het gebied van AI-implementaties in de zorg.

408
00:31:11,680 --> 00:31:20,799
Joop Snijder: Het leuke is, zeg maar de stellingen, het idee is dat je een stelling krijgt, dus ook geen goed of fouten antwoord, maar dat je dus juist met elkaar bespreekt, wat vind je ervan.

409
00:31:20,800 --> 00:31:23,999
Joop Snijder: En wij willen zo'n stelling ook aan jou voorleggen.

410
00:31:24,320 --> 00:31:26,640
Joop Snijder: Iedereen heeft te maken met de zorg.

411
00:31:28,479 --> 00:31:32,479
Joop Snijder: Kijk het vanuit het perspectief, misschien ook gewoon vanuit jezelf.

412
00:31:38,079 --> 00:31:40,799
Unknown: Nee, voor elkaar twee.

413
00:31:40,799 --> 00:31:49,440
Unknown: Je denken het altijd bepalen verhalen.

414
00:31:50,079 --> 00:31:59,199
Niels Naglé: Je zag het, ik heb geschud en ik heb er willekeurig eentje uitgetrokken en de categorie is als volgt: toekomst visies en speculaties en een stellingluid.

415
00:31:59,199 --> 00:32:03,440
Niels Naglé: Binnen twee jaar is AI beter dan de zorgverlener.

416
00:32:05,999 --> 00:32:08,239
Nico: Ik zou gelijk nee zeggen.

417
00:32:08,880 --> 00:32:09,839
Unknown: Nee.

418
00:32:09,840 --> 00:32:16,799
Nico: Nee, zeker bij de zorg, ik denk dat er heel veel toekomst is aan AI-innovatie in de zorg.

419
00:32:16,959 --> 00:32:19,519
Nico: De zorgverlener hebben het over een persoon.

420
00:32:21,360 --> 00:32:31,759
Nico: Als iets belangrijk is, is dat we als maatschappij, maar ook als leverancier, denk ik, of als innovator toch altijd het menselijke aspect niet over het hoofd moeten zien.

421
00:32:31,920 --> 00:32:33,999
Nico: Dat is zo belangrijk dat we nog mensen zijn.

422
00:32:34,800 --> 00:32:42,079
Nico: Dus heb je niet nog een wat andere makkelijke of moeilijke stellingen.

423
00:32:43,360 --> 00:32:44,479
Joop Snijder: Daar hebben we niet gehad.

424
00:32:47,599 --> 00:32:50,799
Joop Snijder: Misschien kan je er eentje even uit de categorie ethiek pakken.

425
00:32:51,680 --> 00:32:55,039
Joop Snijder: We hebben zes categorieën waarin er verschillende vragen zitten.

426
00:32:55,039 --> 00:32:56,080
Niels Naglé: En dan zijn we ook nog risico's.

427
00:32:56,239 --> 00:32:57,999
Nico: Maar denk jullie daar anders over dan.

428
00:33:01,680 --> 00:33:03,759
Joop Snijder: Heet zelfs AI versterkte mens.

429
00:33:04,080 --> 00:33:11,839
Joop Snijder: Ik ben het helemaal met jou eens van de mens dienen versterken in wat hij doet.

430
00:33:11,840 --> 00:33:17,279
Joop Snijder: Ik denk ook dat bij heel snel als we het hebben over banen, want daar hebben we het hier eigenlijk over.

431
00:33:18,559 --> 00:33:24,080
Joop Snijder: Dat het te makkelijk wordt gekeken naar dat wordt gereduceerd tot een paar taken.

432
00:33:24,079 --> 00:33:29,199
Joop Snijder: En een van de mooie metaforen die ik heb gehoord, is de Domenfallacy, wordt die genoemd.

433
00:33:29,360 --> 00:33:31,440
Joop Snijder: Even kwijt wie dat bedacht heeft.

434
00:33:31,440 --> 00:33:34,719
Joop Snijder: En dat is de doorman is de portier bij een hotel.

435
00:33:34,719 --> 00:33:42,160
Joop Snijder: En als je die zou tot een paar taken zou reduceren, dan zeg je eigenlijk van nou die zegt welkom hebben een gast die komt, die doet die deur open.

436
00:33:42,160 --> 00:33:43,440
Joop Snijder: En die doet die deur weer dicht.

437
00:33:43,440 --> 00:33:45,759
Joop Snijder: Nou, dat is heel makkelijk te automatiseren.

438
00:33:45,759 --> 00:33:48,080
Joop Snijder: Maar die portier, die staat voor veel meer.

439
00:33:48,239 --> 00:33:49,999
Joop Snijder: Die heet jou welkom.

440
00:33:49,999 --> 00:33:56,239
Joop Snijder: Maar die zorgt er ook voor dat misschien ongenode gasten er niet komen, zorgt misschien voor een beetje veiligheid.

441
00:33:56,239 --> 00:33:58,120
Joop Snijder: Die zorgt voor luxe.

442
00:33:57,360 --> 00:34:03,000
Joop Snijder: Die kan taxi's best bestellen, die kan jou informatie geven over de omgeving.

443
00:34:03,080 --> 00:34:07,959
Joop Snijder: Dus die is ook van mens tot mens bezig.

444
00:34:09,478 --> 00:34:12,599
Joop Snijder: Ik ben het helemaal mee met jou eens met de zorgverlener hoor.

445
00:34:13,719 --> 00:34:17,478
Joop Snijder: Het zijn niet de handelingen of zo zomaar die uitgevoerd worden.

446
00:34:17,719 --> 00:34:21,958
Joop Snijder: Het is een van mens tot mens relatie die er ligt.

447
00:34:22,518 --> 00:34:26,440
Joop Snijder: En daar kan hopelijk AI in gaan ondersteunen in taken die.

448
00:34:26,920 --> 00:34:28,599
Nico: In de vraag staat al de zorgverlener.

449
00:34:28,600 --> 00:34:30,279
Nico: Dus en het gevallen voor een mensen.

450
00:34:31,159 --> 00:34:36,520
Nico: Want wat mij nu wel te binnen schiet, en dat vond ik zelf een best wel een goed voorbeeld ook.

451
00:34:36,518 --> 00:34:39,478
Nico: Het kan de zorg heel erg goed ondersteunen.

452
00:34:39,478 --> 00:34:42,998
Nico: Zolang ik de zorgverlener maar niet wegneemt.

453
00:34:44,039 --> 00:34:54,840
Nico: Organisatie waar wij geweest zijn, die heeft een product ontwikkeld, AI powered product, zo omschrijven.

454
00:34:55,639 --> 00:34:58,839
Nico: Voor mensen met onbegrepen gedrag.

455
00:34:59,159 --> 00:35:14,840
Nico: Er zit vaak een complexe combinatie van allerlei medische diagnoses die natuurlijk achter zitten, waarbij mensen bepaald gedrag vertonen omdat ze getriggerd worden en dat wordt door de omgeving niet goed begrepen, waardoor de omgeving op hun manier op reageert.

456
00:35:14,840 --> 00:35:21,479
Nico: En dat kan soms een leercel zijn of instanties die gebeld moeten worden of nou escaleert dan redelijk snel.

457
00:35:21,559 --> 00:35:24,279
Nico: Maatschappij daar niet blij mee, zo'n persoon natuurlijk ook niet.

458
00:35:24,280 --> 00:35:28,999
Nico: Waarbij dit systeem detecteert in wat voor situatie zo iemand zit.

459
00:35:28,999 --> 00:35:31,320
Nico: En die detecteert van die gaat niet helemaal goed.

460
00:35:31,320 --> 00:35:38,360
Nico: En voordat het daadwerkelijk tot dat gedrag lijkt en anderen daar last van hebben of dat niet goed begrijpen op hun manier reageren.

461
00:35:38,679 --> 00:35:40,999
Nico: Hun favoriete muziek worden afgespeeld.

462
00:35:43,159 --> 00:35:44,600
Nico: Dan escaleren het niet meer.

463
00:35:44,840 --> 00:35:52,759
Nico: Of er zijn andere vormen van reacties, of er is een soort AI-robot die tegen hem praat of die gaat interacteren.

464
00:35:53,079 --> 00:35:57,240
Nico: O in sommige gevallen van ja, dit is nu hebben we echt een hulpverlener nodig.

465
00:35:57,240 --> 00:36:02,200
Nico: Dus dan gaat het het systeem zelf probeert al te de-escaleren.

466
00:36:04,119 --> 00:36:07,079
Nico: Ook het onderscheid te maken van nu moet je toch echt even iemand erbij hadden.

467
00:36:07,079 --> 00:36:08,199
Nico: Nu heb je toch echt een mens nodig.

468
00:36:08,440 --> 00:36:18,199
Nico: Dat vind ik heel erg dat je daar een combinatie ziet van technologie, de cliënt moet dan geloof ik zeggen, echt ondersteunt, maar ook nog de zorg daarmee ondersteunt.

469
00:36:19,079 --> 00:36:21,319
Nico: En niet heel veel zorgpersoneel.

470
00:36:21,320 --> 00:36:23,800
Nico: En het zou ook heel fijn zijn dat we die zo goed mogelijk inzetten.

471
00:36:23,800 --> 00:36:30,440
Nico: Want waarom zou een zorgverlener langs moeten komen om zijn favoriete muziek als een systeem het al zo kunnen.

472
00:36:30,519 --> 00:36:32,039
Nico: En dat kan dan nog sneller ook nog.

473
00:36:32,039 --> 00:36:34,999
Nico: En dat is dan zoals ik het zie, een hele mooie toepassing.

474
00:36:35,320 --> 00:36:37,799
Nico: De kwaliteit van het leven voor zo iemand ook echt wordt verrijk.

475
00:36:37,800 --> 00:36:39,800
Nico: Maar wij als maatschappij er ook nog een keertje belangrijk is.

476
00:36:40,519 --> 00:36:41,479
Joop Snijder: Wat een mooie voorbeeld.

477
00:36:42,200 --> 00:36:45,159
Niels Naglé: Heeft me ook even de tijd gegeven om dat twee uit te pakken, inderdaad.

478
00:36:45,159 --> 00:36:46,359
Niels Naglé: Dank je wel voor.
00:36:46,760 --> 00:36:49,159
Niels: De categorie was dus op verzoek ethiek en maatschappij.
 None
00:36:49,159 --> 00:36:52,360
Niels: En ik heb er even twee uitgepakt, laten we met het eerst even beginnen.
 None
00:36:52,360 --> 00:36:57,400
Niels: Een fout van AI is kwalijker dan een fout van een zorgverlener.
 None
00:36:57,559 --> 00:36:59,720
Unknown: Over van de zorgverlener.
 None
00:37:03,240 --> 00:37:05,160
Nico: Ja, die vind ik wel leuker.
 None
00:37:09,800 --> 00:37:16,760
Nico: Het lijkt erop dat wij minder snel accepteren dat een AI-systeem een fout maakt dan een mensenfout maakt.
 None
00:37:20,679 --> 00:37:21,799
Joop: Na gedaan, dat is zo.
 None
00:37:22,039 --> 00:37:24,280
Nico: Dat vind ik heel erg interessant.
 None
00:37:24,760 --> 00:37:30,280
Nico: En ik vind niet dat ik te snel tegenin moet gaan dat ze zeggen van nee, maar dat moeten we maar gaan accepteren.
 None
00:37:30,280 --> 00:37:34,999
Nico: En ik vind ook echt dat we de ambitie al wat hoger mogen leggen bij innovatieve systemen.
 None
00:37:35,320 --> 00:37:41,959
Nico: Die denk ik ook op ten duur en op termijn natuurlijk steeds minder fouten maken en steeds meer.
 None
00:37:42,280 --> 00:37:48,120
Nico: Ik kan het zeggen foutloos zijn, maar steeds betrouwbaarder worden dat die acceptatiegraad groter wordt.
 None
00:37:48,840 --> 00:37:51,880
Nico: Maar nu breng je het echt terug naar de zorgverlener.
 None
00:37:54,280 --> 00:37:59,959
Nico: Ik zou eigenlijk willen zeggen, persoonlijk dan even zeker.
 None
00:38:04,920 --> 00:38:14,680
Nico: Nee, als ik moet kiezen, nee, nee, ik denk niet dat we.
 None
00:38:15,800 --> 00:38:31,720
Nico: Ik reden nu nog even in die zin dat AI eigenlijk doet wat wij schat in wat mensen doen, wat mensen de steen niet kwalijk is nou misschien ook, wat je neemt het AI-systeem niet kwalijk, want het is gewoon toch gevoed met hoe wij het doen.
 None
00:38:33,320 --> 00:38:42,440
Nico: En ik denk dat ik geneigd om toch wat meer richting het vertrouwen van AI te gaan.
 None
00:38:43,599 --> 00:38:50,559
Nico: Ik ben heel erg voor mensen in menselijk contact en mensen interactie, zoals je merkt, maar mensen zijn alles behalve feilleloos.
 None
00:38:50,559 --> 00:38:54,160
Nico: En er zit nog wel wat willekeurig in mensen onderling.
 None
00:38:55,280 --> 00:38:59,679
Nico: En ik vind het al in die zin interessant dat AI-systemen daarmee ook wat meer die willekeur eruit had.
 None
00:38:59,840 --> 00:39:05,520
Nico: En als ze dan ook nog collectief in die willekeur op een hoger niveau weten ben ik, denk ik dat we heel ver komen.
 None
00:39:05,999 --> 00:39:20,239
Nico: Dus ik denk dat mijn antwoord is, tegelijkertijd zit nu even te denken aan de autonome auto die mensen met een donkere huidskleur wat minder goed weten te detecteren.
 None
00:39:21,039 --> 00:39:24,559
Nico: Die kunnen nou eenmaal minder veilig de straat over steken dan witte mensen.
 None
00:39:24,559 --> 00:39:26,719
Nico: En dat vind ik daar moeten we niet accepteren.
 None
00:39:26,800 --> 00:39:29,920
Joop: Nee, dat is niet oké.
 None
00:39:31,760 --> 00:39:46,559
Nico: Als een mens zo'n fout maakt, en dan ga ik er even vanuit dit een bewuste keuzes tussen een wit iemand die oogste en een gekleurd iemand die oogste en dat is ingegeven door een racisme, dan is het heel begrijpelijk voor zo'n zo'n persoon.
 None
00:39:47,840 --> 00:39:52,559
Nico: Daar komt het vandaan nog steeds niet te billiken.
 None
00:39:52,800 --> 00:39:55,360
Nico: Maar dan vind ik dat eigenlijk nog schadelijker.
 None
00:39:56,320 --> 00:39:59,280
Nico: Ik proberen daar een beetje mee te vergelijken.
 None
00:40:00,559 --> 00:40:12,560
Niels: Wat kan je weer met de fout doen en grotere schaal een stukje automatisering inderdaad mooie blik erop dankje dan voor andere was vond ik ook wel heel mooi is: AI maakt de zorg minder menselijk.
 None
00:40:16,880 --> 00:40:30,560
Nico: Ik zou bijna willen zeggen per definitie, maar een beetje van de cases af maar er zit misschien een soort connotatie in de vraag of het erg zou zijn.
 None
00:40:30,880 --> 00:40:37,600
Nico: Ik denk, ik had net het voorbeeld genoemd, waarbij de combinatie van beide lijkt me een hele goede idee dat we daar heel veel baat bij hebben.
 None
00:40:38,720 --> 00:40:52,560
Nico: Ik denk dat daar waar het nodig is om menselijkheid moeten houden en dat ook echt moeten waarderen, niet moeten uitsluiten, maar ook echt moeten omarmen dat we technologische innovatie hebben die ons helpt.
 None
00:40:55,679 --> 00:40:59,600
Nico: Maar ja, wie heeft tegenwoordig nog een platte grond in de auto?
 None
00:41:00,800 --> 00:41:18,639
Nico: Die systemen maakt het allemaal wel wat je hebt geen vrouw naast je zitten die naar de kaart kijkt en zeggen van wat doe je nou allemaal, het wordt allemaal minder menselijk, maar de vraag is er in mijn geval niet, want ze houden net zo makkelijk op de kop, als ik de kaart moet lezen, dan wordt het ook geen succes.
 None
00:41:18,959 --> 00:41:26,959
Niels: Ik denk dat het inderdaad goed is waar wil je het voor inzet en dat je daar met elkaar bewuste keuze moet maken, waar willen we het meer menselijk kunnen maken, daar kan AI wel bij helpen inderdaad.
 None
00:41:27,119 --> 00:41:46,320
Niels: In die lijn, dus geen stelling wel, maar wel een vraag die nog voor me had, inderdaad, is eigenlijk als je als je nu dit allemaal meeneemt met de kennis die je nu hebt en je zou één aspect van de huidige AI ontwikkeling mogen resetten, dat we dat echt fundamenteel anders zouden gaan doen, wat zou dat dan zijn.
 None
00:41:49,519 --> 00:41:55,280
Nico: Het eerste wat mij te binnen schieten en dat wordt dan ook mijn antwoord, is de snelheid van mijn momentum.
 None
00:41:59,119 --> 00:42:06,479
Nico: In de wereld van technologische ontwikkeling gaat het best wel snel dat kennen we al een hele tijd, maar nu gaat het al heel grap.
 None
00:42:16,159 --> 00:42:19,999
Nico: Ik zei als expert ook bij de Europese Commissie.
 None
00:42:20,400 --> 00:42:29,280
Nico: Daar echt jaren geleden kwam daar een systeem voor bij waarbij dan automatisch werd beeld gegenereerd wat niet meer van echt te onderscheiden was.
 None
00:42:29,999 --> 00:42:42,079
Nico: Dat was toen baanbrekend en dat wordt dan moesten wij dan naar kijken in het review board, en dan zeg ik van je begrijp dat dat kan, in dit geval hele nobele toepassingen natuurlijk.
 None
00:42:42,400 --> 00:42:49,039
Nico: Maar de vraag is of wij als maatschappij daar klaar voor zijn, omdat als het niet meer van echt is te onderscheiden en het wordt wel als echt gepercipieerd.
 None
00:42:49,039 --> 00:42:52,719
Nico: Hoe gaan we er dan mee om in bijvoorbeeld de rechtspraak als het gaat om bewijsvoering?
 None
00:42:53,039 --> 00:43:01,520
Nico: Of wat als bepaalde bevolksgroepen met beelden worden geconfronteerd en daardoor er opstand komt op basis van beelden.
 None
00:43:01,840 --> 00:43:05,840
Nico: En dat eigenlijk is dit een soort risico, is over dit soort risico's nagedacht.
 None
00:43:05,840 --> 00:43:11,760
Nico: Het is niet dat het daarom niet mag, ik geloof niet zozeer in het gebied van technologie, maar daar zijn we er wel klaar voor.
526
00:43:12,559 --> 00:43:25,039
Nico: Dat waren we toen nog niet, maar vandaag de dag gebeurt, en het leuke is dat mijn kinderen die nemen nu beelden die ze zien al bijna niet meer automatisch aan voor eigenlijk.

527
00:43:25,039 --> 00:43:27,199
Nico: Het zal al fake zijn, het zal het soms echte beelden zijn.

528
00:43:27,720 --> 00:43:31,799
Nico: Ik merk dat we tijd nodig om ergens aan te wennen.

529
00:43:31,800 --> 00:43:39,799
Nico: Maar we moeten ook niet vergeten dat sommige mensen, ook wat meer oudere mensen, die maken ook nog onderdeel uit van onze maatschappij.

530
00:43:39,800 --> 00:43:42,440
Nico: Dus je moet ook echt oppassen dat we niet te snel gaan.

531
00:43:43,320 --> 00:43:48,279
Nico: Dat we als maatschappij of groepen binnen maatschappij dat dat niet kunnen bijbenen.

532
00:43:48,599 --> 00:43:50,840
Nico: Die horen er echt met recht ook bij.

533
00:43:51,479 --> 00:43:54,840
Nico: Als ik naar mijn kinderen kijkt, denk ik al dat ik al zo'n oudje ben.

534
00:43:56,679 --> 00:44:03,400
Nico: Ik denk dat dat is de eerste waar ik aan zit te denken van nou, ik ben best wel heel erg enthousiast over wat we ermee kunnen.

535
00:44:03,800 --> 00:44:09,079
Nico: Ik maak ook veel risico's over anderen vrouwelijk mee kunnen risico's.

536
00:44:09,079 --> 00:44:10,359
Nico: Maar de snelheid.

537
00:44:10,360 --> 00:44:14,039
Nico: Ook van de goede toepassingen, daar maken we wel zo mee.

538
00:44:15,159 --> 00:44:25,160
Joop Snijder: Wat is een vraag die we nog niet hebben gesteld over de normering of over de norm, die toch wel heel belangrijk zou zijn, zodat de luisteraars daar kennis van nemen.

539
00:44:26,440 --> 00:44:30,840
Nico: Twee dingen die me nog even binnen schoten waar ik niet echt heel druk heb.

540
00:44:31,320 --> 00:44:36,199
Nico: Eén is dat je stel op een gegeven moment de vraag over waar begin ik eigenlijk op moet doen.

541
00:44:36,200 --> 00:44:40,119
Nico: Wij komen normaal gesproken langs en dan laten we zien dat je klaar bent.

542
00:44:40,119 --> 00:44:42,680
Nico: Je ziet dat je klaar bent.

543
00:44:43,079 --> 00:44:48,440
Nico: En dan volgt het per definitie ook een oordeel, conclusies trekken.

544
00:44:48,760 --> 00:44:50,440
Nico: En dat is heel spannend.

545
00:44:51,240 --> 00:44:57,400
Nico: Dat blijft altijd wel een beetje spannend, maar zeker als je ermee begint, wat wij ook kunnen doen, is een proefaudit.

546
00:44:57,639 --> 00:45:01,559
Nico: En dat betekent dat we vliegen het wel aan als een audit.

547
00:45:01,559 --> 00:45:03,079
Nico: Er komt ook echt een orde.

548
00:45:03,079 --> 00:45:04,440
Nico: We kijken naar een onderdeel.

549
00:45:04,999 --> 00:45:07,079
Nico: Kanten kunnen zelf van ik daarna dadelijk kijkt.

550
00:45:07,079 --> 00:45:09,159
Nico: En we kunnen zelf onze eigen expertise meenemen.

551
00:45:10,360 --> 00:45:13,720
Nico: Daar gaan klanten nog wel eens de mist in.

552
00:45:14,039 --> 00:45:17,559
Nico: Zodat je daarna ook in kunt zoomen en daar een oorlog kunt vuil.

553
00:45:17,800 --> 00:45:21,079
Nico: En daarmee kun je al heel veel misvattingen soms wegnemen bij.

554
00:45:21,880 --> 00:45:24,440
Nico: Vooral de hele fundamentele dingen.

555
00:45:25,720 --> 00:45:28,680
Nico: Dus dat is misschien nog even een waardevolle toevoeging.

556
00:45:29,079 --> 00:45:40,680
Nico: Een andere die ik heel erg interessant vind, is dat ik had je aangegeven dat het allemaal riskbased systemen zijn, los daarvan een managementsysteem ook altijd doelen moet hebben.

557
00:45:40,920 --> 00:45:45,560
Nico: En organisaties worstelen nog wel eens van welke doelen moet ik eigenlijk stellen.

558
00:45:46,360 --> 00:45:47,959
Nico: Maar dat is heel essentieel.

559
00:45:47,959 --> 00:45:54,999
Nico: Dat is echt van die organisatie, waar we op sturen, wanneer ben je succesvol, je kunt wel champagne in de kast zetten, maar wanneer trek je die er nou uit.

560
00:45:55,959 --> 00:45:57,719
Nico: En risico's, oh, ja, dan moet je ook nog.

561
00:45:58,679 --> 00:46:01,320
Nico: Dat is lastig, dat is een discipline.

562
00:46:01,959 --> 00:46:09,240
Nico: Wat je in de 24001 ziet, IC2001, die vind ik echt kenmerkend anders.

563
00:46:09,639 --> 00:46:11,880
Nico: Daar worden die twee gecombineerd.

564
00:46:12,200 --> 00:46:18,519
Nico: Dat betekent dat de risico's die je moet inschatten binnen zo'n artificial intelligence management systeem.

565
00:46:18,840 --> 00:46:23,400
Nico: Die moet je zien ten opzichte van de doelen.

566
00:46:24,280 --> 00:46:29,959
Nico: Dus welke risico's kunnen mijn doelen bereiken of naar juist schade.

567
00:46:30,200 --> 00:46:36,199
Nico: En het leuke van die doelen is, die doelen die verwijzen eigenlijk naar trustworthy AI objectives.

568
00:46:36,440 --> 00:46:40,280
Nico: En daarmee heb je eigenlijk, maar dit is niet heel makkelijk leesbaar.

569
00:46:40,760 --> 00:46:44,920
Nico: Als je dit begrijpt, dan kan er een lampje aangaan en denk ik van dat is het.

570
00:46:45,079 --> 00:46:52,600
Nico: En dan wordt het enige lastig is voor hoe ga je nou dan nog die AI-doelen ook echt meetbaar maken, dat blijft lastig.

571
00:46:53,240 --> 00:46:55,959
Nico: En soms heb je daarvoor nou juist ook anderen nodig.

572
00:46:56,280 --> 00:47:12,040
Nico: Een omgeving voorbeeld dat ik gaf voor jullie een organisatie met dat onbegrepen gedrag, die hoeveel wetenschappelijke onderzoeken die ze adopteren werken met een universiteit.

573
00:47:13,479 --> 00:47:19,800
Nico: Je kunt ook anderen gebruiken, invoeren van buiten gebruiken om dat meetbaar te maken of daar keuzes in te maken.

574
00:47:21,159 --> 00:47:22,920
Nico: Dan ga je dat denk ik wat meer begrijpen.

575
00:47:22,920 --> 00:47:27,079
Nico: En voordat je het weet gaan er nog lol in hebben, die champagne uit de kast.

576
00:47:27,240 --> 00:47:31,720
Niels Naglé: Ik kan zeggen, ik kan in ieder geval bij jou zien dat je de lol uithaalt en om dit inderdaad uit te leggen.

577
00:47:31,720 --> 00:47:33,479
Niels Naglé: Dus dankjewel ervoor.

578
00:47:33,719 --> 00:47:35,319
Joop Snijder: Zeker, geweldig.

579
00:47:35,320 --> 00:47:40,599
Joop Snijder: Ik denk we een mooi kijkje hebben gehad in normering, wat het kan betekenen.

580
00:47:40,599 --> 00:47:42,360
Joop Snijder: Ook een beetje je eigen afwegingen.

581
00:47:42,440 --> 00:47:48,520
Joop Snijder: Je ziet dat als ze ethische vragen komen, dat dat best nog wel eens lastig is, hebben wij natuurlijk zelf ook.

582
00:47:48,599 --> 00:47:52,040
Joop Snijder: Leuk om dat van jou te horen, dankjewel.

583
00:47:53,320 --> 00:47:59,720
Joop Snijder: Leuk dat je weer luisterden naar deze aflevering, we hebben ook een hele leuke nieuwsbrief met dingen over achter de schermen.

584
00:47:59,720 --> 00:48:05,079
Joop Snijder: Da ga je ook een vraag lezen, die we bijvoorbeeld aan Nico en de andere gasten deze maand hebben gesteld.

585
00:48:05,079 --> 00:48:06,999
Joop Snijder: Dus abonneer je erop, een substack.

586
00:48:07,320 --> 00:48:08,759
Joop Snijder: Krijg je allemaal leuke informatie.

587
00:48:08,760 --> 00:48:12,200
Joop Snijder: Tot de volgende keer.