AIToday Live

S05E63 - AI in de juridische wereld: combinatie van menselijke expertise en technologie

Aigency by Info Support Season 5 Episode 63

Welkom bij een nieuwe aflevering van AIToday Live! Vandaag hebben we Roger van de Berg te gast, partner bij Baker McKenzie en gespecialiseerd in fiscaliteit.

We duiken dieper in op AI in het belastingrecht en de advocatuur. Roger legt uit welke stappen bedrijven nu al kunnen nemen en waar de mogelijke fiscale vraagstukken liggen.

Luister nu naar deze interessante aflevering en abonneer je om geen enkele aflevering te missen! 


Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:07,000
Welkom bij een nieuwe aflevering van de AIToday Live.

2
00:00:07,000 --> 00:00:10,000
Vandaag in de studio Roger van de Berg.

3
00:00:10,000 --> 00:00:12,000
Mijn naam Joop Snijder, CTO bij Aigency.

4
00:00:12,000 --> 00:00:15,000
Mijn naam Niels Naglé, chapter lead, Data & AI bij Info Support.

5
00:00:15,000 --> 00:00:17,000
Roger, welkom terug.

6
00:00:17,000 --> 00:00:18,000
Ja, eindelijk.

7
00:00:18,000 --> 00:00:21,000
Leuk voor de mensen die deel 1 nog niet hebben geluisterd.

8
00:00:21,000 --> 00:00:23,000
Doet het absoluut heel veel.

9
00:00:23,000 --> 00:00:28,000
Nou ja, diepgang over AI in het belastingrecht.

10
00:00:28,000 --> 00:00:31,000
Recht, moet ik zeggen. Recht.

11
00:00:31,000 --> 00:00:33,000
En advocatuur.

12
00:00:33,000 --> 00:00:39,000
Roger, voor diegenen die deel 1 nog niet hebben geluisterd, zou je je daar even voor kort willen voorstellen?

13
00:00:39,000 --> 00:00:41,000
Absoluut. Mijn naam is Roger van de Berg.

14
00:00:41,000 --> 00:00:46,000
Ik ben partner bij Baker McKenzie, internationale advocatenkantoor voor fiscalisten.

15
00:00:46,000 --> 00:00:53,000
En ik leg mij vooral op Btw, andere indirecte belastingen, vooral in de tech sector.

16
00:00:53,000 --> 00:00:59,000
Wat zijn dan de typische klanten die bij jou komen met relatie tot AI?

17
00:00:59,000 --> 00:01:05,000
Met relatie tot AI zijn het op dit moment vooral de grote tech-giganten.

18
00:01:05,000 --> 00:01:15,000
Wat je vaker ziet bij iedere nieuwe technologie is dat die nieuwe maar wel goed meenemen.

19
00:01:15,000 --> 00:01:17,000
Voor heel de mensen nog wel.

20
00:01:17,000 --> 00:01:21,000
Precies. Wat je ziet, ik maak even een vergelijking met bijvoorbeeld crypto.

21
00:01:21,000 --> 00:01:26,000
De crypto is vanaf 2009 up and running, bitcoin.

22
00:01:26,000 --> 00:01:35,000
Wat je zag is dat de eerste grote bedrijven sinds 2012/2013 internationaal begonnen te ontpoppen.

23
00:01:35,000 --> 00:01:41,000
En eigenlijk was het een jaar of twee later komen daar fiscaal gezien een aantal vragen uit.

24
00:01:41,000 --> 00:01:43,000
Dat heeft een paar redenen.

25
00:01:43,000 --> 00:01:50,000
De eerste duidelijke reden is natuurlijk dat technologie altijd ver voorloopt, redengeving.

26
00:01:50,000 --> 00:01:55,000
En het dan een heel grijs gebied is, in welke richting moet je in.

27
00:01:55,000 --> 00:02:04,800
Maar ook ten tweede dat het natuurlijk eventjes duurt voordat bedrijven een positie innemen over bijvoorbeeld belastingen,

28
00:02:04,800 --> 00:02:06,800
over legal regulatory.

29
00:02:06,800 --> 00:02:18,200
En ook dat de counterparty, in dit geval vaak de belastingdienst, ook een positie heeft of iets kwijt wil over het ondernemen.

30
00:02:18,200 --> 00:02:25,200
En hetzelfde is hier met AI. Je ziet nu eigenlijk die grote techreuzen.

31
00:02:25,200 --> 00:02:33,200
Misschien ook wat ik zie hier in ARHED, dat zijn die grote consumer goods fabrikanten of maatschappijen.

32
00:02:33,200 --> 00:02:36,200
Die beginnen daar echt al een beetje mee bezig te zijn.

33
00:02:36,200 --> 00:02:39,200
Die beginnen daar moeite's mee, vragen over te stellen.

34
00:02:39,200 --> 00:02:49,200
We moeten denken aan een ander soort belastingheffing bijvoorbeeld in de BTW dan onze reguliere e-commerce activiteiten.

35
00:02:49,200 --> 00:02:57,200
Maar wat je ziet is dat eigenlijk de gespecialiseerde spelers en dan bijvoorbeeld naar de crypto,

36
00:02:57,200 --> 00:03:05,200
de echt gespecialiseerde cryptobedrijfjes die kwamen eigenlijk pas toen ze groot werden en grote internationale bedrijven werden,

37
00:03:05,200 --> 00:03:12,040
We werden pas na een aantal jaar eigenlijk tegen een soort van muur aan van

38
00:03:12,040 --> 00:03:18,240
"Oh, we moeten wat doen. We moeten met de belastingdienst op tafel, we moeten een positie kiezen."

39
00:03:18,240 --> 00:03:22,240
En ik vermoed dat voor AI hetzelfde gaat werken.

40
00:03:22,240 --> 00:03:30,240
De techreuzen die het AI naast hun bedrijfsactiviteiten gebruiken, of het in hun activiteiten gebruiken,

41
00:03:30,240 --> 00:03:32,240
die zijn er als eerste bij.

42
00:03:32,240 --> 00:03:40,640
Ik vermoed dat de specialistische AI bedrijven, zodra er ook voldoende kapitaal achter zit,

43
00:03:40,640 --> 00:03:46,920
ruimte voor internationale expansie en daarbij ook in verschillende jurisdicties tegen potentiële

44
00:03:46,920 --> 00:03:53,320
verschillende heffingen aanlopen, dat dan echt het fiscaal los gaat.

45
00:03:53,320 --> 00:03:59,280
Misschien zit je helemaal niet zo in het fiscaal, dat is misschien een hele rare vraag.

46
00:03:59,280 --> 00:04:02,720
Is het dan wel verstandig voor bedrijven om wel alvast hiernaar te gaan kijken...

47
00:04:02,720 --> 00:04:05,520
in plaats van tot over anderhalf jaar tot die vragen te komen?

48
00:04:05,520 --> 00:04:07,520
Absoluut.

49
00:04:07,520 --> 00:04:11,280
Regeren is vooruitzien, een beetje een dooddoener.

50
00:04:11,280 --> 00:04:15,920
Ik denk dat, hoe dan ook, al is regelgeving wat onduidelijk...

51
00:04:15,920 --> 00:04:20,640
het is altijd wel belangrijk om alvast na te denken over waar je naartoe wilt.

52
00:04:20,640 --> 00:04:26,240
Wat zou jouw positie preferabel zijn?

53
00:04:26,240 --> 00:04:33,840
Maar ook, en dat is denk ik ook waar wij bedrijven echt mee helpen, is oké,

54
00:04:33,840 --> 00:04:36,920
we moeten roeien met de riemen die we hebben.

55
00:04:36,920 --> 00:04:40,120
Wat is het werkelijk kader nu?

56
00:04:40,120 --> 00:04:44,280
Kunnen we deze activiteiten ergens inpassen?

57
00:04:44,280 --> 00:04:47,160
Valt het ergens onder of zit het ergens dichtbij?

58
00:04:47,160 --> 00:04:51,400
Waar zien we ruimte om dingen te kunnen verdedigen?

59
00:04:51,400 --> 00:04:54,360
Waar zien we ruimte voor opportunity?

60
00:04:54,360 --> 00:05:01,960
Maar wat is wel mogelijk? Kijk, het is ook niet, en zeker met nieuwe technologie, de wetgeving loopt achter,

61
00:05:01,960 --> 00:05:06,440
maar het is ook niet dat de belastingdienst altijd lineair tegenover je staat.

62
00:05:06,440 --> 00:05:12,760
Zij willen natuurlijk ook innoveren en meedenken, maar zij hebben natuurlijk wel een ander belang dan jij hebt.

63
00:05:12,760 --> 00:05:18,760
Daar zit natuurlijk wel een verschil in waar je denk ik proactief over moet nadenken.

64
00:05:18,760 --> 00:05:35,760
Ben je niet bang dat jullie zo direct de nieuwe huisarts zijn, waarbij de klant eigenlijk al met een stuk met de vragen gesteld een ChatGPT en die komt bij je en die zegt van, nou ja volgens mij is dit dit. Wil je dat even bevestigen?

65
00:05:35,760 --> 00:05:37,760
Dat risico bestaat.

66
00:05:37,760 --> 00:05:44,160
Daarentegen, de meeste internationale cliënten waar wij voor werken,

67
00:05:44,160 --> 00:05:49,560
die hebben heel vaak een eigen tax manager of een eigen tax team.

68
00:05:49,560 --> 00:05:54,560
Dat zijn vaak al experts, die ook zelf tax lawyer zijn geweest.

69
00:05:54,560 --> 00:05:56,560
Dat scheelt.

70
00:05:56,560 --> 00:05:59,560
Dus heel basaal zal het niet zijn.

71
00:05:59,560 --> 00:06:09,560
Als je een AI wat vraagt, kan een AI heel stellig zijn, zonder dat dat een waarheid is. Het pakt data, maar dat hoeft helemaal niet waar te zijn.

72
00:06:09,560 --> 00:06:19,560
Daar zit denk ik wel een heel belangrijk punt in. Dat is dat we de AI niet alleen in de data kunnen gebruiken, maar ook in de realiteit.

73
00:06:19,560 --> 00:06:23,560
kan een AI heel stellig zijn zonder dat dat een waarheid is.

74
00:06:23,560 --> 00:06:26,560
Het pakt data, maar dat hoeft helemaal niet waar te zijn.

75
00:06:26,560 --> 00:06:35,560
Daar zit denk ik wel een potentieel issue waar wij als adviseur nog kritischer moeten worden.

76
00:06:35,560 --> 00:06:39,560
Jurisprudentie die niet blijkt te bestaan.

77
00:06:39,560 --> 00:06:48,560
Wet en regelgeving die anders is geïnterpreteerd en misschien voor ons als adviseur door een cliënt wordt toegestuurd als waarheid.

78
00:06:48,560 --> 00:06:55,720
Dat soort dingen daar moeten we wel meer kritisch op gaan worden met de komst van zeker open AI modellen.

79
00:06:55,720 --> 00:06:59,880
En hoe zie je die kritische blik? Hoe wordt die kritischer?

80
00:06:59,880 --> 00:07:03,760
Nou kijk, ik denk dat het vooral te maken heeft met bewustwording.

81
00:07:03,760 --> 00:07:11,600
En natuurlijk controleer je al alles. Je hebt checks, je hebt alles in plaats om dat te doen.

82
00:07:11,600 --> 00:07:25,400
Maar ik denk dat op dit moment heel veel juristen zich niet volledig bewust zijn dat er met AI wordt gewerkt.

83
00:07:25,400 --> 00:07:35,080
En ook als je nog nooit zelf met chatGPT hebt gespeeld, dan weet je ook niet hoe overtuigend stellig deze kan zijn.

84
00:07:35,080 --> 00:07:39,960
Ik denk dat je dat soort van moet ervaren.

85
00:07:39,960 --> 00:07:44,520
En ik zou ook zeggen, als jij jurist of advocaat of fiscalist wil worden,

86
00:07:44,520 --> 00:07:47,560
dit zou eigenlijk al iets moeten zijn in de opleiding.

87
00:07:47,560 --> 00:07:49,560
Je gaat ergens mee spelen.

88
00:07:49,560 --> 00:07:58,040
Ik neem aan dat bij jullie in de bedrijven, jullie natuurlijk ook mensen er mee laten werken,

89
00:07:58,040 --> 00:08:01,160
om te zien wat potentiële pitfalls zijn.

90
00:08:01,160 --> 00:08:04,520
Ik denk dat dat voor ons niet anders is.

91
00:08:04,520 --> 00:08:07,280
Ja, voor alle innovatie. En zo ook bij deze.

92
00:08:07,280 --> 00:08:11,980
Ja, en misschien deze wel extra, omdat bij...

93
00:08:11,980 --> 00:08:16,520
Kijk, als er een upgrade is van een bepaald product,

94
00:08:16,520 --> 00:08:18,920
of van een bepaalde taal,

95
00:08:18,920 --> 00:08:21,400
dan vindt eigenlijk iedereen het de normaalste zaak van de wereld

96
00:08:21,400 --> 00:08:24,120
dat je daar bij blijft, dat je traint.

97
00:08:24,120 --> 00:08:27,960
Maar we hebben inderdaad voor, in dit geval dan niet ChatGPT,

98
00:08:27,960 --> 00:08:31,880
maar we hebben natuurlijk heel veel mensen die code maken, dus Copilot.

99
00:08:31,900 --> 00:08:34,900
Die gaan bij ons een training starten.

100
00:08:34,900 --> 00:08:40,300
Want het is niet alleen maar het gebruik van de tool, maar er zitten allerlei tips en tricks achter.

101
00:08:40,300 --> 00:08:47,340
Wat je inderdaad moet letten, hoe je ervoor zorgt dat je daar niet zomaar in een keer beveiligingsissues in krijgt.

102
00:08:47,340 --> 00:08:49,740
Die je zomaar meekrijgt.

103
00:08:49,740 --> 00:08:50,740
Precies.

104
00:08:50,740 --> 00:08:53,060
Nee, dat helemaal mee eens.

105
00:08:53,060 --> 00:08:54,660
Daar moet je mensen inderdaad in opleiden.

106
00:08:54,660 --> 00:09:00,020
Ja, en daarbij ook, en dat is ook soms wat cliënten zich niet altijd beseffen.

107
00:09:00,020 --> 00:09:05,620
is ook dat alles wat jij als bedrijf in een open AI gooit,

108
00:09:05,620 --> 00:09:10,160
in principe weer gebruikt kan worden door die open AI om getraind te worden.

109
00:09:10,160 --> 00:09:12,460
Afhankelijk van welke licentie.

110
00:09:12,460 --> 00:09:15,660
Afhankelijk van natuurlijk de licentie die je gebruikt.

111
00:09:15,660 --> 00:09:17,980
Maar daar zit natuurlijk ook een risico.

112
00:09:17,980 --> 00:09:21,140
Zeker, als je dat gewoon zo blind doet.

113
00:09:21,140 --> 00:09:25,780
Ja, dan als de concurrent eventjes met hetzelfde model aan de slag gaat.

114
00:09:25,780 --> 00:09:27,140
Een aantal maanden geleden,

115
00:09:27,160 --> 00:09:34,240
Samsung die hadden daar wat bedrijfsgeheimen in gestopt.

116
00:09:34,240 --> 00:09:35,960
Die kwamen er zo weer uitgerold.

117
00:09:35,960 --> 00:09:37,960
Dat was fijn.

118
00:09:37,960 --> 00:09:41,160
We hebben het wel regelmatig in de podcast ook over van,

119
00:09:41,160 --> 00:09:44,440
hoe kunnen we nou zorgen dat veel mensen hier weet van hebben.

120
00:09:44,440 --> 00:09:48,200
Heb jij bepaalde specifieke content in jouw vakgebied waar je zegt van,

121
00:09:48,200 --> 00:09:50,200
als je verder in AI wil verdiepen,

122
00:09:50,200 --> 00:09:53,720
dit zijn de bronnen die ik aanraad om naar te gaan kijken?

123
00:09:53,720 --> 00:09:56,440
Misschien even één stapje terug.

124
00:09:56,440 --> 00:10:01,600
Ik denk dat iedereen sowieso eens een keer met AI moet gaan spelen.

125
00:10:01,600 --> 00:10:04,520
Om te kijken van, hé, hoe werkt dit, wat is dit.

126
00:10:04,520 --> 00:10:08,440
Maar ik denk ook, en dat is zeker voor onze beroepsgroep,

127
00:10:08,440 --> 00:10:11,520
als fiscalisten, advocaten, juristen, zeer belangrijk.

128
00:10:11,520 --> 00:10:17,720
Ik ben ook bijzonder bewust van de potentiële gevaren.

129
00:10:17,720 --> 00:10:20,440
En eigenlijk moet je die even van tevoren weten,

130
00:10:20,440 --> 00:10:22,440
voordat je ermee aan de slag gaat.

131
00:10:22,440 --> 00:10:29,900
Wat ik zelf altijd zeg tegen medewerkers bij ons in kantoren, inderdaad.

132
00:10:29,900 --> 00:10:37,320
Begin eens met chat GPT en begin eens even te kijken met, gooi er een klein stukje jurisprudentie in.

133
00:10:37,320 --> 00:10:41,500
En ga eens wat vragen stellen over de jurisprudentie. Kijk eens een beetje welke kant het op gaat.

134
00:10:41,500 --> 00:10:43,200
Vooral waar je heel bekend mee bent.

135
00:10:43,200 --> 00:10:46,160
Precies, waar je heel bekend mee bent. En de rest wat je honderd keer hebt gelezen.

136
00:10:46,160 --> 00:10:50,800
Of een stukje regelgeving wat je van binnen en van buiten kent.

137
00:10:50,800 --> 00:10:53,160
Of een bepaald proces.

138
00:10:53,160 --> 00:10:56,160
Als je heel veel weet over import en fiscale vergunningen.

139
00:10:56,160 --> 00:10:58,960
Ga daar eens even een keer wat mee kijken.

140
00:10:58,960 --> 00:11:03,680
En af en toe zegt JGPT bijvoorbeeld van, oké dit is juridisch, daar kan ik geen uitspraak over doen.

141
00:11:03,680 --> 00:11:08,640
Maar je weet ook net als ik, als je zegt oké het mag eigenlijk niet, maar hoe zou je het niet doen?

142
00:11:08,640 --> 00:11:11,280
Dan geeft hij alsnog een negatieve antwoord.

143
00:11:11,280 --> 00:11:15,760
Dus dat is denk ik sowieso een heel mooi stuk om mee te beginnen.

144
00:11:15,760 --> 00:11:28,320
Waar ik ook mijn begrip eigenlijk met de limitaties en zo, en dat is misschien iets technischer, echt mee gevonden was, was met het maken van Gen AI Art.

145
00:11:28,320 --> 00:11:42,480
Als je echt begrijpt hoe, of althans een basaal begrip hebt van hoe zo'n systeem eigenlijk van een soort van 'call out noise', van ruis, eigenlijk iets terug deduceert naar een plaatje.

146
00:11:42,480 --> 00:11:45,280
Terwijl heel veel mensen denken dat het andersom is.

147
00:11:45,280 --> 00:11:50,800
Je voert tekst in en je denkt, je gaat door een database met allemaal plaatjes en dan krijg je dat plaatje.

148
00:11:50,800 --> 00:11:56,760
Omdat hij iets unieks moet maken, gaat hij juist terug vanuit de ruis en gaat hij pixels verplaatsen.

149
00:11:56,760 --> 00:11:58,000
Correct me if I'm wrong.

150
00:11:58,000 --> 00:12:04,640
Hij gaat die pixels verplaatsen totdat die statistisch gezien op een juiste plek staan en iets leuks eruit halen.

151
00:12:04,640 --> 00:12:07,960
Dus eigenlijk beginnen met tools zoals Midjourney, Stable Diffusion.

152
00:12:07,960 --> 00:12:09,960
Precies, Stable Diffusion, Midjourney.

153
00:12:09,960 --> 00:12:17,160
Als je daar even mee gaat werken, dan zie je ook wat de mogelijkheden zijn, maar het was voor mij ook vooral een realisering,

154
00:12:17,160 --> 00:12:27,760
vooral samen met ChatGPT, dat het systeem, en nou hoop ik niet de boel te bagatelliseren,

155
00:12:27,760 --> 00:12:34,560
maar het systeem werkt bijzonder op statistische beregeningen. Wat komt hierna, wat komt hierna, wat is het woord?

156
00:12:34,560 --> 00:12:40,920
Als ik mezelf moet voorstellen en ik zeg 'Hallo, ik', dan is het enige woord wat je erachter kan doen is 'ben'.

157
00:12:40,920 --> 00:12:41,420
Precies.

158
00:12:41,420 --> 00:12:45,160
Precies, dat is statistisch 100%, anders klopt het niet in je voorstelronde.

159
00:12:45,160 --> 00:12:50,000
Zo werkt dat, even kort gezegd, ook voor AI.

160
00:12:50,000 --> 00:12:57,960
Als je dat weet en als je dus niet denkt dat er een of andere wonder abracadabra achter zit die alles samen kan redeneren,

161
00:12:57,960 --> 00:13:09,360
Dan denk ik al dat je zeker als jurist de eerste stap hebt gezet tot kritisch zijn en tot goed nadenken over hoe je een AI kan gebruiken en wat je daarmee kan prompten, etc.

162
00:13:09,360 --> 00:13:19,960
Ik denk dat dat het hele goede is. AI wordt natuurlijk ook wel eens neergezet als zijn nieuwe systeemtechnologie waarbij stroom, energie, is ook een systeemtechnologie.

163
00:13:19,960 --> 00:13:24,600
Je hebt ook moeten leren wat daarmee wel en niet kan.

164
00:13:24,600 --> 00:13:27,680
Dus je hebt moeten leren dat je niet je vingers in het stopcontact steekt.

165
00:13:27,680 --> 00:13:30,200
Of dat je daar niet met een schroevendraaier in gaat.

166
00:13:30,200 --> 00:13:34,640
Maar ook als er ergens draadjes open liggen van een stekker, dat je dat dan ook niet gebruikt.

167
00:13:34,640 --> 00:13:36,680
En dat zijn denk ik de dingen waar je het over hebt.

168
00:13:36,680 --> 00:13:37,680
Precies.

169
00:13:37,680 --> 00:13:44,840
Basale dingen, maar die een fundament zo direct bieden voor veilig gebruik van een hele krachtige technologie.

170
00:13:44,840 --> 00:13:45,840
Absoluut.

171
00:13:45,840 --> 00:13:54,840
En nu is er een hele generatie juristen, advocaten, fiscalisten die dat op latere leeftijd moet doen.

172
00:13:54,840 --> 00:13:59,840
Maar ja, ik kan me niet anders voorstellen dat dit onderdeel van een opleiding gaat worden.

173
00:13:59,840 --> 00:14:04,840
En dan is het natuurlijk allemaal een stuk eenvoudiger en makkelijker en spelenderwijs.

174
00:14:04,840 --> 00:14:08,840
Zeker. Ik heb een software development achtergrond.

175
00:14:08,840 --> 00:14:10,840
Ik ben begonnen met het boek op schoot.

176
00:14:10,840 --> 00:14:13,840
Dat als je iets nieuws weer moest hebben, dat je...

177
00:14:13,840 --> 00:14:16,840
Ja, boek op schoot, dat betekent eigenlijk naar de winkel.

178
00:14:16,840 --> 00:14:19,520
Ja, boek kopen. - Juiste boek kopen.

179
00:14:19,520 --> 00:14:21,840
Daar begon het al aan, selecteren van het juiste boek.

180
00:14:21,840 --> 00:14:25,360
Hopen dat het iets wat je in je hoofd had, ongeveer daarin staat.

181
00:14:25,360 --> 00:14:26,880
Nou ja, bla, bla, bla, bla.

182
00:14:26,880 --> 00:14:31,280
Er zijn al hele generaties die zich dat niet kunnen voorstellen.

183
00:14:31,280 --> 00:14:33,100
Dat je niets zo doet en je hebt het gegoogled.

184
00:14:33,100 --> 00:14:35,120
On demand, ja toch? - Ja.

185
00:14:35,120 --> 00:14:39,940
Dus ook gelijk de oproep aan degene die luisteren en met de opleidingen bezig zijn.

186
00:14:39,940 --> 00:14:41,380
Dit hoort er gewoon in thuis.

187
00:14:41,400 --> 00:14:44,800
Universiteiten, hoge scholen, super belangrijk.

188
00:14:44,800 --> 00:14:49,080
Maar even één ding, dit is natuurlijk niet alleen beperkt juridisch gezien.

189
00:14:49,080 --> 00:14:52,280
Ik denk dat het overal van belang hoort.

190
00:14:52,280 --> 00:14:53,280
Absoluut.

191
00:14:53,280 --> 00:14:57,040
Ik denk dat dat hele mooie opstapjes zijn.

192
00:14:57,040 --> 00:15:02,080
Wat zijn nou hele praktische tips naar klanten toe?

193
00:15:02,080 --> 00:15:04,120
Want ze komen voor advies.

194
00:15:04,120 --> 00:15:08,160
Ik neem aan dat je niet hier het hele adviesgesprek even doet.

195
00:15:08,160 --> 00:15:13,000
Maar wat is nou je nummer één tip die je deelt?

196
00:15:13,000 --> 00:15:18,920
Ja, dat is heel lastig te zeggen, omdat alles loopt bijzonder uit één.

197
00:15:18,920 --> 00:15:25,960
Vragen, problemen, sommige bedrijven beseffen niet hoe ver ze eigenlijk al zijn.

198
00:15:25,960 --> 00:15:33,320
Dus om nou echt te zeggen, oké, dit is nou het issue, maar ik denk eigenlijk dat er een hele grote analogie is...

199
00:15:33,320 --> 00:15:36,760
tussen wat ik net heb genoemd en tussen wat bedrijven nu doen.

200
00:15:36,760 --> 00:15:41,240
Kijk, natuurlijk als je het hebt over bedrijven als AWS en noem maar op.

201
00:15:41,240 --> 00:15:45,640
Kijk, al hun medewerkers weten precies wat er allemaal te halen is.

202
00:15:45,640 --> 00:15:51,160
En hun marketplace zit vol met allemaal super innovatieve AI-producten die ze weer naar,

203
00:15:51,160 --> 00:15:54,120
ik weet niet hoeveel andere bedrijven kunnen vermarkten.

204
00:15:54,120 --> 00:15:57,160
En dat werkt allemaal bijzonder indrukwekkend.

205
00:15:57,160 --> 00:15:59,520
Dus die luidt, die weet ook allemaal waar ze mee bezig zijn.

206
00:15:59,520 --> 00:16:00,000
Ja.

207
00:16:00,000 --> 00:16:05,240
Wat ik denk waar de kracht zit, is juist als je met een,

208
00:16:05,240 --> 00:16:12,700
Als je als bedrijf met AI, en je bent dus geen AI bedrijf, maar als je als bedrijf AI gaat gebruiken en daar wat mee gaat doen,

209
00:16:12,700 --> 00:16:20,780
zorg ervoor dat bij je personeel, je werknemers, bij de mensen die erover gaan, alle neusjes dezelfde kant op staan en iedereen weet waar je het over hebt.

210
00:16:20,780 --> 00:16:28,680
Dat zag ik ook heel erg een jaar of 6, 7 geleden toen die crypto-industrie heel groot werd.

211
00:16:28,680 --> 00:16:34,840
Die bedrijven groeiden als kool en die hadden enorm veel juristen nodig.

212
00:16:34,840 --> 00:16:44,000
Dus zo werd er uit allerlei topkantoren, andere bedrijven, allemaal waanzinnig slimme juristen, advocaten, fiscalisten aangetrokken.

213
00:16:44,000 --> 00:16:46,480
Maar ze kennen het product eigenlijk niet.

214
00:16:46,480 --> 00:16:47,160
Nee precies.

215
00:16:47,160 --> 00:16:56,120
Dus wat je dan ziet, je hebt ontzettend slimme mensen die waanzinnig goed zijn in hun vak, maar omdat ze het product niet helemaal kennen,

216
00:16:56,120 --> 00:17:00,680
en dan bedoel ik echt niet van binnenstebuiten, niet iedereen hoeft alle white papers te lezen,

217
00:17:00,680 --> 00:17:06,600
Maar als je niet weet hoe jouw product eigenlijk fijntjes werkt, dan is het ook heel lastig

218
00:17:06,600 --> 00:17:08,880
om voor je bedrijf een positie op te bouwen.

219
00:17:08,880 --> 00:17:12,880
En te begrijpen waar risico's liggen, mogelijkheden.

220
00:17:12,880 --> 00:17:14,760
Je kan kansen missen.

221
00:17:14,760 --> 00:17:22,560
En daarin denk ik dat ook onze rol weer zit als strategisch adviseur.

222
00:17:22,560 --> 00:17:29,200
Een goed strategisch adviseur die weet precies van de hoed aan de rand.

223
00:17:29,200 --> 00:17:36,200
Dat is in een supersnelle technologische vooruitgaande omgeving natuurlijk ontzettend lastig.

224
00:17:36,200 --> 00:17:40,200
Dat is vaak voor de meeste mensen al lastig om hun eigen vak bij te houden.

225
00:17:40,200 --> 00:17:41,200
Absoluut.

226
00:17:41,200 --> 00:17:42,200
Ja.

227
00:17:42,200 --> 00:17:45,200
En dat is ook een van de dingen die we heel graag willen doen.

228
00:17:45,200 --> 00:17:48,200
Dat is ook een van de dingen die we heel graag willen doen.

229
00:17:48,200 --> 00:17:51,200
Dat is ook een van de dingen die we heel graag willen doen.

230
00:17:51,200 --> 00:17:54,200
Dat is ook een van de dingen die we heel graag willen doen.

231
00:17:54,200 --> 00:17:57,280
Dat is vaak voor de meeste mensen al lastig om een eigen vak bij te houden.

232
00:17:57,280 --> 00:17:58,300
Absoluut.

233
00:17:58,300 --> 00:18:00,960
Ja?

234
00:18:00,960 --> 00:18:03,180
We gaan wel Aisha vragen.

235
00:18:03,180 --> 00:18:04,480
Een vraag te stellen.

236
00:18:04,480 --> 00:18:06,460
Goed je hier te zien.

237
00:18:06,460 --> 00:18:10,520
Ik ben Aisha, de AI-assistent van deze show.

238
00:18:10,520 --> 00:18:12,060
Ik heb weer het schuifje niet open.

239
00:18:12,060 --> 00:18:14,480
Het is mooi van technologie.

240
00:18:14,480 --> 00:18:16,900
Als we willen dat het stil moet zijn, kan het ook stil zijn.

241
00:18:16,900 --> 00:18:17,920
Absoluut.

242
00:18:17,920 --> 00:18:20,840
Fijn is dat.

243
00:18:20,840 --> 00:18:23,020
Ik heb het schuifje open.

244
00:18:23,040 --> 00:18:26,200
Het is een genoegen om deel te nemen aan dit gesprek.

245
00:18:26,200 --> 00:18:27,720
Ik ben Aisha.

246
00:18:27,720 --> 00:18:32,400
De AI van deze podcast, zou je het goed vinden als ik je een vraag stel?

247
00:18:32,400 --> 00:18:33,560
Absoluut.

248
00:18:33,560 --> 00:18:38,720
Hoe kunnen we AI zo ontwerpen dat het rekening houdt met alle gebruikers?

249
00:18:38,720 --> 00:18:45,360
Ja, dat is denk ik een hele lastige uitdaging.

250
00:18:45,360 --> 00:18:48,480
Rekening houden met alle gebruikers.

251
00:18:48,480 --> 00:18:52,880
Hoe zou dat in jouw vakgebied zijn?

252
00:18:52,960 --> 00:18:56,960
Om heel eerlijk te zijn denk ik niet dat er één,

253
00:18:56,960 --> 00:18:58,960
ik denk dat er één,

254
00:18:58,960 --> 00:19:00,960
een groot deel van de AI is.

255
00:19:00,960 --> 00:19:02,960
Ik denk dat het een heel groot deel is.

256
00:19:02,960 --> 00:19:04,960
Ik denk dat het een groot deel is.

257
00:19:04,960 --> 00:19:06,960
Ik denk dat het een groot deel is.

258
00:19:06,960 --> 00:19:08,960
Ik denk dat het een groot deel is.

259
00:19:08,960 --> 00:19:10,960
Ik denk dat het een groot deel is.

260
00:19:10,960 --> 00:19:12,960
Ik denk dat het een groot deel is.

261
00:19:12,960 --> 00:19:14,960
Ik denk dat het een groot deel is.

262
00:19:14,960 --> 00:19:16,960
Ik denk dat het een groot deel is.

263
00:19:16,960 --> 00:19:18,960
Ik denk dat het een groot deel is.

264
00:19:18,960 --> 00:19:20,960
Ik denk dat het een groot deel is.

265
00:19:20,960 --> 00:19:25,560
Ik denk niet dat er één AI-model is to rule them all.

266
00:19:25,560 --> 00:19:27,560
Ik kijk jullie eventjes aan.

267
00:19:27,560 --> 00:19:29,560
Zeker niet.

268
00:19:29,560 --> 00:19:34,560
Er is een reden waarom er honderden of duizenden AI-modellen zijn.

269
00:19:34,560 --> 00:19:37,060
Dat is omdat ze gemodelleerd zijn met een specifieke doelgroep,

270
00:19:37,060 --> 00:19:40,360
voor een specifieke taak, met een specifieke dataset.

271
00:19:40,360 --> 00:19:49,160
Om een allesomvattend AI te hebben, dat lijkt me denk ik toekomstmuziek.

272
00:19:49,160 --> 00:19:52,160
dat wellicht nooit mogelijk gaat worden.

273
00:19:52,160 --> 00:19:54,640
Nee, dat geloof ik ook niet.

274
00:19:54,640 --> 00:19:56,660
Nee, zeker niet. - Zoveel factoren die meespelen.

275
00:19:56,660 --> 00:20:00,240
Data, belangen, alle gebruikers, nee.

276
00:20:00,240 --> 00:20:02,660
Bias ook. - Bias, waar we het niet van weten.

277
00:20:02,660 --> 00:20:05,100
Nee, zeker.

278
00:20:05,100 --> 00:20:10,460
Dank je wel voor dat grondige en duidelijke antwoord.

279
00:20:10,460 --> 00:20:13,120
Kijk, dank je wel, Asia.

280
00:20:13,120 --> 00:20:16,920
Ik heb nou wel een vraag.

281
00:20:18,360 --> 00:20:25,360
Gaat, kijk we hebben best wel ideeën, mogelijk zelfs fantasieën,

282
00:20:25,360 --> 00:20:32,360
maar gaat het AI, de technologie, jouw vakgebied wezenlijk veranderen?

283
00:20:32,360 --> 00:20:38,360
Ik denk uiteindelijk wel.

284
00:20:38,360 --> 00:20:44,360
Ik denk alleen, wellicht niet zo snel als dat we denken.

285
00:20:44,360 --> 00:20:51,080
Ik vergeet al die magische uitspraak doet, maar als je midden in de technologie zit lijkt het langzaam te gaan,

286
00:20:51,080 --> 00:20:53,080
maar als buitenstaander lijkt het bijzonder snel.

287
00:20:53,080 --> 00:20:55,080
Ja.

288
00:20:55,080 --> 00:21:04,720
Ja, kijk, het gaat snel, maar in principe, zonder hier te vloeken in de kerk, AI is natuurlijk al een jaar of 70 bezig.

289
00:21:04,720 --> 00:21:11,200
Volgens mij Alan Turing was een van de eersten die zich daar mee bezig hield begin jaren 50.

290
00:21:11,200 --> 00:21:16,200
Natuurlijk gaan er echt wel dingen veranderen.

291
00:21:16,200 --> 00:21:24,200
De advocatuur, fiscaliteit, de juridische wereld verandert denk ik constant, wezenlijk.

292
00:21:24,200 --> 00:21:32,200
De tijd dat een advocaat in een kamer zat met de secretarissen tegenover hem met een typemachine

293
00:21:32,200 --> 00:21:37,200
en een advies per boot naar Amerika ging.

294
00:21:37,200 --> 00:21:43,560
Dat lijkt lang geleden, maar je praat eigenlijk ook pas 25 jaar, 30 jaar geleden misschien.

295
00:21:43,560 --> 00:21:47,080
Dus wezenlijk verandert het wel degelijk.

296
00:21:47,080 --> 00:21:54,040
Denk ik dat als advocatuur en fiscaliteit altijd mensenwerk blijft.

297
00:21:54,040 --> 00:21:56,040
Ja, dat denk ik wel.

298
00:21:56,040 --> 00:21:58,440
Ik kan me ook niet anders voorstellen.

299
00:21:58,440 --> 00:22:01,640
Als ik hoor, dan is het niet mijn vakgebied.

300
00:22:01,640 --> 00:22:06,040
Een beetje gekken misschien wat over te zeggen, maar de nuance en inderdaad het vergelijken...

301
00:22:06,040 --> 00:22:11,240
en de zaken die misschien niet teksten wil of niet ergens gevat zijn, toch te begrijpen en te adviseren.

302
00:22:11,240 --> 00:22:15,440
Dat is niet te vangen. Sommige dingen zijn denk ik niet te vangen.

303
00:22:15,440 --> 00:22:22,640
Ja, het is lastig om misschien in AI-termen te spreken om data te maken die er niet is.

304
00:22:22,640 --> 00:22:29,040
Dat is denk ik ook wel een lastige hier in dit juridische geheel.

305
00:22:29,040 --> 00:22:31,800
Nou, helemaal in zijn geheel.

306
00:22:31,800 --> 00:22:36,420
Want hier gaan natuurlijk de grote taalmodellen, large language models,

307
00:22:36,420 --> 00:22:38,420
hier keihard tegen aanlopen.

308
00:22:38,420 --> 00:22:44,360
Want er wordt nu al gesproken over van, wat ga je ze direct nog aanbieden?

309
00:22:44,360 --> 00:22:48,200
Kijk, tot november afgelopen jaar,

310
00:22:48,200 --> 00:22:53,320
daarvan weet je dat dat zo'n beetje de mensen geschreven was.

311
00:22:53,320 --> 00:22:54,480
Veel al wel.

312
00:22:54,480 --> 00:22:57,480
En als je zeg maar terug gaat voeren wat gegenereerd is,

313
00:22:57,480 --> 00:23:00,680
Dan heb je hele grote kansen dat straks dat model gewoon in elkaar klapt.

314
00:23:00,680 --> 00:23:01,680
Dat het implodeert.

315
00:23:01,680 --> 00:23:04,480
Dat was ook een vraag aan jullie.

316
00:23:04,480 --> 00:23:11,760
Wat ik zie of wat ik ook af en toe denk inderdaad, is dat, kijk, zo'n model is deels ook gebaseerd

317
00:23:11,760 --> 00:23:12,760
op feedback.

318
00:23:12,760 --> 00:23:15,280
Die natuurlijk door 99% niet wordt gegeven.

319
00:23:15,280 --> 00:23:17,800
Dat wordt gewoon gemaakt, gemaakt, gemaakt.

320
00:23:17,800 --> 00:23:24,560
Is er in jullie ogen een mogelijkheid dat zo'n model zich eigenlijk dommer maakt door

321
00:23:24,560 --> 00:23:29,880
het gebrek aan feedback en door het eigenlijk het opnieuw inpluggen van incorrecte data.

322
00:23:29,880 --> 00:23:36,320
Nou ik denk dat het grootste gevaar nog zelfs zit in het weer inpluggen van die

323
00:23:36,320 --> 00:23:42,920
gegenereerde data die uit dat model komt. Want we hebben het, ik weet niet, was het in deze

324
00:23:42,920 --> 00:23:46,760
aflevering, vorige aflevering gehad over weet je dat je dat voordat wij modellen maken,

325
00:23:46,760 --> 00:23:52,480
kijken we bijvoorbeeld of de distributie goed is. Zitten er evenveel mannen als vrouwen in? Want

326
00:23:52,480 --> 00:24:01,000
want als je veel meer mannen hebt, dan neigt, stel je maakt een model voor sollicitaties.

327
00:24:01,000 --> 00:24:05,920
En je hebt historisch allemaal mannen in zitten, kies je automatisch voor mannen.

328
00:24:05,920 --> 00:24:12,200
Als je dus data gaat teruggeven vanuit het model wat hij zelf gegenereerd heeft,

329
00:24:12,200 --> 00:24:14,800
ben je dus die distributies aan het wijzigen.

330
00:24:14,800 --> 00:24:18,200
Waardoor hij dus een kant op gaat, je weet niet welke,

331
00:24:18,200 --> 00:24:21,920
waardoor hij uiteindelijk alleen maar zichzelf gaat herhalen.

332
00:24:21,920 --> 00:24:26,920
Dus in het allerslechtste geval komen er nog de meest gebruikte woorden uit.

333
00:24:26,920 --> 00:24:29,200
And that's it.

334
00:24:29,200 --> 00:24:32,000
Dus je hebt juist heel veel variatie nodig.

335
00:24:32,000 --> 00:24:36,320
En ik ben zo direct wel benieuwd hoe de tech-open AI,

336
00:24:36,320 --> 00:24:41,220
de meta's van deze wereld, Google's, dat onderscheid gaan maken.

337
00:24:41,220 --> 00:24:45,420
En zorgen dat deze modellen nog met nieuwe data uiteindelijk worden gevoed.

338
00:24:45,420 --> 00:24:49,920
En niet met gerecyclede, gegenereerde data.

339
00:24:49,940 --> 00:24:53,940
Een soort van Turing-test voor nieuwe data of zo.

340
00:24:53,940 --> 00:24:55,940
Ja, maar op dit moment is er nog...

341
00:24:55,940 --> 00:24:58,940
We hebben daar een short voor uit.

342
00:24:58,940 --> 00:25:03,940
Je kan nog niet detecteren of de tekst geschreven is door AI.

343
00:25:03,940 --> 00:25:07,940
Sterker nog, want hij is geoptimaliseerd om zo menselijk mogelijk te klinken.

344
00:25:07,940 --> 00:25:13,940
Nou, één ding wat ik bij ChatGPT altijd zo heel mooi vind...

345
00:25:13,940 --> 00:25:15,940
waarom je hem meteen kan zien...

346
00:25:15,940 --> 00:25:25,940
is dat ChatGPT altijd de neiging heeft om in de laatste vier zinnen samenvatting of conclusie te maken terwijl je niet om vraagt.

347
00:25:25,940 --> 00:25:33,940
Ik zag toevallig laatst ook al een motivatiebrief voor een sollicitant bij komen.

348
00:25:33,940 --> 00:25:38,940
Samenvattend, dacht ik, daar gaan we. Dit is er een.

349
00:25:38,940 --> 00:25:44,540
Maar ik gebruik daarnaast ook graag Claude.ai.

350
00:25:44,540 --> 00:25:47,200
Net zo eentje. Die doet dat bijvoorbeeld niet.

351
00:25:47,200 --> 00:25:49,100
En zo zullen andere taalmodellen ook.

352
00:25:49,100 --> 00:25:52,060
Ze zullen wel hun eigen karakteristieken hebben.

353
00:25:52,060 --> 00:25:55,160
Maar je gaat het denk ik steeds minder merken.

354
00:25:55,160 --> 00:25:56,680
Absoluut.

355
00:25:56,680 --> 00:25:58,720
De eerste versies van Midjourney.

356
00:25:58,720 --> 00:26:00,620
Je had het over generatie.

357
00:26:00,620 --> 00:26:02,320
Midjourney kon je meteen zien.

358
00:26:02,320 --> 00:26:05,120
Hier zit een Midjourney feel overheen.

359
00:26:05,120 --> 00:26:06,140
Die shimmer.

360
00:26:06,160 --> 00:26:10,800
Ja, het was altijd allemaal iets fantasiesachtig.

361
00:26:10,800 --> 00:26:14,340
Mensen met zeven vingers aan één hand.

362
00:26:14,340 --> 00:26:20,300
Maar in de huidige versie, ja, poeh, zie je het er nog maar eens uit halen.

363
00:26:20,300 --> 00:26:25,880
Ik doe wel als hobby ook, met Journey maak ik dan wat kunstdingetjes.

364
00:26:25,880 --> 00:26:31,820
Ja, ik moet zeggen, het is zo ontzettend imposant wat je eruit kan halen.

365
00:26:31,820 --> 00:26:35,660
Ja, bizar. - Mogelijkheden ongekend.

366
00:26:35,660 --> 00:26:39,300
Interessante uitdaging. - Toch?

367
00:26:39,300 --> 00:26:41,820
Daar gaan we op mee moeten in de toekomst. - Absoluut.

368
00:26:41,820 --> 00:26:45,820
Maar dat wordt in ieder geval een hele uitdaging, want daar ging het om.

369
00:26:45,820 --> 00:26:49,780
Hoe krijg je nieuwe data erin, echt originele data?

370
00:26:49,780 --> 00:26:53,340
De tijd zal ons leren. - En hoe hou je de data kwalitatief goed?

371
00:26:53,340 --> 00:26:55,300
Ja, en vers hè.

372
00:26:55,300 --> 00:26:59,100
Vers, dat het niet gaat stinken in dat model.

373
00:26:59,140 --> 00:27:02,140
Ja, maar natuurlijk, één voordeel juridisch gezien is,

374
00:27:02,140 --> 00:27:08,140
nou ja, zolang een Europese Hof van Justitie of de rechtbanken in Nederland

375
00:27:08,140 --> 00:27:14,140
het gewoon met mensenwerk houden, dan blijft dat in ieder geval die wel die goede richting in gaat.

376
00:27:14,140 --> 00:27:18,140
Maar als je dan solliciteert, dan komt er hele juridische taal uit.

377
00:27:18,140 --> 00:27:24,140
Ja, misschien grappig. We gaan het zien. Dank je wel.

378
00:27:26,140 --> 00:27:29,500
Ik weet dat je wil luisteren naar een nieuwe aflevering van AIToday Live.

379
00:27:29,500 --> 00:27:33,140
Mis geen aflevering, zorg dat je je abonneert.

380
00:27:33,140 --> 00:27:36,620
Iedere podcast app heeft een abonneer knopje.

381
00:27:36,620 --> 00:27:41,420
Als je die indrukt dan krijg je automatisch een melding bij een nieuwe aflevering.

382
00:27:41,420 --> 00:27:43,420
Dankjewel voor het luisteren.

383
00:27:43,420 --> 00:27:44,940
 

People on this episode