1
00:00:00,000 --> 00:00:06,120
Het creëren van je eigen chatbot of AI assistent is verrassend eenvoudig geworden met tools
2
00:00:06,120 --> 00:00:11,400
zoals Custom GPT van OpenAI en Copilot van Microsoft.
3
00:00:11,400 --> 00:00:14,560
Zij openen de deur naar ongekende mogelijkheden.
4
00:00:14,560 --> 00:00:22,840
Maar terwijl we ons haasten om deze digitale assistenten te omarmen, stuiten we op een
5
00:00:22,840 --> 00:00:23,840
cruciale vraag.
6
00:00:23,840 --> 00:00:29,720
Hebben we wel voldoende nagedacht over de grenzen van wat ze zouden mogen zeggen?
7
00:00:29,720 --> 00:00:33,360
Leuk dat je weer luistert naar een korte aflevering van AIToday Live.
8
00:00:33,360 --> 00:00:36,720
Mijn naam is Joop Snijder, CTO bij Aigency.
9
00:00:36,720 --> 00:00:41,520
Het is eenvoudig om je eigen chatbot of AI assistent te maken.
10
00:00:41,520 --> 00:00:44,800
Een CustomGPT is bij OpenAI zo gemaakt.
11
00:00:44,800 --> 00:00:49,800
Je geeft de bot een naam, voert instructies in hoe de bot moet antwoorden en je kunt zelfs
12
00:00:49,800 --> 00:00:53,400
documenten toevoegen die gebruikt worden voor het geven van antwoorden.
13
00:00:53,400 --> 00:00:59,320
Ook Microsoft heeft een soortgelijke oplossing met Copilot Studio waarbij je zelf eenvoudig
14
00:00:59,320 --> 00:01:05,040
extra data kan ophalen uit bijvoorbeeld back-office systemen en zelfs workflows kan inrichten.
15
00:01:05,040 --> 00:01:10,920
Omdat het zo eenvoudig is om een chatbot te maken is de verleiding groot om hier snel
16
00:01:10,920 --> 00:01:11,920
mee te beginnen.
17
00:01:11,920 --> 00:01:18,040
Met als logische gevolg dat je nadenkt over het doel van de bot en welke vragen de bot
18
00:01:18,040 --> 00:01:19,480
allemaal moet gaan beantwoorden.
19
00:01:19,480 --> 00:01:22,400
Maar er is een grote maar.
20
00:01:22,400 --> 00:01:27,600
Je moet ook nadenken over welke vragen de bot niet mag beantwoorden.
21
00:01:27,600 --> 00:01:32,760
Want vaak mag een bot meer niet beantwoorden dan wel.
22
00:01:32,760 --> 00:01:33,760
Hoe bedoel je?
23
00:01:33,760 --> 00:01:35,240
Vraag je je nu misschien af?
24
00:01:35,240 --> 00:01:38,000
Laten we eens kijken naar een echt voorbeeld.
25
00:01:38,000 --> 00:01:45,360
Pakketdienst DPD heeft in het Verenigd Koninkrijk in de UK een chatbot gebouwd die vragen van
26
00:01:45,360 --> 00:01:46,440
klanten beantwoordt.
27
00:01:46,440 --> 00:01:49,440
Deze chatbot heeft echt live gestaan.
28
00:01:49,440 --> 00:01:55,360
Ze hebben veel werk aan veelgestelde vragen en hoe logisch is het dan dat je deze vragen
29
00:01:55,360 --> 00:01:57,240
door een chatbot wil laten beantwoorden.
30
00:01:57,240 --> 00:02:03,560
Vooral nu met de huidige taalmodellen die niet zo houterig communiceren als die ouderwetse
31
00:02:03,560 --> 00:02:04,560
chatbots.
32
00:02:04,560 --> 00:02:10,400
Deze chatbot had een korte levensduur en werd razendsnel offline gehaald.
33
00:02:10,400 --> 00:02:11,400
Waarom?
34
00:02:11,400 --> 00:02:18,320
Een klant werd ongelooflijk gefrustreerd omdat hij niet goed geholpen werd door de
35
00:02:18,320 --> 00:02:25,960
bot en liet vervolgens de bot vloeken en zelfs een gedicht schrijven over de slechte service
36
00:02:25,960 --> 00:02:26,960
van DPD.
37
00:02:26,960 --> 00:02:28,320
En dat deed hij feilloos.
38
00:02:28,320 --> 00:02:38,120
Dus hij maakte hier een video van en die zette hij op internet en dat ging viral.
39
00:02:38,120 --> 00:02:43,240
DPD haalde als resultaat van snel deze bot offline.
40
00:02:43,240 --> 00:02:48,640
Hier was duidelijk niet goed nagedacht over wat de bot juist niet mag zeggen en niet mag
41
00:02:48,640 --> 00:02:49,640
antwoorden.
42
00:02:49,640 --> 00:02:54,720
Toch lijkt dit wat als een open deur en misschien een ridicule blunder.
43
00:02:54,720 --> 00:03:01,080
Maar voordat je het weet vergeet je in je eigen enthousiasme om hierover na te denken.
44
00:03:01,080 --> 00:03:04,840
Of dat je denkt, nou ja dan alleen een interne bot.
45
00:03:04,840 --> 00:03:06,520
Daar kan toch minder fout gaan?
46
00:03:06,520 --> 00:03:09,880
Laten we nog een voorbeeld nemen.
47
00:03:09,880 --> 00:03:18,520
Een chatbot die antwoord kan geven op veelgestelde vragen die gesteld worden aan personeelszaken,
48
00:03:18,520 --> 00:03:22,160
HR, Human Resource of hoe het in jouw organisatie ook mag heten.
49
00:03:22,160 --> 00:03:23,160
Je weet wat ik bedoel.
50
00:03:23,160 --> 00:03:28,400
Zij worden overladen met vragen die werknemers ook kunnen vinden.
51
00:03:28,400 --> 00:03:32,400
Die antwoorden zouden kunnen vinden in een CAO of HR handboeken.
52
00:03:32,400 --> 00:03:40,040
Maar omdat deze documenten vaak groot zijn, onleesbaar voor een gemiddelde medewerker,
53
00:03:40,040 --> 00:03:46,320
vanwege de bijna waterdichte juridische beantwoording, of dat ze moeilijk vindbaar zijn.
54
00:03:46,320 --> 00:03:52,160
Nou ja, als dat het geval is, dan kom je met je vragen snel weer uit.
55
00:03:52,160 --> 00:03:53,480
Per personeelszaken.
56
00:03:53,480 --> 00:03:59,560
Deze CAO's en handboeken zijn voor iedereen toegankelijk, dus ze kunnen prima ontsloten
57
00:03:59,560 --> 00:04:01,320
worden met een chatbot.
58
00:04:01,320 --> 00:04:06,440
Vragen over ziektmeldingen, begrafenissen of onkostenvergoedingen kunnen zo eenvoudig
59
00:04:06,440 --> 00:04:08,040
door de chatbot worden beantwoord.
60
00:04:08,040 --> 00:04:11,680
En dan ook nog in een voor de medewerker leesbare vorm.
61
00:04:11,680 --> 00:04:17,900
Want taalmodellen zijn zeer goed in het vertalen van complexe zinnen naar juist eenvoudig te
62
00:04:17,900 --> 00:04:18,900
begrijpen taal.
63
00:04:18,900 --> 00:04:21,480
Tot zover geen veldje in de lucht.
64
00:04:21,480 --> 00:04:24,200
Maar laten we teruggaan naar de kern van deze aflevering.
65
00:04:24,200 --> 00:04:27,840
Wat mag je bot niet zeggen?
66
00:04:27,840 --> 00:04:30,800
Heb je zelf al een idee?
67
00:04:30,800 --> 00:04:34,640
Uiteraard mag het geen feitelijke onjuistheden schrijven.
68
00:04:34,640 --> 00:04:41,240
Dit kun je eventueel ondervangen door disclaimers te plaatsen bij de antwoorden en zelfs bronvermelding
69
00:04:41,240 --> 00:04:48,040
aan te bieden, zodat de medewerker zelfverantwoordelijk blijft voor het exact uitzoeken van de feitelijkheid
70
00:04:48,040 --> 00:04:49,040
van een antwoord.
71
00:04:49,040 --> 00:04:51,720
Maar zeg nu eerlijk, hoeveel mensen zullen dit doen?
72
00:04:51,720 --> 00:04:56,000
En als je dat wel doet, val je weer met je neus in de formele stukken.
73
00:04:56,000 --> 00:05:00,640
Maar wat mag de bot nog meer niet zeggen?
74
00:05:00,640 --> 00:05:03,080
Stel een medewerker meldt zich ziek.
75
00:05:03,080 --> 00:05:07,720
"Ik heb een barstende koppijn en ik kom vandaag niet op het werk."
76
00:05:07,720 --> 00:05:13,040
En de bot antwoordt met "Je kunt je ziek melden bij je manager.
77
00:05:13,040 --> 00:05:17,520
Kruip onder een dekentje, neem een paracetamol en dan zien we je morgen weer."
78
00:05:17,520 --> 00:05:19,400
Geen ondenkbaar scenario.
79
00:05:19,400 --> 00:05:24,200
Maar wil je dat de bot dit antwoord geeft?
80
00:05:24,200 --> 00:05:27,680
Nee, sterker nog, het mag niet eens.
81
00:05:27,680 --> 00:05:30,280
En je mag geen medisch advies geven.
82
00:05:30,280 --> 00:05:38,080
Dus we moeten chatbots expliciet beknotten in wat ze niet mogen zeggen.
83
00:05:38,080 --> 00:05:39,360
Of wat ze wel mogen zeggen.
84
00:05:39,360 --> 00:05:41,520
Expliciet beknotten in wat ze mogen zeggen.
85
00:05:41,520 --> 00:05:43,320
Maar hoe doe je dat dan?
86
00:05:43,320 --> 00:05:48,560
Ten eerste moet je zoals gezegd nadenken wat je bot niet mag zeggen.
87
00:05:48,560 --> 00:05:52,320
Dat je dat in ieder geval grotendeels helder hebt.
88
00:05:52,320 --> 00:05:54,720
Dit doet natuurlijk nooit één persoon.
89
00:05:54,720 --> 00:05:58,720
Je hebt hier meerdere personen nodig met verschillende expertise's en met een verschillende
90
00:05:58,720 --> 00:06:02,040
kijk op wat zo'n bot niet zou mogen zeggen.
91
00:06:02,040 --> 00:06:07,280
Ten tweede heb je technologie nodig waarbij je regie hebt over zowel de documenten die
92
00:06:07,280 --> 00:06:14,280
je aanbiedt, de vragen die je gebruiker mag stellen en laten we het vangreels noemen die
93
00:06:14,280 --> 00:06:18,400
ervoor zorgen dat je bot geen ongewenste antwoorden geeft.
94
00:06:18,400 --> 00:06:27,880
En als laatste heb je zoiets nodig als geautomatiseerde testen op die ongewenste antwoorden.
95
00:06:27,880 --> 00:06:32,280
Dat als je bij nieuwe versies van het model je steeds weer kan kijken.
96
00:06:32,280 --> 00:06:37,800
Houdt hij zich aan de restricties die je hem gegeven hebt?
97
00:06:37,800 --> 00:06:42,760
Hoe je dat doet is wel iets voor een volgende aflevering.
98
00:06:42,760 --> 00:06:43,760
Dat gaat nu te ver.
99
00:06:43,760 --> 00:06:44,760
Maar goed.
100
00:06:44,760 --> 00:06:45,760
Even afrondend.
101
00:06:45,760 --> 00:06:51,200
Wat mij betreft kijken we niet alleen met opwinding naar mogelijkheden van chatbots
102
00:06:51,200 --> 00:06:52,440
en AI-assistenten.
103
00:06:52,440 --> 00:07:00,920
Maar ook met een diep besef dat onze verantwoordelijkheid om deze op een verantwoorde manier te gebruiken.
104
00:07:00,920 --> 00:07:03,400
Dus wordt geen DPD UK.
105
00:07:03,400 --> 00:07:08,000
En denk na over wat je bot niet mag zeggen.
106
00:07:08,000 --> 00:07:13,880
Dank je wel weer voor het luisteren naar deze aflevering van AIToday Live.
107
00:07:13,880 --> 00:07:17,120
Abonneer je via je favoriete podcast-app en mis geen aflevering.
108
00:07:17,400 --> 00:07:25,400
[Muziek]
109
00:07:25,400 --> 00:07:54,400
[Muziek]