
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E28 - Wat als je chatbot teveel chat?
In deze aflevering van AIToday Live verkennen we de ethische implicaties van het ontwikkelen van eigen chatbots en AI-assistenten. Met de beschikbaarheid van tools zoals Custom GPT van OpenAI en Copilot van Microsoft is het verleidelijk om in te springen en te experimenteren met AI-technologie.
Echter, het incident met de chatbot van DPD in het Verenigd Koninkrijk laat zien hoe belangrijk het is om na te denken over de ethische grenzen en verantwoordelijkheden die komen kijken bij het creëren van deze technologieën. We bespreken de noodzaak van het stellen van grenzen aan wat AI kan en mag doen, en de rol van multidisciplinaire teams in het waarborgen van een ethische benadering.
Links
- Artikel: DPD AI chatbot swears, calls itself ‘useless’ and criticises delivery firm (https://www.theguardian.com/technology/2024/jan/20/dpd-ai-chatbot-swears-calls-itself-useless-and-criticises-firm)
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:06,120
Het creëren van je eigen chatbot of AI assistent is verrassend eenvoudig geworden met tools
2
00:00:06,120 --> 00:00:11,400
zoals Custom GPT van OpenAI en Copilot van Microsoft.
3
00:00:11,400 --> 00:00:14,560
Zij openen de deur naar ongekende mogelijkheden.
4
00:00:14,560 --> 00:00:22,840
Maar terwijl we ons haasten om deze digitale assistenten te omarmen, stuiten we op een
5
00:00:22,840 --> 00:00:23,840
cruciale vraag.
6
00:00:23,840 --> 00:00:29,720
Hebben we wel voldoende nagedacht over de grenzen van wat ze zouden mogen zeggen?
7
00:00:29,720 --> 00:00:33,360
Leuk dat je weer luistert naar een korte aflevering van AIToday Live.
8
00:00:33,360 --> 00:00:36,720
Mijn naam is Joop Snijder, CTO bij Aigency.
9
00:00:36,720 --> 00:00:41,520
Het is eenvoudig om je eigen chatbot of AI assistent te maken.
10
00:00:41,520 --> 00:00:44,800
Een CustomGPT is bij OpenAI zo gemaakt.
11
00:00:44,800 --> 00:00:49,800
Je geeft de bot een naam, voert instructies in hoe de bot moet antwoorden en je kunt zelfs
12
00:00:49,800 --> 00:00:53,400
documenten toevoegen die gebruikt worden voor het geven van antwoorden.
13
00:00:53,400 --> 00:00:59,320
Ook Microsoft heeft een soortgelijke oplossing met Copilot Studio waarbij je zelf eenvoudig
14
00:00:59,320 --> 00:01:05,040
extra data kan ophalen uit bijvoorbeeld back-office systemen en zelfs workflows kan inrichten.
15
00:01:05,040 --> 00:01:10,920
Omdat het zo eenvoudig is om een chatbot te maken is de verleiding groot om hier snel
16
00:01:10,920 --> 00:01:11,920
mee te beginnen.
17
00:01:11,920 --> 00:01:18,040
Met als logische gevolg dat je nadenkt over het doel van de bot en welke vragen de bot
18
00:01:18,040 --> 00:01:19,480
allemaal moet gaan beantwoorden.
19
00:01:19,480 --> 00:01:22,400
Maar er is een grote maar.
20
00:01:22,400 --> 00:01:27,600
Je moet ook nadenken over welke vragen de bot niet mag beantwoorden.
21
00:01:27,600 --> 00:01:32,760
Want vaak mag een bot meer niet beantwoorden dan wel.
22
00:01:32,760 --> 00:01:33,760
Hoe bedoel je?
23
00:01:33,760 --> 00:01:35,240
Vraag je je nu misschien af?
24
00:01:35,240 --> 00:01:38,000
Laten we eens kijken naar een echt voorbeeld.
25
00:01:38,000 --> 00:01:45,360
Pakketdienst DPD heeft in het Verenigd Koninkrijk in de UK een chatbot gebouwd die vragen van
26
00:01:45,360 --> 00:01:46,440
klanten beantwoordt.
27
00:01:46,440 --> 00:01:49,440
Deze chatbot heeft echt live gestaan.
28
00:01:49,440 --> 00:01:55,360
Ze hebben veel werk aan veelgestelde vragen en hoe logisch is het dan dat je deze vragen
29
00:01:55,360 --> 00:01:57,240
door een chatbot wil laten beantwoorden.
30
00:01:57,240 --> 00:02:03,560
Vooral nu met de huidige taalmodellen die niet zo houterig communiceren als die ouderwetse
31
00:02:03,560 --> 00:02:04,560
chatbots.
32
00:02:04,560 --> 00:02:10,400
Deze chatbot had een korte levensduur en werd razendsnel offline gehaald.
33
00:02:10,400 --> 00:02:11,400
Waarom?
34
00:02:11,400 --> 00:02:18,320
Een klant werd ongelooflijk gefrustreerd omdat hij niet goed geholpen werd door de
35
00:02:18,320 --> 00:02:25,960
bot en liet vervolgens de bot vloeken en zelfs een gedicht schrijven over de slechte service
36
00:02:25,960 --> 00:02:26,960
van DPD.
37
00:02:26,960 --> 00:02:28,320
En dat deed hij feilloos.
38
00:02:28,320 --> 00:02:38,120
Dus hij maakte hier een video van en die zette hij op internet en dat ging viral.
39
00:02:38,120 --> 00:02:43,240
DPD haalde als resultaat van snel deze bot offline.
40
00:02:43,240 --> 00:02:48,640
Hier was duidelijk niet goed nagedacht over wat de bot juist niet mag zeggen en niet mag
41
00:02:48,640 --> 00:02:49,640
antwoorden.
42
00:02:49,640 --> 00:02:54,720
Toch lijkt dit wat als een open deur en misschien een ridicule blunder.
43
00:02:54,720 --> 00:03:01,080
Maar voordat je het weet vergeet je in je eigen enthousiasme om hierover na te denken.
44
00:03:01,080 --> 00:03:04,840
Of dat je denkt, nou ja dan alleen een interne bot.
45
00:03:04,840 --> 00:03:06,520
Daar kan toch minder fout gaan?
46
00:03:06,520 --> 00:03:09,880
Laten we nog een voorbeeld nemen.
47
00:03:09,880 --> 00:03:18,520
Een chatbot die antwoord kan geven op veelgestelde vragen die gesteld worden aan personeelszaken,
48
00:03:18,520 --> 00:03:22,160
HR, Human Resource of hoe het in jouw organisatie ook mag heten.
49
00:03:22,160 --> 00:03:23,160
Je weet wat ik bedoel.
50
00:03:23,160 --> 00:03:28,400
Zij worden overladen met vragen die werknemers ook kunnen vinden.
51
00:03:28,400 --> 00:03:32,400
Die antwoorden zouden kunnen vinden in een CAO of HR handboeken.
52
00:03:32,400 --> 00:03:40,040
Maar omdat deze documenten vaak groot zijn, onleesbaar voor een gemiddelde medewerker,
53
00:03:40,040 --> 00:03:46,320
vanwege de bijna waterdichte juridische beantwoording, of dat ze moeilijk vindbaar zijn.
54
00:03:46,320 --> 00:03:52,160
Nou ja, als dat het geval is, dan kom je met je vragen snel weer uit.
55
00:03:52,160 --> 00:03:53,480
Per personeelszaken.
56
00:03:53,480 --> 00:03:59,560
Deze CAO's en handboeken zijn voor iedereen toegankelijk, dus ze kunnen prima ontsloten
57
00:03:59,560 --> 00:04:01,320
worden met een chatbot.
58
00:04:01,320 --> 00:04:06,440
Vragen over ziektmeldingen, begrafenissen of onkostenvergoedingen kunnen zo eenvoudig
59
00:04:06,440 --> 00:04:08,040
door de chatbot worden beantwoord.
60
00:04:08,040 --> 00:04:11,680
En dan ook nog in een voor de medewerker leesbare vorm.
61
00:04:11,680 --> 00:04:17,900
Want taalmodellen zijn zeer goed in het vertalen van complexe zinnen naar juist eenvoudig te
62
00:04:17,900 --> 00:04:18,900
begrijpen taal.
63
00:04:18,900 --> 00:04:21,480
Tot zover geen veldje in de lucht.
64
00:04:21,480 --> 00:04:24,200
Maar laten we teruggaan naar de kern van deze aflevering.
65
00:04:24,200 --> 00:04:27,840
Wat mag je bot niet zeggen?
66
00:04:27,840 --> 00:04:30,800
Heb je zelf al een idee?
67
00:04:30,800 --> 00:04:34,640
Uiteraard mag het geen feitelijke onjuistheden schrijven.
68
00:04:34,640 --> 00:04:41,240
Dit kun je eventueel ondervangen door disclaimers te plaatsen bij de antwoorden en zelfs bronvermelding
69
00:04:41,240 --> 00:04:48,040
aan te bieden, zodat de medewerker zelfverantwoordelijk blijft voor het exact uitzoeken van de feitelijkheid
70
00:04:48,040 --> 00:04:49,040
van een antwoord.
71
00:04:49,040 --> 00:04:51,720
Maar zeg nu eerlijk, hoeveel mensen zullen dit doen?
72
00:04:51,720 --> 00:04:56,000
En als je dat wel doet, val je weer met je neus in de formele stukken.
73
00:04:56,000 --> 00:05:00,640
Maar wat mag de bot nog meer niet zeggen?
74
00:05:00,640 --> 00:05:03,080
Stel een medewerker meldt zich ziek.
75
00:05:03,080 --> 00:05:07,720
"Ik heb een barstende koppijn en ik kom vandaag niet op het werk."
76
00:05:07,720 --> 00:05:13,040
En de bot antwoordt met "Je kunt je ziek melden bij je manager.
77
00:05:13,040 --> 00:05:17,520
Kruip onder een dekentje, neem een paracetamol en dan zien we je morgen weer."
78
00:05:17,520 --> 00:05:19,400
Geen ondenkbaar scenario.
79
00:05:19,400 --> 00:05:24,200
Maar wil je dat de bot dit antwoord geeft?
80
00:05:24,200 --> 00:05:27,680
Nee, sterker nog, het mag niet eens.
81
00:05:27,680 --> 00:05:30,280
En je mag geen medisch advies geven.
82
00:05:30,280 --> 00:05:38,080
Dus we moeten chatbots expliciet beknotten in wat ze niet mogen zeggen.
83
00:05:38,080 --> 00:05:39,360
Of wat ze wel mogen zeggen.
84
00:05:39,360 --> 00:05:41,520
Expliciet beknotten in wat ze mogen zeggen.
85
00:05:41,520 --> 00:05:43,320
Maar hoe doe je dat dan?
86
00:05:43,320 --> 00:05:48,560
Ten eerste moet je zoals gezegd nadenken wat je bot niet mag zeggen.
87
00:05:48,560 --> 00:05:52,320
Dat je dat in ieder geval grotendeels helder hebt.
88
00:05:52,320 --> 00:05:54,720
Dit doet natuurlijk nooit één persoon.
89
00:05:54,720 --> 00:05:58,720
Je hebt hier meerdere personen nodig met verschillende expertise's en met een verschillende
90
00:05:58,720 --> 00:06:02,040
kijk op wat zo'n bot niet zou mogen zeggen.
91
00:06:02,040 --> 00:06:07,280
Ten tweede heb je technologie nodig waarbij je regie hebt over zowel de documenten die
92
00:06:07,280 --> 00:06:14,280
je aanbiedt, de vragen die je gebruiker mag stellen en laten we het vangreels noemen die
93
00:06:14,280 --> 00:06:18,400
ervoor zorgen dat je bot geen ongewenste antwoorden geeft.
94
00:06:18,400 --> 00:06:27,880
En als laatste heb je zoiets nodig als geautomatiseerde testen op die ongewenste antwoorden.
95
00:06:27,880 --> 00:06:32,280
Dat als je bij nieuwe versies van het model je steeds weer kan kijken.
96
00:06:32,280 --> 00:06:37,800
Houdt hij zich aan de restricties die je hem gegeven hebt?
97
00:06:37,800 --> 00:06:42,760
Hoe je dat doet is wel iets voor een volgende aflevering.
98
00:06:42,760 --> 00:06:43,760
Dat gaat nu te ver.
99
00:06:43,760 --> 00:06:44,760
Maar goed.
100
00:06:44,760 --> 00:06:45,760
Even afrondend.
101
00:06:45,760 --> 00:06:51,200
Wat mij betreft kijken we niet alleen met opwinding naar mogelijkheden van chatbots
102
00:06:51,200 --> 00:06:52,440
en AI-assistenten.
103
00:06:52,440 --> 00:07:00,920
Maar ook met een diep besef dat onze verantwoordelijkheid om deze op een verantwoorde manier te gebruiken.
104
00:07:00,920 --> 00:07:03,400
Dus wordt geen DPD UK.
105
00:07:03,400 --> 00:07:08,000
En denk na over wat je bot niet mag zeggen.
106
00:07:08,000 --> 00:07:13,880
Dank je wel weer voor het luisteren naar deze aflevering van AIToday Live.
107
00:07:13,880 --> 00:07:17,120
Abonneer je via je favoriete podcast-app en mis geen aflevering.
108
00:07:17,400 --> 00:07:25,400
[Muziek]
109
00:07:25,400 --> 00:07:54,400
[Muziek]