
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E84 - 15 prompt engineering tips van de makers van Claude - Deel 1
In deze aflevering staat promptengineering centraal, met als tips van de experts van Anthropic, de makers van Claude. De kunst van effectieve communicatie met AI-modellen zoals Claude en ChatGPT wordt belicht. Belangrijke tips worden gedeeld over hoe je duidelijke en specifieke prompts kunt formuleren voor betere resultaten.
Daarnaast wordt het iteratieve proces van het verfijnen van prompts besproken, evenals het belang van het testen met imperfecte invoer. Deze inzichten helpen gebruikers om de interactie met AI te optimaliseren en de output te verbeteren.
Onderwerpen
- Duidelijke en Precieze Communicatie
- Iteratief Proces
- Randgevallen en Ongebruikelijke Scenario's
- Testen met Imperfecte Invoer
- Zorgvuldige Analyse van AI-Output
Links
- Podcast Video: AI prompt engineering: A deep dive
- Bedrijf: Anthropic
- Kaartspel: AI Game Changer - Generative AI editie
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,001 --> 00:00:08,280
Hoi, welkom bij AIToday Live, de Nederlandse podcast waar we praten over de nieuwste ontwikkelingen
2
00:00:08,280 --> 00:00:13,440
in kunstmatige intelligentie en hoe jij ze kunt toepassen in je werk.
3
00:00:13,440 --> 00:00:19,160
En vandaag gaan we het hebben over een onderwerp dat steeds belangrijker wordt naarmate AI-modellen
4
00:00:19,160 --> 00:00:24,400
zoals Claude en ChatGPT steeds vaker worden ingezet, namelijk promptengineering.
5
00:00:24,400 --> 00:00:30,320
Recent hebben prompt-experts van Anthropic, de makers van Claude, in een gesprek van anderhalf
6
00:00:30,320 --> 00:00:36,120
uur hun beste tips gedeeld over hoe je de perfecte prompts kunt schrijven om taalmodellen beter
7
00:00:36,120 --> 00:00:37,120
te laten werken.
8
00:00:37,120 --> 00:00:42,800
Vandaag neem ik je mee door deze tips, met extra uitleg en natuurlijk praktische voorbeelden.
9
00:00:42,800 --> 00:00:48,600
Omdat ik de oorspronkelijke video behoorlijk taai en niet voor iedereen toegankelijk vind,
10
00:00:48,600 --> 00:00:57,880
geef ik je een samenvatting van de 15 meest waardevolle tips zoals zij die hebben aangegeven
11
00:00:57,880 --> 00:01:01,720
en dan vul ik ze aan met praktische voorbeelden uit de werkomgeving.
12
00:01:01,720 --> 00:01:08,200
Het mooie is dat deze tips namelijk niet alleen voor Claude gelden, maar net zo goed toepasbaar
13
00:01:08,200 --> 00:01:09,200
zijn voor ChatGPT.
14
00:01:09,200 --> 00:01:13,360
Laten we meteen beginnen met de eerste tip.
15
00:01:13,360 --> 00:01:14,360
1.
16
00:01:14,360 --> 00:01:17,840
Communiceer duidelijk en precies bij het schrijven van prompts.
17
00:01:17,840 --> 00:01:22,160
Een goed geschreven prompt begint met helder en precies taalgebruik.
18
00:01:22,160 --> 00:01:26,080
Dit klinkt misschien logisch, maar het kan moeilijker zijn dan je denkt.
19
00:01:26,080 --> 00:01:32,240
Als je bijvoorbeeld vraagt, schrijf een samenvatting van dit document, kan het taalmodel wel een
20
00:01:32,240 --> 00:01:37,480
samenvatting maken, maar als je niet specificeert hoe lang die moet zijn of welke informatie
21
00:01:37,480 --> 00:01:40,920
belangrijk is, kan het resultaat behoorlijk teleurstellend zijn.
22
00:01:40,920 --> 00:01:46,120
Als een beter geformuleerde prompt zou zijn, schrijf een samenvatting van maximaal 200
23
00:01:46,120 --> 00:01:50,920
woorden met een nadruk op de financiële impact van de verandering in de regelgeving.
24
00:01:50,920 --> 00:01:57,080
Je geeft duidelijk meer context en stuur het taalmodel in een specifieke richting.
25
00:01:57,080 --> 00:01:58,080
2.
26
00:01:58,080 --> 00:02:05,080
Wees bereid om snel te itereren en veel prompts te versturen.
27
00:02:05,080 --> 00:02:12,360
Deze tip heb ik in aflevering 80 van dit seizoen al wat extra toegelicht, maar omdat deze zo
28
00:02:12,360 --> 00:02:14,080
belangrijk is nogmaals.
29
00:02:14,080 --> 00:02:16,040
Prompten is een proces.
30
00:02:16,040 --> 00:02:18,040
Denk daar niet te licht over.
31
00:02:18,040 --> 00:02:22,680
Goede prompt engineers weten dat je vaak en veel moet itereren.
32
00:02:22,680 --> 00:02:27,640
Dat betekent veel kleine aanpassingen maken om uiteindelijk het gewenste resultaat te
33
00:02:27,640 --> 00:02:28,640
krijgen.
34
00:02:28,640 --> 00:02:31,960
Zie het als een dialoog met de AI, met het taalmodel.
35
00:02:31,960 --> 00:02:37,000
Je stelt een vraag, kijk naar het antwoord en stelt de vraag opnieuw, maar dan beter.
36
00:02:37,000 --> 00:02:43,640
Een voorbeeld is dat je het taalmodel vraagt om een marketingtekst te schrijven.
37
00:02:43,640 --> 00:02:48,920
Misschien is de eerste versie te formeel en dan pas je de prompt aan naar 'schrijf
38
00:02:48,920 --> 00:02:51,960
een informele marketingtekst voor een jong publiek'.
39
00:02:51,960 --> 00:02:57,160
Vervolgens herhaal je het proces totdat de tekst precies goed is en dat je deze kunt
40
00:02:57,160 --> 00:02:58,480
opslaan voor hergebruik.
41
00:02:58,480 --> 00:02:59,480
3.
42
00:02:59,480 --> 00:03:06,480
Denk na over randgevallen en ongebruikelijke scenario's.
43
00:03:06,480 --> 00:03:11,600
Prompten gaat niet alleen over de meest voor de hand liggende gevallen, maar juist ook
44
00:03:11,600 --> 00:03:12,920
over de uitzonderingen.
45
00:03:12,920 --> 00:03:17,720
Overweeg hoe je je prompt kan falen in ongewone situaties.
46
00:03:17,720 --> 00:03:23,960
Door rekening te houden met randgevallen maak je je prompts robuuster en veelzijdiger, ook
47
00:03:23,960 --> 00:03:24,960
weer voor hergebruik.
48
00:03:24,960 --> 00:03:30,760
Voor onze podcast heb ik een prompt die interessante, genoemde bronnen uit de aflevering haalt.
49
00:03:30,760 --> 00:03:34,720
Gasten geven tips over boeken, evenementen of websites.
50
00:03:34,720 --> 00:03:37,480
En die willen we in de show notes delen.
51
00:03:37,480 --> 00:03:41,640
Een randgeval is wanneer dit helemaal niet voorkomt in de aflevering.
52
00:03:41,640 --> 00:03:47,560
Daarmee moet de prompt om kunnen gaan en consistent antwoord geven, zodat het geautomatiseerde
53
00:03:47,560 --> 00:03:51,480
productieproces van onze podcast daar niet stuk gaat.
54
00:03:51,480 --> 00:03:56,760
Belangrijk is daarom om de randgevallen te bewaren als testcases, waardoor je ze steeds
55
00:03:56,760 --> 00:04:00,240
kan gebruiken bij wijzigingen van je prompts.
56
00:04:00,240 --> 00:04:08,560
En dat leidt eigenlijk ook tot tip nummer 4, test je prompts met onvolledige of onrealistische
57
00:04:08,560 --> 00:04:09,560
gebruiksgebruikersinvoer.
58
00:04:09,560 --> 00:04:17,360
Gebruikers zijn niet altijd even precies in aangeven van wat ze willen.
59
00:04:17,360 --> 00:04:24,320
Test je prompts met imperfecte, realistische invoer om te zien hoe ze presteren onder
60
00:04:24,320 --> 00:04:26,120
alle dagelijke omstandigheden.
61
00:04:26,120 --> 00:04:34,240
Stel je hebt agents gemaakt voor vragen te kunnen stellen aan interne kennis uit je organisatie.
62
00:04:34,240 --> 00:04:39,680
Test deze agents door vragen te stellen met bijvoorbeeld afkortingen en informele taal
63
00:04:39,680 --> 00:04:42,680
zoals "waar vind ik de HR-info?"
64
00:04:42,680 --> 00:04:46,360
of "waar vind ik die doc over vakantieaanvraag?"
65
00:04:46,360 --> 00:04:51,760
Dit weerspiegelt hoe medewerkers hun vragen in de praktijk kunnen formuleren en helpt om
66
00:04:51,760 --> 00:04:57,880
de effectiviteit van de resultaten te analyseren, wat ons ook weer leidt naar tip 5.
67
00:04:57,880 --> 00:05:01,120
Analyseer de output van de AI zorgvuldig.
68
00:05:01,120 --> 00:05:05,080
Je kunt pas echt verbeteren als je de resultaten goed analyseert.
69
00:05:05,080 --> 00:05:09,200
Soms lijkt een antwoord correct, maar mist het belangrijke nuances.
70
00:05:09,200 --> 00:05:14,280
Stel je vraagt het taalmodel om een analyse te maken van een financiële situatie.
71
00:05:14,280 --> 00:05:19,440
Als het taalmodel geen rekening houdt met belastingtarieven, krijg je misschien een
72
00:05:19,440 --> 00:05:24,360
antwoord dat op het eerste gezicht logisch lijkt, maar in de praktijk onbruikbaar is.
73
00:05:24,360 --> 00:05:32,040
Lees de output dus altijd grondig na en stel jezelf de vraag "heeft het taalmodel precies
74
00:05:32,040 --> 00:05:34,160
gedaan wat ik wilde?"
75
00:05:34,160 --> 00:05:36,400
Tip nummer 6.
76
00:05:36,400 --> 00:05:42,000
Verwijder veronderstellingen en communiceer de volledige set aan benodigde informatie.
77
00:05:42,000 --> 00:05:47,920
Het is verleidelijk om ervan uit te gaan dat het taalmodel bepaalde dingen al weet.
78
00:05:47,920 --> 00:05:53,600
Maar hoe minder je aan het taalmodel overlaat, hoe beter het werkt.
79
00:05:53,600 --> 00:05:59,440
Zorg ervoor dat je duidelijk alle relevante details meegeeft.
80
00:05:59,440 --> 00:06:06,040
Een voorbeeld is als je vraagt "plan een marketingcampagne voor onze nieuwe productlancering"
81
00:06:06,040 --> 00:06:09,800
zou de AI wellicht niet weten wanneer die lancering plaatsvindt.
82
00:06:09,800 --> 00:06:15,440
Een betere prompt is dan "plan een marketingcampagne voor onze productlancering op 1 november,
83
00:06:15,440 --> 00:06:18,480
gericht op social media en online advertenties".
84
00:06:18,480 --> 00:06:24,080
Een van de deelnemers aan het gesprek vroeg er ook nog toe dat ze het taalmodel steeds
85
00:06:24,080 --> 00:06:26,040
behandeld als een nieuwe medewerker.
86
00:06:26,040 --> 00:06:35,080
Zou die medewerker zonder achtergrondkennis de instructies kunnen uitvoeren die ik ook
87
00:06:35,080 --> 00:06:36,520
aan het taalmodel geef?
88
00:06:36,520 --> 00:06:42,440
En als het antwoord nee is, hoe groot is dan de kans dat het taalmodel dit dan wel kan?
89
00:06:42,440 --> 00:06:46,680
Dan gaan we naar de laatste tip van vandaag, nummer 7.
90
00:06:46,680 --> 00:06:51,120
En dat is "heb empathie voor het taalmodel".
91
00:06:51,120 --> 00:06:55,440
Deze tip vond ik in eerste instantie heel lastig toen ik die hoorde, want het lijkt
92
00:06:55,440 --> 00:07:01,560
op vermenselijking en empathie en dat klinkt voor mij als inleving in de emoties van het
93
00:07:01,560 --> 00:07:02,560
model.
94
00:07:02,560 --> 00:07:04,720
En het taalmodel heeft geen emoties.
95
00:07:04,720 --> 00:07:08,720
Een AI begrijpt jouw intentie niet zoals een mens dat doet.
96
00:07:08,720 --> 00:07:10,840
Het werkt puur op basis van patronen.
97
00:07:10,840 --> 00:07:21,280
Maar wat eigenlijk aangegeven is, wat deze expert aangaf, is dat je moet je voorstellen
98
00:07:21,280 --> 00:07:23,560
hoe de AI je vraag interpreteert.
99
00:07:23,560 --> 00:07:29,520
Dus dit vraagt om een soort tussen aanhalingstekens empathie voor AI, zoals deze expert noemde.
100
00:07:29,520 --> 00:07:35,880
En het gaat er dan om dat het helpt om echt even in de schoenen van het model te gaan
101
00:07:35,880 --> 00:07:39,240
staan en te bedenken wat zou het hieruit opmaken.
102
00:07:39,240 --> 00:07:45,520
Wat hier de expert bedoelt met empathie is dat jij je inleeft in de werking van het model.
103
00:07:45,520 --> 00:07:51,400
Zo weet ik dat Chachibiti de voorkeur heeft om puntsgewijs met bullet points te antwoorden.
104
00:07:51,400 --> 00:08:00,240
Kan in heel vaak irritant zijn, dus als ik dat niet wil moet ik direct beginnen met aangeven
105
00:08:00,240 --> 00:08:02,600
dat het model in volzinnen moet antwoorden.
106
00:08:02,600 --> 00:08:09,240
Claude daarentegen heeft de voorkeur om te vousvoyeren, dus dat hij in de u-vorm schrijft.
107
00:08:09,240 --> 00:08:15,040
Daarom begin ik daar meteen te vragen om te laten schrijven in de je-vorm, om te tutoyeren.
108
00:08:15,040 --> 00:08:20,640
Dit zijn hele eenvoudige voorbeelden, maar hoe meer kennis je van het taalmodel hebt,
109
00:08:20,640 --> 00:08:24,880
des te beter hoe je met het taalmodel communiceert.
110
00:08:24,880 --> 00:08:33,640
Dit was het eerste deel van de podcast over promptengineering en de tips rechtstreeks
111
00:08:33,640 --> 00:08:35,120
uit het Claude team.
112
00:08:35,120 --> 00:08:39,960
In het volgende deel gaan we verder met nog meer waardevolle tips, waaronder hoe je prompts
113
00:08:39,960 --> 00:08:44,920
als code kunt behandelen, hoe je een balans vindt tussen standaard en randgevallen en
114
00:08:44,920 --> 00:08:48,600
hoe je schrijfvaardigheid kunt combineren met systematisch denken.
115
00:08:48,600 --> 00:08:53,000
Dus abonneer je via je favoriete podcast app.
116
00:08:53,000 --> 00:08:55,920
Dan krijg je de volgende aflevering automatisch te zien.
117
00:08:55,920 --> 00:08:57,920
[Muziek]