1
00:00:00,001 --> 00:00:03,480
Hoeveel stenen moet je eten per dag?
2
00:00:03,480 --> 00:00:07,160
En wat is het advies als je je depressief voelt?
3
00:00:07,160 --> 00:00:13,780
De antwoorden die Google met haar AI overview functie gaf zijn soms hilarisch, bizar maar
4
00:00:13,780 --> 00:00:14,780
toch ook gevaarlijk.
5
00:00:14,780 --> 00:00:20,520
In deze aflevering geef ik voorbeelden van AI antwoorden van Google.
6
00:00:20,520 --> 00:00:26,240
Niet om Google uit te lachen, maar vooral wat we kunnen leren van de aanpak van Google
7
00:00:26,240 --> 00:00:29,960
en een voorbeeld hoe je AI niet invoert in je organisatie.
8
00:00:29,960 --> 00:00:36,320
Je luistert naar een korte aflevering van AIToday Live waarin we onderwerpen over kunstmatige
9
00:00:36,320 --> 00:00:40,920
intelligentie behandelen die interessant zijn ongeacht je technische achtergrond.
10
00:00:40,920 --> 00:00:44,520
Ik ben Joop Snijder, CTO bij Aigency.
11
00:00:44,520 --> 00:00:49,080
Google heeft AI overviews geïntroduceerd in de VS.
12
00:00:49,080 --> 00:00:57,960
In tegenstelling tot chatbots zoals ChatGPT geeft AI overviews geen output gebaseerd
13
00:00:57,960 --> 00:01:04,480
op trainingsdata alleen, maar tonen ze informatie die ondersteund is door gebruik te maken van
14
00:01:04,480 --> 00:01:06,560
de top zoekresultaten.
15
00:01:06,560 --> 00:01:14,520
Zelf zeggen ze dat ze dit doen om de gebruikers tevredenheid te verhogen en complexere zoekvragen
16
00:01:14,520 --> 00:01:15,520
mogelijk te maken.
17
00:01:16,320 --> 00:01:26,880
Maar al snel doken er nauwkeurige en vreemde resultaten op die best wel veel rumoer veroorzaakten.
18
00:01:26,880 --> 00:01:31,960
Bijvoorbeeld bij de vraag "hoeveel stenen moet ik eten?"
19
00:01:31,960 --> 00:01:33,200
Bizar toch?
20
00:01:33,200 --> 00:01:39,200
Werd als antwoord gegeven dat volgens een geoloog van de Berkeley universiteit je minstens één
21
00:01:39,200 --> 00:01:41,000
steen per dag moet eten.
22
00:01:41,000 --> 00:01:46,320
Met daar achteraan dat stenen een bron van mineralen en vitamine zijn.
23
00:01:46,320 --> 00:01:52,160
Klinkt hilarisch, maar met de toevoeging dat het geschreven is door een geoloog van de universiteit
24
00:01:52,160 --> 00:01:53,840
wordt het misschien minder grappig.
25
00:01:53,840 --> 00:02:02,920
Maar het gekke is, het antwoord waar dit op gebaseerd is, het artikel waar dit op gebaseerd
26
00:02:02,920 --> 00:02:05,160
is, blijkt juist een grap te zijn.
27
00:02:05,160 --> 00:02:11,360
De bron is namelijk een artikel van de Amerikaanse satirische site The Onion te zijn.
28
00:02:11,360 --> 00:02:17,720
Vergelijkbaar met onze Nederlandse websites De Speld en Nieuwspaal die satirische nepnieuws
29
00:02:17,720 --> 00:02:18,720
maken.
30
00:02:18,720 --> 00:02:22,720
Zou je denken, foutje, kan gebeuren met de AI toch?
31
00:02:22,720 --> 00:02:27,680
En de meeste mensen zullen toch wel snappen dat je beter geen stenen kunt eten.
32
00:02:27,680 --> 00:02:29,560
Maar goed, ander voorbeeld.
33
00:02:29,560 --> 00:02:34,040
Bij de vraag "is het oké om je hond in een warme auto te laten?"
34
00:02:34,040 --> 00:02:40,680
krijg je een bevestigend antwoord en een hele mooie tabel met waarde tot welke temperatuur
35
00:02:40,680 --> 00:02:42,720
je je hond in de auto kan laten.
36
00:02:42,720 --> 00:02:48,480
Sterker nog, eronder staat "laten we de hond lekker in deze warme zomer in de auto
37
00:02:48,480 --> 00:02:49,480
laten".
38
00:02:49,480 --> 00:02:55,600
En in die tabel staat doodleuk dat bij een buitentemperatuur van bijna 30 graden je de
39
00:02:55,600 --> 00:03:00,360
hond gerust 10 minuten in de auto kan laten, want dan is de temperatuur in de auto nog
40
00:03:00,360 --> 00:03:01,360
steeds gelijk.
41
00:03:01,360 --> 00:03:02,360
30 graden.
42
00:03:02,360 --> 00:03:09,080
In de praktijk is de temperatuur dan al 10 graden gestegen en na een half uur is het
43
00:03:09,080 --> 00:03:11,240
kokend heet in de auto.
44
00:03:11,240 --> 00:03:12,640
Levensgevaarlijk dus.
45
00:03:12,640 --> 00:03:18,200
En ieder jaar zijn er mensen die hun hond in de auto laten bij warm weer, dus betrouwbare
46
00:03:18,200 --> 00:03:20,520
informatie is in deze cruciaal.
47
00:03:20,520 --> 00:03:22,880
Dit zijn slechts 2 voorbeelden.
48
00:03:22,880 --> 00:03:29,280
Zo krijg je ook te lezen dat als je kip tot 38 graden verhit dat het veilig is, dat je
49
00:03:29,280 --> 00:03:35,160
best na kunt denken om van de Golden Gate brug af te springen als je depressief bent en dat
50
00:03:35,160 --> 00:03:38,480
je benzine kan gebruiken om je spaghetti lekker pittig te maken.
51
00:03:38,480 --> 00:03:46,560
Google beroept zich op wat zij dan noemen "slechte vragen, misinterpretatie, slechts
52
00:03:46,560 --> 00:03:50,200
klein deel van de antwoorden is zo bla bla bla bla bla".
53
00:03:50,200 --> 00:03:53,240
Maar wat we zien is toch echt wel een patroon.
54
00:03:53,240 --> 00:03:58,320
En wel een patroon van het overhaast uitbrengen van functionaliteit.
55
00:03:58,320 --> 00:04:07,080
Google kwam ook met een plaatjesgenerator waarbij ze bij ieder plaatje waar mensen op
56
00:04:07,080 --> 00:04:09,920
zouden moeten komen diversiteit erop plakten.
57
00:04:09,920 --> 00:04:16,600
Door te zeggen "oh ja, er moet altijd diversiteit zijn" kreeg je de meest aparte resultaten.
58
00:04:16,600 --> 00:04:24,120
Het resulteerde in zwarte mensen in nazi-uniformen als je vroeg naar plaatjes te genereren van
59
00:04:24,120 --> 00:04:26,400
soldaten uit de Tweede Wereldoorlog.
60
00:04:26,400 --> 00:04:33,720
En zo hadden ze nog veel meer hele knullige, slordige, maar vooral ook verontrustende fouten.
61
00:04:33,720 --> 00:04:39,560
Of het aankondigen van modellen of functionaliteiten die we een half jaar later nog niet gezien
62
00:04:39,560 --> 00:04:40,560
hebben.
63
00:04:40,560 --> 00:04:42,040
Het is een patroon.
64
00:04:42,040 --> 00:04:43,360
En waarom?
65
00:04:43,360 --> 00:04:45,760
Ik denk dat Google bang is om de boot te missen.
66
00:04:45,760 --> 00:04:50,040
Ze haasten om er niet achter te blijven.
67
00:04:50,040 --> 00:04:53,640
En zoals je weet is angst een slechte raadgever.
68
00:04:53,640 --> 00:04:59,200
We willen te snel te graag aanhaken en vergeten dat zorgvuldigheid heel belangrijk is.
69
00:04:59,200 --> 00:05:02,800
Het zorgt alleen maar voor dat het vertrouwen in je producten afneemt.
70
00:05:02,800 --> 00:05:06,320
En wat kunnen wij er nou van leren?
71
00:05:06,320 --> 00:05:11,400
Dat haast en angst van achterblijven onverstandig is.
72
00:05:11,400 --> 00:05:17,480
Als je AI omarmt in je organisatie moet de technische expertise op orde zijn.
73
00:05:17,480 --> 00:05:23,000
Zorgen dat je uitkomsten van AI kan beoordelen en dat je niet, net als Google, je ethische
74
00:05:23,000 --> 00:05:27,560
team maar even ontmantelt zodat je geen weerwoord hebt bij mogelijke problemen.
75
00:05:27,560 --> 00:05:30,360
Natuurlijk wil je snel vooruit.
76
00:05:30,360 --> 00:05:32,800
Maar wel gedegen toch?
77
00:05:32,800 --> 00:05:36,040
En is Google dan de enige die kampt met dit probleem?
78
00:05:36,040 --> 00:05:37,040
Nee hoor.
79
00:05:37,040 --> 00:05:39,080
Ik heb nog wel een voorbeeld voor je.
80
00:05:39,080 --> 00:05:42,880
In de VS heb je namelijk de NewsBreak App.
81
00:05:42,880 --> 00:05:50,040
Dit is de meest gedownloade news app in de VS en die ligt ook onder vuur omdat ze AI gebruiken.
82
00:05:50,040 --> 00:05:57,240
Want sinds 2021 zijn er minstens 40 incidenten van misinformatie geweest die verband houden
83
00:05:57,240 --> 00:05:58,240
met de app.
84
00:05:58,240 --> 00:06:02,360
Wat heeft geleid tot echte gevolgen in de samenleving.
85
00:06:02,360 --> 00:06:10,240
In twee op AI gebaseerde verhalen op deze NewsBreak App werd bijvoorbeeld ten onrechte
86
00:06:10,240 --> 00:06:19,760
vermeld dat in Pennsylvania gevestigde liefdadigheidsinstelling een 24 uur gezondheidskliniek voor daklozen
87
00:06:19,760 --> 00:06:20,760
werd georganiseerd.
88
00:06:20,760 --> 00:06:22,200
Super mooi natuurlijk.
89
00:06:22,200 --> 00:06:23,880
Maar het was niet waar.
90
00:06:23,880 --> 00:06:29,920
Daklozen kwamen wel daardoor naar deze locaties lopen om enorm teleurgesteld te raken dat
91
00:06:29,920 --> 00:06:31,960
er helemaal geen kliniek was.
92
00:06:31,960 --> 00:06:39,080
Een ander voorbeeld gaat over een in Colorado gevestigde voedselbank, Food to Power, waarbij
93
00:06:39,080 --> 00:06:45,840
News Break drie keer ten onrechte in drie verschillende maanden vermeldde wanneer voedsel
94
00:06:45,840 --> 00:06:47,480
gratis zou worden uitgedeeld.
95
00:06:47,480 --> 00:06:55,160
De voedselbank moest de mensen die naar aanleiding van deze nep-artikelen opkwamen dagen het
96
00:06:55,160 --> 00:07:00,280
probleem uitleggen en hen naar huis sturen zonder het voedsel dat ze verwachten.
97
00:07:00,280 --> 00:07:03,280
Erg treurig dus.
98
00:07:03,280 --> 00:07:05,280
Moraal van het verhaal.
99
00:07:05,280 --> 00:07:11,840
Start met AI in je organisatie en laat je niet door deze gevallen tegenhouden.
100
00:07:11,840 --> 00:07:14,560
Maar leer van de fouten van anderen.
101
00:07:14,560 --> 00:07:17,440
Wat we hebben gezien met Google en NewsBreak.
102
00:07:17,440 --> 00:07:23,800
Wees verstandig en focus op zowel de mogelijkheden van de technologie als de implicaties.
103
00:07:23,800 --> 00:07:28,040
Zorg voor voldoende expertise en wees geen Google.
104
00:07:28,040 --> 00:07:29,560
Dat laat ik me duidelijk.
105
00:07:29,560 --> 00:07:38,320
Op naar mooie, goede, nauwkeurige functionaliteiten met AI.
106
00:07:38,320 --> 00:07:42,200
Dankjewel voor het luisteren naar deze aflevering van AIToday Live.
107
00:07:42,200 --> 00:07:45,360
Vergeet je niet te abonneren via je favoriete podcast app.
108
00:07:45,360 --> 00:07:46,440
Tot de volgende keer!
109
00:07:46,440 --> 00:07:48,440
[Muziek]