1
00:00:00,000 --> 00:00:08,280
Hoi, leuk dat je weer luistert naar een korte, actuele aflevering van AIToday Live met vandaag
2
00:00:08,280 --> 00:00:14,040
de behoorlijk gênante blunder van Google.
3
00:00:14,040 --> 00:00:20,200
Google heeft afgelopen week officieel zijn excuses aangeboden voor genante en onnauwkeurige
4
00:00:20,200 --> 00:00:24,440
afbeeldingen gegenereerd door zijn nieuwe Gemini AI tool.
5
00:00:24,440 --> 00:00:28,840
De verontschuldiging komt nadat gebruikers problemen hebben gedeeld, vooral op social
6
00:00:28,840 --> 00:00:37,240
media waarbij Gemini ahistorische en raciaal diverse afbeeldingen produceerde voor specifieke
7
00:00:37,240 --> 00:00:44,240
aanwijzingen over groepen als nazi-soldaten en bijvoorbeeld de Amerikaanse founding fathers.
8
00:00:44,240 --> 00:00:50,240
Waarbij de verplichte diversiteit van het model absurd was.
9
00:00:50,240 --> 00:00:56,960
3 van de 4 gegenereerde foto's van nazi's hadden een heel hoog diversiteitsgehalte.
10
00:00:56,960 --> 00:01:00,680
Niet iets waar die nazi's zo onbekend stonden.
11
00:01:00,680 --> 00:01:01,680
Toch?
12
00:01:01,680 --> 00:01:08,400
In een tijd waarin de potentie van AI onbegrensd lijkt, toont deze stap natuurlijk de diep
13
00:01:08,400 --> 00:01:12,840
gewortelde uitdagingen die nog steeds bestaan in het hart van de industrie.
14
00:01:12,840 --> 00:01:18,600
Het incident met Gemini onderstreept niet alleen de technische tekortkomingen, maar
15
00:01:18,600 --> 00:01:20,640
ook een dieper maatschappelijk probleem.
16
00:01:20,640 --> 00:01:25,600
Diversiteit en AI machine learning kan geen afterthought zijn.
17
00:01:25,600 --> 00:01:30,720
Het is een principe dat Google op harde wijze heeft moeten leren.
18
00:01:30,720 --> 00:01:34,480
Zo hebben ze de mogelijkheid om foto's te genereren tijdelijk uitgezet.
19
00:01:34,480 --> 00:01:40,720
Dit moet wel een moment van zelfreflectie zijn voor een van de grootste spelers op het techtoneel.
20
00:01:40,720 --> 00:01:44,920
En het biedt een cruciale les wat mij betreft voor de gehele sector.
21
00:01:44,920 --> 00:01:51,640
De noodzaak om diversiteit en inclusiviteit als fundamentele waarde in de kern van AI
22
00:01:51,640 --> 00:01:52,640
ontwikkeling te plaatsen.
23
00:01:52,640 --> 00:01:59,120
Googles aanpak waarbij de gestelde prompt van gebruikers worden gewijzigd, want dat
24
00:01:59,120 --> 00:02:08,680
gebeurde door, wanneer de prompt over mensen ging, voegden ze daar als eis diversiteit
25
00:02:08,680 --> 00:02:09,680
aan toe.
26
00:02:09,680 --> 00:02:14,240
Dat is natuurlijk ontzettend problematisch en ook wel flink kunstel toch.
27
00:02:14,240 --> 00:02:19,200
Alsof je aan het eind nog even kan zeggen "doe ook nog even een diversiteitssausje".
28
00:02:19,200 --> 00:02:24,840
Het laat zien dat er iets fundamenteel mis is met de wijze waarop Big Tech omgaat met
29
00:02:24,840 --> 00:02:25,840
representatie.
30
00:02:25,840 --> 00:02:31,960
Het manipuleren van prompts om diversiteit te forceren behandelt slechts de symptomen
31
00:02:31,960 --> 00:02:33,760
van het probleem en niet de oorzaak.
32
00:02:33,760 --> 00:02:40,080
Het risico van dergelijke aanpassingen is dat ze kunnen leiden tot onnauwkeurige representatie,
33
00:02:40,080 --> 00:02:45,880
stereotypering of zelfs het uitwissen van bepaalde groepen uit de gegenereerde afbeeldingen.
34
00:02:45,880 --> 00:02:53,840
Dit benadrukt een gebrek aan begrip van de complexiteit en nuances van dit issue.
35
00:02:53,840 --> 00:03:00,160
Het probleem met veel huidige AI-systemen ligt niet alleen in de algoritme zelf, maar
36
00:03:00,160 --> 00:03:02,880
juist in de data waarop ze getraind zijn.
37
00:03:02,880 --> 00:03:07,040
De data vormt de basis van elke AI-machine-learning-operatie.
38
00:03:07,040 --> 00:03:12,200
Het voedt het systeem, beïnvloedt de besluitvorming en bepaalt de uitkomst.
39
00:03:12,200 --> 00:03:19,520
Als deze data een gebrek aan diversiteit vertoont, is de uitkomst inherent bevooroordeeld en beperkt.
40
00:03:19,520 --> 00:03:25,960
Het aanpakken van dit probleem door simpelweg de data te veranderen in plaats van te proberen
41
00:03:25,960 --> 00:03:31,040
het gebrek aan diversiteit kunstmatig te verbergen in de resultaten, is een stap in de richting
42
00:03:31,040 --> 00:03:32,040
van de oplossing.
43
00:03:32,040 --> 00:03:38,880
Het veranderen van de data betekent het erkennen van en het actief zoeken naar een breed scala
44
00:03:38,880 --> 00:03:42,400
data-en perspectieven en ervaringen om in de dataset op te nemen.
45
00:03:42,400 --> 00:03:50,400
Ook vind ik dat als bedrijven zoals Google met hun immense invloed in middelen AI-systemen
46
00:03:50,400 --> 00:03:54,880
op de markt brengen, dan dragen ze een aanzienlijke verantwoordelijkheid.
47
00:03:54,880 --> 00:03:58,880
Met deze technologie hebben we de kracht om de manier waarop we leven, werken en met elkaar
48
00:03:58,880 --> 00:04:01,240
omgaan fundamenteel te veranderen.
49
00:04:01,240 --> 00:04:07,160
Daarmee komt de plicht om ervoor te zorgen dat deze veranderingen ten goede komen aan
50
00:04:07,160 --> 00:04:09,360
iedereen ongeacht hun achtergrond.
51
00:04:09,360 --> 00:04:16,080
Het recente incident met Google's Gemini toont aan dat er een soort van haast is geweest
52
00:04:16,080 --> 00:04:22,480
om competitief te blijven met rivalen zoals OpenAI, waardoor cruciale stappen in het waarborgen
53
00:04:22,480 --> 00:04:26,120
van ethische en inclusieve praktijken zijn overgeslagen.
54
00:04:26,120 --> 00:04:32,040
Vergeet je niet, OpenAI heeft vergelijkbare uitdagingen op het gebied van diversiteit
55
00:04:32,040 --> 00:04:33,040
en inclusie.
56
00:04:33,040 --> 00:04:38,160
Alleen lijken zij die beter verbloemd te hebben, misschien dankzij hun voorsprong in
57
00:04:38,160 --> 00:04:39,160
de markt.
58
00:04:39,160 --> 00:04:42,200
Dat betekent niet dat het probleem opgelost is.
59
00:04:42,200 --> 00:04:48,520
Zowel OpenAI als alle andere spelers in het veld staan voor de enorme taak om hun datasets
60
00:04:48,520 --> 00:04:53,960
en algoritmes voortdurend te evalueren en aan te passen, met als doel een eerlijkere
61
00:04:53,960 --> 00:04:56,200
vertegenwoordiging en behandeling van alle gebruikers.
62
00:04:56,200 --> 00:05:05,000
En dat is lastig, want de herkomst van de data is nauwelijks te achterhalen voor ze
63
00:05:05,000 --> 00:05:09,880
en de hoeveelheid maakt het schier onmogelijk om de ernst van de diversiteitsproblemen te
64
00:05:09,880 --> 00:05:10,880
onderzoeken.
65
00:05:10,880 --> 00:05:14,920
Dit brengt ons bij een fundamenteel punt.
66
00:05:14,920 --> 00:05:20,740
De ontwikkeling van AI kan niet los worden gezien van de maatschappelijke context waarin
67
00:05:20,740 --> 00:05:22,560
deze technologieën functioneren.
68
00:05:22,560 --> 00:05:28,760
Het gaat niet alleen om de technische uitvoering, maar ook om de ethische overwegingen en de
69
00:05:28,760 --> 00:05:31,400
maatschappelijke impact van deze systemen.
70
00:05:31,400 --> 00:05:36,760
De technologie-industrie moet de verantwoordelijkheid nemen om te zorgen voor inclusieve eerlijke
71
00:05:36,760 --> 00:05:38,640
en diverse AI-systemen.
72
00:05:38,640 --> 00:05:45,840
Dit vereist een voortdurende dialoog met gemeenschappen, etici en experts uit verschillende velden.
73
00:05:45,840 --> 00:05:51,880
Evenal een bereidheid om te leren van fouten en deze actief te corrigeren.
74
00:05:51,880 --> 00:05:54,440
Daarnaast is transparantie cruciaal.
75
00:05:54,440 --> 00:05:58,920
Bedrijven moeten open zijn over de data die ze gebruiken, de besluitvormingsprocessen
76
00:05:58,920 --> 00:06:03,840
van de algoritmes en de maatregelen die ze nemen om veroordelen en discriminatie tegen
77
00:06:03,840 --> 00:06:04,840
te gaan.
78
00:06:04,840 --> 00:06:09,840
Dit zal het vertrouwen opbouwen bij gebruikers en de gemeenschap in staat stellen om feedback
79
00:06:09,840 --> 00:06:13,960
te geven en deel te nemen aan het vormgeven van de toekomst van AI.
80
00:06:13,960 --> 00:06:19,400
Laten we het debacle van Google zien als een wake-up call voor de hele industrie om te
81
00:06:19,400 --> 00:06:25,160
erkennen dat echte vooruitgang in AI niet kan worden bereikt zonder een fundamentele toewijding
82
00:06:25,160 --> 00:06:29,320
aan diversiteit, inclusie en ethische verantwoordelijkheid.
83
00:06:29,320 --> 00:06:34,640
Als we een toekomst willen bouwen waarin AI de mensheid ten goede komt, moeten we beginnen
84
00:06:34,640 --> 00:06:41,120
met het bouwen van systemen die alle aspecten van menselijke diversiteit waarderen en weerspiegelen.
85
00:06:41,120 --> 00:06:45,120
Wat vind jij van deze problematiek?
86
00:06:45,120 --> 00:06:48,760
Laat het ons weten op de socials of mail ons.
87
00:06:48,760 --> 00:06:50,800
Ik ben erg benieuwd naar je reacties.
88
00:06:50,800 --> 00:06:54,080
Mijn naam Joop Snijder, CTO bij Aigency.
89
00:06:54,080 --> 00:06:55,440
Dankjewel weer voor het luisteren.
90
00:06:55,760 --> 00:06:59,760
[Muziek]