AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E10 - Meta: geef me al je data, want anders ...
In de nieuwste aflevering van AI Today Live staat Meta's strategie voor dataverzameling centraal. Het bedrijf stelt zijn geavanceerde taalmodel Llama open source beschikbaar, ogenschijnlijk een genereus gebaar.
Achter deze vrijgevigheid schuilt echter een verborgen agenda gericht op het verzamelen van meer data. Meta's chief AI scientist Yann LeCun pleit voor het breed delen van culturele content voor AI-training.
Deze benadering roept vragen op over privacy en de motieven van techbedrijven. De podcast belicht kritisch hoe Meta's strategie past in een breder patroon van probleemcreatie en zelfpresentatie als oplossing.
Onderwerpen
- Meta's strategie voor dataverzameling
- Open source taalmodel Llama
- Kritische benadering van gratis technologie
- Europa's positie in AI-ontwikkeling
- Kwaliteit versus kwantiteit van data
Links
- Artikel: Cambridge Analytica schandaal
- Organisatie: Meta
- Taalmodel: Llama
- Bedrijf: Mistral AI
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: Meta - Llama - Yann LeCun - Mistral AI
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,001 --> 00:00:05,340
Hoi, welkom bij een korte aflevering van AIToday Live.
2
00:00:05,340 --> 00:00:08,280
Mijn naam is Joop Snijder, CTO bij Aigency.
3
00:00:08,280 --> 00:00:11,540
En vandaag duiken we in een ontwikkeling die me zorgen baart.
4
00:00:11,540 --> 00:00:17,940
Namelijk Meta's slimme, maar verontrustende strategie om nog meer data te verzamelen.
5
00:00:17,940 --> 00:00:22,100
En ze doen dit onder het mom van innovatie en vooruitgang.
6
00:00:22,100 --> 00:00:24,820
Maar er zit ook een addertje onder het gras.
7
00:00:24,820 --> 00:00:29,000
In deze aflevering leg ik uit waarom we hier kritisch naar moeten kijken.
8
00:00:29,720 --> 00:00:33,000
Nou, laat ik beginnen met volledige transparantie.
9
00:00:33,000 --> 00:00:36,720
Ik ben bevooroordeeld als het gaat om Meta, Facebook.
10
00:00:36,720 --> 00:00:39,880
Sterker nog, ik heb een hekel aan dit bedrijf.
11
00:00:39,880 --> 00:00:41,740
En dat zijn woorden die ik niet snel gebruik.
12
00:00:41,740 --> 00:00:46,940
Het is een bedrijf dat wat mij betreft een dubieuze reputatie heeft opgebouwd.
13
00:00:46,940 --> 00:00:49,160
Door mensen verslaafd te maken aan social media.
14
00:00:49,160 --> 00:00:53,360
Desinformatie te verspreiden en democratieën te ontwrichten.
15
00:00:53,360 --> 00:00:56,880
Zoals bijvoorbeeld met het Cambridge Analytica schandaal.
16
00:00:57,400 --> 00:01:03,820
En het meest storende vind ik nog wel dat ze consequent weigeren hier verantwoordelijkheid voor te nemen.
17
00:01:03,820 --> 00:01:07,680
Er zijn altijd wel excuses waarom zij er niets aan kunnen doen.
18
00:01:07,680 --> 00:01:09,420
Zo, dat is eruit.
19
00:01:09,420 --> 00:01:18,560
Nou, wat me recent opvalt is Meta's sterke lobby voor het verkrijgen van nog meer data voor het trainen van een taalmodel.
20
00:01:19,120 --> 00:01:24,720
Ze verpakken dit slim in een verhaal over het belang voor de mensheid, voor Europa en voor jou persoonlijk.
21
00:01:24,720 --> 00:01:27,140
En ze koppelen er zelfs een dreiging aan.
22
00:01:27,140 --> 00:01:31,420
Als we deze data niet delen, lopen we onherroepelijk achter.
23
00:01:31,420 --> 00:01:34,000
Hun strategie is uitgekiend.
24
00:01:34,000 --> 00:01:37,320
Ze hebben een succesvol taalmodel ontwikkeld, namelijk LAMA.
25
00:01:37,320 --> 00:01:40,280
Dat ze gratis als open source beschikbaar stellen.
26
00:01:41,360 --> 00:01:43,240
Nou, en op het eerste gezicht de nobele data.
27
00:01:43,240 --> 00:01:49,880
Ze gaan niet de commerciële strijd aan met partijen als OpenAI of Entropic, maar delen hun kennis met de wereld.
28
00:01:49,880 --> 00:01:56,040
Jan LeChun, een chief AI scientist, verwoordt het zo op social media.
29
00:01:56,420 --> 00:02:09,160
Elke instelling, bibliotheek, stichting, culturele groep en overheid ter wereld die culturele content bezit, zou deze beschikbaar moeten stellen voor het trainen van vrije en open AI-modellen.
30
00:02:09,160 --> 00:02:13,120
En deze uitspraak van LeChun is veelzeggend.
31
00:02:13,120 --> 00:02:21,420
Hij presenteert het alsof het delen van data een soort van morele plicht is, menselijke bijdrage aan het collectieve menselijke erfgoed.
32
00:02:22,080 --> 00:02:25,300
Maar dit is dezelfde retoriek die we steeds van Meta horen.
33
00:02:25,300 --> 00:02:30,660
Ze maken iets wat commercieel is tot iets dat zogenaamd voor het algemeen belang is.
34
00:02:30,660 --> 00:02:32,380
En ze gaan nog een stap verder.
35
00:02:32,380 --> 00:02:39,560
Want naast deze morele druk om data te delen, zien we nog een andere tactiek opkomen die we steeds vaker zien.
36
00:02:39,560 --> 00:02:42,080
En niet alleen van Meta, maar van alle grote techbedrijven.
37
00:02:42,080 --> 00:02:47,280
Is het dreigen dat de nieuwste modellen niet beschikbaar komen voor de Europese markt.
38
00:02:47,860 --> 00:02:53,620
Het is een argument dat bedoeld is om ons bang te maken, maar laten we dit eens kritisch bekijken.
39
00:02:53,620 --> 00:02:59,840
Ja, het klopt dat we in Europa vaak wat later aan de beurt zijn bij de introductie van nieuwe AI-technologie.
40
00:02:59,840 --> 00:03:04,480
De advanced voice mode van ChatGPT kwam later beschikbaar.
41
00:03:04,480 --> 00:03:07,780
Apples AI intelligence laat nog even op zich wachten.
42
00:03:07,780 --> 00:03:10,700
En ongetwijfeld volgen er meer voorbeelden.
43
00:03:10,700 --> 00:03:17,520
Maar laten we eerlijk zijn, tot nu toe betekende dit meestal een vertraging van hooguit enkele weken, maanden.
44
00:03:17,520 --> 00:03:27,560
En in die tussenliggende periode heb ik geen baanbrekende innovaties of diensten gemist die het argument van onherroepelijke achterstand rechtvaardigen.
45
00:03:27,560 --> 00:03:35,140
Sterker nog, ik ben juist trots op hoe Europa haar waarden verdedigt en vastlegt in wetgeving waar big tech zich aan moet houden.
46
00:03:35,280 --> 00:03:45,300
Als deze bedrijven niet kunnen of willen voldoen aan de bescherming van onze fundamentele rechten, dan zegt dat meer over hun bedrijfsmodel dan over onze regelgeving.
47
00:03:45,300 --> 00:03:54,420
Het is een bewuste keuze van Europa om niet klakkeloos mee te gaan in de move fast and break things mentaliteit die we zo vaak zien in Silicon Valley.
48
00:03:54,420 --> 00:03:58,280
En dit brengt me terug bij Meta's open source strategie.
49
00:03:58,280 --> 00:04:04,460
Want wat ze eigenlijk zeggen is, geef ons je data, anders loop je achter.
50
00:04:04,700 --> 00:04:06,340
Maar achterop wat precies?
51
00:04:06,340 --> 00:04:12,600
Op het vermogen om nog gerichtere advertenties te tonen, om nog meer tijd door te brengen op social media platforms,
52
00:04:12,600 --> 00:04:17,320
of om nog meer persoonlijke informatie te verzamelen onder het mom van innovatie.
53
00:04:17,320 --> 00:04:24,360
En we moeten ons realiseren dat Meta's vraag om data niet voortkomt uit altruïsme of zorg om Europese innovatie.
54
00:04:24,360 --> 00:04:27,580
Het komt voort uit een fundamentele bedrijfsmodel.
55
00:04:27,580 --> 00:04:34,300
Hoe meer ze over ons weten, hoe beter ze ons kunnen targeten met advertenties, hoe meer winst ze meten te maken.
56
00:04:34,320 --> 00:04:37,740
Het gratis beschikbaar stellen van Lama is geen cadeau.
57
00:04:37,740 --> 00:04:40,580
Het is een investering in hun eigen toekomst.
58
00:04:40,580 --> 00:04:50,660
Maar waarom zou een commercieel Meta bedrijf toch een model gratis aan onze beschikbaar stellen?
59
00:04:50,660 --> 00:04:53,800
Ten eerste gebruiken ze het model zelf.
60
00:04:53,800 --> 00:04:55,400
Daar zijn ze open over.
61
00:04:55,860 --> 00:04:59,180
De feedback die ze krijgen helpt bij het verbeteren van hun diensten.
62
00:04:59,180 --> 00:05:01,200
Maar er zit meer achter.
63
00:05:01,200 --> 00:05:04,900
Dit is in essentie, vind ik, een Trojaans paard.
64
00:05:04,900 --> 00:05:10,720
Meta gebruikt het open source argument om hun onverzadigbare honger naar data te legitimeren.
65
00:05:10,720 --> 00:05:15,500
Des te meer data ze hebben, des te beter ze ons gedrag kunnen voorspellen en beïnvloeden.
66
00:05:16,200 --> 00:05:19,900
Het patroon dat we hier zien is typerend hoe grote techbedrijven opereren.
67
00:05:19,900 --> 00:05:21,280
Ze creëren eerst een probleem.
68
00:05:21,280 --> 00:05:23,940
In dit geval een vermeende innovatieachterstand.
69
00:05:23,940 --> 00:05:26,880
Om vervolgens zichzelf als de oplossing te presenteren.
70
00:05:26,880 --> 00:05:29,200
Het is een bekende marketingstrategie.
71
00:05:29,200 --> 00:05:32,660
Maar in dit geval staat er veel meer op het spel dan alleen commercieel succes.
72
00:05:33,620 --> 00:05:37,860
Wat Meta's strategie zo verontrustend maakt is de schaal waarop ze opereren.
73
00:05:37,860 --> 00:05:47,060
Door hun taalmodel open source aan te bieden, positioneren ze zichzelf als de goede partij die democratiseert en deelt.
74
00:05:47,060 --> 00:05:57,400
Maar ondertussen bouwen ze aan een infrastructuur waarbij ze toegang krijgen tot ongekende hoeveelheid data van culturele instellingen zoals ze willen, bibliotheken, alles wat gezegd wordt.
75
00:05:58,180 --> 00:06:04,640
Maar ook dus andere organisaties die allemaal onder druk worden gezet om zogenaamd mee te doen aan innovatie.
76
00:06:04,640 --> 00:06:10,200
We moeten ons ook afvragen wat er gebeurt met al die data die wordt verzameld.
77
00:06:10,200 --> 00:06:14,020
En Meta heeft een historie van datamisbruik die we niet mogen vergeten.
78
00:06:14,020 --> 00:06:23,600
Het Cambridge Analytica schandaal was geen incident, maar het was een symptoom van een bedrijfscultuur die data ziet als handelswaar en niet als iets wat beschermd moet worden.
79
00:06:25,560 --> 00:06:32,880
Wat mij betreft weet je is het niet de vraag in Europa of we willen innoveren, maar hoe we dat willen doen.
80
00:06:32,880 --> 00:06:40,220
En laten we daar eens goed naar kijken, want Europa loopt juist voorop als het gaat om verantwoorde AI.
81
00:06:40,220 --> 00:06:48,580
Terwijl andere regio's zich blind staren op snelheid en schaal, kiezen wij voor een doordachte aanpak waarbij ethiek en innovatie hand in hand gaan.
82
00:06:48,820 --> 00:06:54,700
We zien dit terug in de opkomst van Europese AI bedrijven zoals bijvoorbeeld Mistral AI.
83
00:06:54,700 --> 00:06:59,620
Die bewijst dat je ook zonder massale dataverzameling echt wel vooruit kan boeken.
84
00:06:59,620 --> 00:07:06,000
Maar nog belangrijker is onze wetenschappelijke bijdrage aan het veld van verantwoorde AI.
85
00:07:06,000 --> 00:07:17,200
Op universiteiten door heel Europa wordt baanbrekend onderzoek gedaan naar fairness in AI, naar privacy behoudende technieken en naar manieren om AI systemen transparanter en verklaarbaar te maken.
86
00:07:17,200 --> 00:07:22,340
En laten we eerlijk zijn over dat meer data is beter argument dat we steeds horen.
87
00:07:22,340 --> 00:07:28,720
Het is een oversimplificatie die voorbij gaat aan waar het echt om gaat.
88
00:07:28,720 --> 00:07:32,460
Meer data betekent niet automatisch betere resultaten.
89
00:07:32,460 --> 00:07:37,400
Het gaat om de kwaliteit, de diversiteit en de representativiteit van die data.
90
00:07:37,400 --> 00:07:42,780
Het is als koken en meer ingrediënten maken niet automatisch een beter gerecht.
91
00:07:43,080 --> 00:07:47,680
Het gaat om de juiste ingrediënten, zorgvuldig geselecteerd en met aandacht bereid.
92
00:07:47,680 --> 00:07:50,900
Sterker nog, teveel data kan zelfs contraproductief zijn.
93
00:07:50,900 --> 00:07:57,920
Het kan modellen zo complex maken dat ze moeilijk nog te begrijpen zijn of te controleren.
94
00:07:57,920 --> 00:08:02,140
En dit zijn precies de uitdagingen waar Europees onderzoek zich op richt.
95
00:08:02,360 --> 00:08:07,460
Hoe bouwen we AI systemen die niet alleen krachtig zijn, maar ook betrouwbaar, eerlijk en transparant.
96
00:08:08,000 --> 00:08:17,000
Europas kracht ligt niet in het blind verzamelen van zoveel mogelijk data, maar in het slim en verantwoord ontwikkelen van AI technologie die werkt voor iedereen.
97
00:08:17,000 --> 00:08:22,340
Onze waarden zijn geen beperking, ze zijn juist onze grootste innovatiekracht.
98
00:08:22,340 --> 00:08:27,160
En innovatie is belangrijk, maar niet tegen elke prijs.
99
00:08:27,720 --> 00:08:36,040
Als we niet oppassen, ruilen we onze druk van angst voor achterlopen, onze data soevereiniteit in voor een korte termijn voordeel.
100
00:08:36,040 --> 00:08:38,080
En we moeten het grotere plaatje zien.
101
00:08:38,080 --> 00:08:45,600
Dit gaat niet alleen om AI modellen of innovatie, dit gaat om de vraag wie er controle heeft over onze digitale toekomst.
102
00:08:45,600 --> 00:08:49,940
Dus laten we niet in de gladde lobbypraatjes van Meta trappen.
103
00:08:51,280 --> 00:08:56,040
Ja, het beschikbaar stellen van Lama als open source model is waardevol voor de AI community.
104
00:08:56,040 --> 00:08:58,740
Kijk, ik ben daar zeker niet op tegen.
105
00:08:58,740 --> 00:09:05,100
Het stelt ontwikkelaars en onderzoekers in staat om te experimenteren en te innoveren en dat is positief.
106
00:09:05,100 --> 00:09:07,320
Maar laten we wel nuchter blijven.
107
00:09:07,320 --> 00:09:12,760
Medita is niet plotseling getransformeerd tot een altruïstisch bedrijf dat ons welzijn vooropstelt.
108
00:09:12,760 --> 00:09:18,200
Het blijft een commerciële gigant die primair winst nastreeft en data ziet als handelswaar.
109
00:09:18,200 --> 00:09:20,920
Een strategie is subtiel, maar duidelijk.
110
00:09:20,920 --> 00:09:25,480
Ze gebruiken open source als lokkertje om toegang te krijgen tot nog meer data.
111
00:09:25,480 --> 00:09:30,540
Het is als een café dat gratis drankjes uitdeelt, niet omdat ze zo vrijgevig zijn,
112
00:09:30,540 --> 00:09:33,160
maar omdat ze willen dat je blijft hangen en meer gaat bestellen.
113
00:09:33,160 --> 00:09:35,900
En Medita's bedrijfsmodel is niet veranderd.
114
00:09:35,900 --> 00:09:38,840
Ze zijn nog steeds uit op jou en mijn data.
115
00:09:38,840 --> 00:09:40,700
Alleen de verpakking is anders.
116
00:09:40,700 --> 00:09:48,060
Dus daarmee roep ik alle organisaties op die overwegen hun data te delen met Medita
117
00:09:48,060 --> 00:09:50,780
om eerst drie cruciale vragen te stellen.
118
00:09:50,780 --> 00:09:53,460
Wat gebeurt er echt met deze data?
119
00:09:53,460 --> 00:09:56,500
Welke garanties zijn er voor verantwoord gebruik?
120
00:09:56,500 --> 00:10:01,660
En vooral is deze uitruil, onze data voor hun model, wel zo eerlijk als het lijkt.
121
00:10:01,660 --> 00:10:07,200
Gebruik het taalmodel Lama gerust als het waardevol is voor jouw doeleinden, natuurlijk.
122
00:10:07,200 --> 00:10:10,420
Maar wees je vooral bewust van de bredere context.
123
00:10:11,080 --> 00:10:15,000
Laten we het gesprek hierover aangaan, niet vanuit de angst voor wat we missen,
124
00:10:15,000 --> 00:10:17,700
maar vanuit een heldere visie op wat we willen bereiken.
125
00:10:17,700 --> 00:10:20,860
Want uiteindelijk gaat het niet om wie de meeste data heeft,
126
00:10:20,860 --> 00:10:23,140
maar om wie die data het meest verantwoord inzet.
127
00:10:25,820 --> 00:10:27,380
Dit was AIToday Live.
128
00:10:27,380 --> 00:10:29,100
Dankjewel weer voor het luisteren.
129
00:10:29,100 --> 00:10:30,520
Tot de volgende keer!
130
00:10:30,520 --> 00:10:35,520
[Muziek]