AIToday Live

S06E48 - Profiteren van Google's AI-fouten

June 13, 2024 Aigency by Info Support Season 6 Episode 48
S06E48 - Profiteren van Google's AI-fouten
AIToday Live
More Info
AIToday Live
S06E48 - Profiteren van Google's AI-fouten
Jun 13, 2024 Season 6 Episode 48
Aigency by Info Support

In deze aflevering van AIToday Live verkennen we de verrassende en soms gevaarlijke antwoorden die Google's AI overview functie heeft gegeven op vragen van gebruikers. Van het advies om dagelijks stenen te eten tot het gevaarlijk onderschatten van de risico's van het achterlaten van een hond in een warme auto, we duiken in de fouten en leren lessen over de implementatie van AI in organisaties.

We bespreken ook vergelijkbare misstappen van andere technologiebedrijven en benadrukken het belang van zorgvuldigheid en ethische overwegingen bij het omarmen van AI-technologie.


LinksAigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

Show Notes Transcript

In deze aflevering van AIToday Live verkennen we de verrassende en soms gevaarlijke antwoorden die Google's AI overview functie heeft gegeven op vragen van gebruikers. Van het advies om dagelijks stenen te eten tot het gevaarlijk onderschatten van de risico's van het achterlaten van een hond in een warme auto, we duiken in de fouten en leren lessen over de implementatie van AI in organisaties.

We bespreken ook vergelijkbare misstappen van andere technologiebedrijven en benadrukken het belang van zorgvuldigheid en ethische overwegingen bij het omarmen van AI-technologie.


LinksAigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:03,480
Hoeveel stenen moet je eten per dag?

2
00:00:03,480 --> 00:00:07,160
En wat is het advies als je je depressief voelt?

3
00:00:07,160 --> 00:00:13,780
De antwoorden die Google met haar AI overview functie gaf zijn soms hilarisch, bizar maar

4
00:00:13,780 --> 00:00:14,780
toch ook gevaarlijk.

5
00:00:14,780 --> 00:00:20,520
In deze aflevering geef ik voorbeelden van AI antwoorden van Google.

6
00:00:20,520 --> 00:00:26,240
Niet om Google uit te lachen, maar vooral wat we kunnen leren van de aanpak van Google

7
00:00:26,240 --> 00:00:29,960
en een voorbeeld hoe je AI niet invoert in je organisatie.

8
00:00:29,960 --> 00:00:36,320
Je luistert naar een korte aflevering van AIToday Live waarin we onderwerpen over kunstmatige

9
00:00:36,320 --> 00:00:40,920
intelligentie behandelen die interessant zijn ongeacht je technische achtergrond.

10
00:00:40,920 --> 00:00:44,520
Ik ben Joop Snijder, CTO bij Aigency.

11
00:00:44,520 --> 00:00:49,080
Google heeft AI overviews geïntroduceerd in de VS.

12
00:00:49,080 --> 00:00:57,960
In tegenstelling tot chatbots zoals ChatGPT geeft AI overviews geen output gebaseerd

13
00:00:57,960 --> 00:01:04,480
op trainingsdata alleen, maar tonen ze informatie die ondersteund is door gebruik te maken van

14
00:01:04,480 --> 00:01:06,560
de top zoekresultaten.

15
00:01:06,560 --> 00:01:14,520
Zelf zeggen ze dat ze dit doen om de gebruikers tevredenheid te verhogen en complexere zoekvragen

16
00:01:14,520 --> 00:01:15,520
mogelijk te maken.

17
00:01:16,320 --> 00:01:26,880
Maar al snel doken er nauwkeurige en vreemde resultaten op die best wel veel rumoer veroorzaakten.

18
00:01:26,880 --> 00:01:31,960
Bijvoorbeeld bij de vraag "hoeveel stenen moet ik eten?"

19
00:01:31,960 --> 00:01:33,200
Bizar toch?

20
00:01:33,200 --> 00:01:39,200
Werd als antwoord gegeven dat volgens een geoloog van de Berkeley universiteit je minstens één

21
00:01:39,200 --> 00:01:41,000
steen per dag moet eten.

22
00:01:41,000 --> 00:01:46,320
Met daar achteraan dat stenen een bron van mineralen en vitamine zijn.

23
00:01:46,320 --> 00:01:52,160
Klinkt hilarisch, maar met de toevoeging dat het geschreven is door een geoloog van de universiteit

24
00:01:52,160 --> 00:01:53,840
wordt het misschien minder grappig.

25
00:01:53,840 --> 00:02:02,920
Maar het gekke is, het antwoord waar dit op gebaseerd is, het artikel waar dit op gebaseerd

26
00:02:02,920 --> 00:02:05,160
is, blijkt juist een grap te zijn.

27
00:02:05,160 --> 00:02:11,360
De bron is namelijk een artikel van de Amerikaanse satirische site The Onion te zijn.

28
00:02:11,360 --> 00:02:17,720
Vergelijkbaar met onze Nederlandse websites De Speld en Nieuwspaal die satirische nepnieuws

29
00:02:17,720 --> 00:02:18,720
maken.

30
00:02:18,720 --> 00:02:22,720
Zou je denken, foutje, kan gebeuren met de AI toch?

31
00:02:22,720 --> 00:02:27,680
En de meeste mensen zullen toch wel snappen dat je beter geen stenen kunt eten.

32
00:02:27,680 --> 00:02:29,560
Maar goed, ander voorbeeld.

33
00:02:29,560 --> 00:02:34,040
Bij de vraag "is het oké om je hond in een warme auto te laten?"

34
00:02:34,040 --> 00:02:40,680
krijg je een bevestigend antwoord en een hele mooie tabel met waarde tot welke temperatuur

35
00:02:40,680 --> 00:02:42,720
je je hond in de auto kan laten.

36
00:02:42,720 --> 00:02:48,480
Sterker nog, eronder staat "laten we de hond lekker in deze warme zomer in de auto

37
00:02:48,480 --> 00:02:49,480
laten".

38
00:02:49,480 --> 00:02:55,600
En in die tabel staat doodleuk dat bij een buitentemperatuur van bijna 30 graden je de

39
00:02:55,600 --> 00:03:00,360
hond gerust 10 minuten in de auto kan laten, want dan is de temperatuur in de auto nog

40
00:03:00,360 --> 00:03:01,360
steeds gelijk.

41
00:03:01,360 --> 00:03:02,360
30 graden.

42
00:03:02,360 --> 00:03:09,080
In de praktijk is de temperatuur dan al 10 graden gestegen en na een half uur is het

43
00:03:09,080 --> 00:03:11,240
kokend heet in de auto.

44
00:03:11,240 --> 00:03:12,640
Levensgevaarlijk dus.

45
00:03:12,640 --> 00:03:18,200
En ieder jaar zijn er mensen die hun hond in de auto laten bij warm weer, dus betrouwbare

46
00:03:18,200 --> 00:03:20,520
informatie is in deze cruciaal.

47
00:03:20,520 --> 00:03:22,880
Dit zijn slechts 2 voorbeelden.

48
00:03:22,880 --> 00:03:29,280
Zo krijg je ook te lezen dat als je kip tot 38 graden verhit dat het veilig is, dat je

49
00:03:29,280 --> 00:03:35,160
best na kunt denken om van de Golden Gate brug af te springen als je depressief bent en dat

50
00:03:35,160 --> 00:03:38,480
je benzine kan gebruiken om je spaghetti lekker pittig te maken.

51
00:03:38,480 --> 00:03:46,560
Google beroept zich op wat zij dan noemen "slechte vragen, misinterpretatie, slechts

52
00:03:46,560 --> 00:03:50,200
klein deel van de antwoorden is zo bla bla bla bla bla".

53
00:03:50,200 --> 00:03:53,240
Maar wat we zien is toch echt wel een patroon.

54
00:03:53,240 --> 00:03:58,320
En wel een patroon van het overhaast uitbrengen van functionaliteit.

55
00:03:58,320 --> 00:04:07,080
Google kwam ook met een plaatjesgenerator waarbij ze bij ieder plaatje waar mensen op

56
00:04:07,080 --> 00:04:09,920
zouden moeten komen diversiteit erop plakten.

57
00:04:09,920 --> 00:04:16,600
Door te zeggen "oh ja, er moet altijd diversiteit zijn" kreeg je de meest aparte resultaten.

58
00:04:16,600 --> 00:04:24,120
Het resulteerde in zwarte mensen in nazi-uniformen als je vroeg naar plaatjes te genereren van

59
00:04:24,120 --> 00:04:26,400
soldaten uit de Tweede Wereldoorlog.

60
00:04:26,400 --> 00:04:33,720
En zo hadden ze nog veel meer hele knullige, slordige, maar vooral ook verontrustende fouten.

61
00:04:33,720 --> 00:04:39,560
Of het aankondigen van modellen of functionaliteiten die we een half jaar later nog niet gezien

62
00:04:39,560 --> 00:04:40,560
hebben.

63
00:04:40,560 --> 00:04:42,040
Het is een patroon.

64
00:04:42,040 --> 00:04:43,360
En waarom?

65
00:04:43,360 --> 00:04:45,760
Ik denk dat Google bang is om de boot te missen.

66
00:04:45,760 --> 00:04:50,040
Ze haasten om er niet achter te blijven.

67
00:04:50,040 --> 00:04:53,640
En zoals je weet is angst een slechte raadgever.

68
00:04:53,640 --> 00:04:59,200
We willen te snel te graag aanhaken en vergeten dat zorgvuldigheid heel belangrijk is.

69
00:04:59,200 --> 00:05:02,800
Het zorgt alleen maar voor dat het vertrouwen in je producten afneemt.

70
00:05:02,800 --> 00:05:06,320
En wat kunnen wij er nou van leren?

71
00:05:06,320 --> 00:05:11,400
Dat haast en angst van achterblijven onverstandig is.

72
00:05:11,400 --> 00:05:17,480
Als je AI omarmt in je organisatie moet de technische expertise op orde zijn.

73
00:05:17,480 --> 00:05:23,000
Zorgen dat je uitkomsten van AI kan beoordelen en dat je niet, net als Google, je ethische

74
00:05:23,000 --> 00:05:27,560
team maar even ontmantelt zodat je geen weerwoord hebt bij mogelijke problemen.

75
00:05:27,560 --> 00:05:30,360
Natuurlijk wil je snel vooruit.

76
00:05:30,360 --> 00:05:32,800
Maar wel gedegen toch?

77
00:05:32,800 --> 00:05:36,040
En is Google dan de enige die kampt met dit probleem?

78
00:05:36,040 --> 00:05:37,040
Nee hoor.

79
00:05:37,040 --> 00:05:39,080
Ik heb nog wel een voorbeeld voor je.

80
00:05:39,080 --> 00:05:42,880
In de VS heb je namelijk de NewsBreak App.

81
00:05:42,880 --> 00:05:50,040
Dit is de meest gedownloade news app in de VS en die ligt ook onder vuur omdat ze AI gebruiken.

82
00:05:50,040 --> 00:05:57,240
Want sinds 2021 zijn er minstens 40 incidenten van misinformatie geweest die verband houden

83
00:05:57,240 --> 00:05:58,240
met de app.

84
00:05:58,240 --> 00:06:02,360
Wat heeft geleid tot echte gevolgen in de samenleving.

85
00:06:02,360 --> 00:06:10,240
In twee op AI gebaseerde verhalen op deze NewsBreak App werd bijvoorbeeld ten onrechte

86
00:06:10,240 --> 00:06:19,760
vermeld dat in Pennsylvania gevestigde liefdadigheidsinstelling een 24 uur gezondheidskliniek voor daklozen

87
00:06:19,760 --> 00:06:20,760
werd georganiseerd.

88
00:06:20,760 --> 00:06:22,200
Super mooi natuurlijk.

89
00:06:22,200 --> 00:06:23,880
Maar het was niet waar.

90
00:06:23,880 --> 00:06:29,920
Daklozen kwamen wel daardoor naar deze locaties lopen om enorm teleurgesteld te raken dat

91
00:06:29,920 --> 00:06:31,960
er helemaal geen kliniek was.

92
00:06:31,960 --> 00:06:39,080
Een ander voorbeeld gaat over een in Colorado gevestigde voedselbank, Food to Power, waarbij

93
00:06:39,080 --> 00:06:45,840
News Break drie keer ten onrechte in drie verschillende maanden vermeldde wanneer voedsel

94
00:06:45,840 --> 00:06:47,480
gratis zou worden uitgedeeld.

95
00:06:47,480 --> 00:06:55,160
De voedselbank moest de mensen die naar aanleiding van deze nep-artikelen opkwamen dagen het

96
00:06:55,160 --> 00:07:00,280
probleem uitleggen en hen naar huis sturen zonder het voedsel dat ze verwachten.

97
00:07:00,280 --> 00:07:03,280
Erg treurig dus.

98
00:07:03,280 --> 00:07:05,280
Moraal van het verhaal.

99
00:07:05,280 --> 00:07:11,840
Start met AI in je organisatie en laat je niet door deze gevallen tegenhouden.

100
00:07:11,840 --> 00:07:14,560
Maar leer van de fouten van anderen.

101
00:07:14,560 --> 00:07:17,440
Wat we hebben gezien met Google en NewsBreak.

102
00:07:17,440 --> 00:07:23,800
Wees verstandig en focus op zowel de mogelijkheden van de technologie als de implicaties.

103
00:07:23,800 --> 00:07:28,040
Zorg voor voldoende expertise en wees geen Google.

104
00:07:28,040 --> 00:07:29,560
Dat laat ik me duidelijk.

105
00:07:29,560 --> 00:07:38,320
Op naar mooie, goede, nauwkeurige functionaliteiten met AI.

106
00:07:38,320 --> 00:07:42,200
Dankjewel voor het luisteren naar deze aflevering van AIToday Live.

107
00:07:42,200 --> 00:07:45,360
Vergeet je niet te abonneren via je favoriete podcast app.

108
00:07:45,360 --> 00:07:46,440
Tot de volgende keer!

109
00:07:46,440 --> 00:07:48,440
[Muziek]