AIToday Live

S06E26 - De Waarheid Achter AI-Hallucinaties

March 28, 2024 Aigency by Info Support Season 6 Episode 18
AIToday Live
S06E26 - De Waarheid Achter AI-Hallucinaties
Show Notes Transcript

In de nieuwste aflevering van AIToday Live verkennen we het gebruik van de term 'hallucinatie' binnen de context van kunstmatige intelligentie. Dit begrip, vaak gebruikt om onnauwkeurigheden in AI-systemen zoals chatbots te beschrijven, wordt kritisch onderzocht.

Joop bespreekt waarom dit etiket mogelijk misleidend kan zijn en dragen bij aan een antropomorfische visie op technologie. Deze discussie belicht de noodzaak voor een accuratere terminologie en begrip van AI's grenzen en mogelijkheden.


Links

  • Wikipedia: Hallucinaties (https://nl.wikipedia.org/wiki/Hallucinatie)

Met onze podcast AIToday Live zijn we genomineerd voor de Belgian Podcast Awards ! 🏆🤩 Belgisch? Ja, een Belgische award, want er is een speciale categorie voor Nederlandse podcasts: Prijs van Oranje.

Wil je ons steunen? 🙏❤️ Stem op ons!

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Wil je toegang tot exclusieve toegang voor onze luisteraars? Schrijf je in voor de nieuwsbrief 'AI versterkt de Mens'

Contact AIToday Live


We zijn altijd op zoek naar nieuwe gasten die over AI willen spreken.

1
00:00:00,000 --> 00:00:05,280
Hoi, leuk dat je weer luistert naar een korte aflevering van AIToday Live.

2
00:00:05,280 --> 00:00:07,600
Mijn naam is Joop Snijder, CTO bij Aigency.

3
00:00:07,600 --> 00:00:13,600
En vandaag ga ik het hebben over het begrip Hallucinaties en AI.

4
00:00:13,600 --> 00:00:20,760
In het tijdperk waarin de grenzen van kunstmatige intelligentie steeds verder worden verlegd,

5
00:00:20,760 --> 00:00:28,000
komt er een term langs die zowel fascinatie als wat mij betreft verwarring oproept.

6
00:00:28,000 --> 00:00:30,360
Dat zijn namelijk hallucinaties.

7
00:00:30,360 --> 00:00:36,120
Hallucinaties van chatbots zoals ChatGPT, Googlebot, je kent ze wel.

8
00:00:36,120 --> 00:00:42,520
Deze term wordt gebruikt om de neiging van AI modellen om incorrect gegenereerde informatie

9
00:00:42,520 --> 00:00:43,520
te beschrijven.

10
00:00:43,520 --> 00:00:49,360
En ik geloof sterk dat het tijd is om deze beschrijving te herzien, die van de hallucinatie.

11
00:00:49,360 --> 00:00:56,680
De discussie rond AI en zijn vermogens raakt aan essentiële vragen over onze eigen menselijkheid

12
00:00:56,680 --> 00:00:58,120
en hoe wij de wereld ervaren.

13
00:00:58,120 --> 00:01:05,200
Want wanneer mensen de term hallucinatie gebruiken met betrekking tot chatbots, bedoelen ze hun

14
00:01:05,200 --> 00:01:11,680
vermogen om antwoorden op vragen te verzinnen.

15
00:01:11,680 --> 00:01:16,840
Als je een chatbot vraagt een artikel over een onderwerp te schrijven en referenties

16
00:01:16,840 --> 00:01:22,400
op te nemen, kunnen sommige van de citaten die het geeft, complete verzinsels zijn.

17
00:01:22,400 --> 00:01:25,800
De bronnen bestaan simpelweg niet en hebben ook nooit bestaan.

18
00:01:25,800 --> 00:01:32,040
Wanneer je biografische informatie over een echte persoon opvraagt, kan een chatbot informatie

19
00:01:32,040 --> 00:01:34,960
teruggeven die eenvoudigweg nonsens is.

20
00:01:34,960 --> 00:01:39,160
Alsof het deze uit het niets heeft geplukt en als feiten presenteert.

21
00:01:39,160 --> 00:01:45,240
Probeer maar eens over jezelf te vragen welke functie je binnen jouw bedrijf hebt.

22
00:01:45,240 --> 00:01:48,880
Grote kans dat dat iets heel anders is dan de werkelijkheid.

23
00:01:48,880 --> 00:01:57,200
Dit vermogen om onjuiste informatie te genereren wordt nu een hallucinatie genoemd.

24
00:01:57,200 --> 00:02:02,560
Maar het gebruik van die term in die context is een gevaarlijke misvatting over de toestand

25
00:02:02,560 --> 00:02:08,240
van kunstmatige intelligentie en de relatie ervan met wat mensen doen als ze hallucineren.

26
00:02:08,240 --> 00:02:13,760
Kijk op Wikipedia voor een definitie van hallucinatie en je krijgt dit.

27
00:02:13,760 --> 00:02:19,800
Een hallucinatie is een niet-zintuigelijke beleving die niet overeenkomt met wat er in

28
00:02:19,800 --> 00:02:22,440
de fysieke werkelijkheid gebeurt.

29
00:02:22,440 --> 00:02:28,720
Anders gezegd, een hallucinatie is een waarneming waarbij de prikkel uit de buitenwereld ontbreekt.

30
00:02:28,720 --> 00:02:39,200
Bij een hallucinatie proeft, ziet, voelt of ruikt men zaken die niet in de buitenwereld

31
00:02:39,200 --> 00:02:40,200
voorkomen.

32
00:02:41,000 --> 00:02:46,720
Het is duidelijk dat je zintuigen betrokken zijn bij een hallucinatie en daar loopt het

33
00:02:46,720 --> 00:02:49,600
mank bij het gebruik van de term voor AI.

34
00:02:49,600 --> 00:02:55,920
Bij de AI is er geen zintuigelijke waarneming door een taalmodel.

35
00:02:55,920 --> 00:02:59,080
Sterker nog, er is niet eens een begripsvorming.

36
00:02:59,080 --> 00:03:05,560
AI functioneert op basis van statistische correlaties binnen enorme datasets en mist

37
00:03:05,560 --> 00:03:12,440
de fysieke ervaring en de directe verbondenheid met de wereld die centraal staan in onze menselijke

38
00:03:12,440 --> 00:03:13,440
ervaring.

39
00:03:13,440 --> 00:03:19,800
Het label hallucinatie voor AI-fouten negreert dit fundamentele verschil.

40
00:03:19,800 --> 00:03:24,280
Dit onderscheid is niet slechts een kwestie van semantiek, daar heb ik ook een hekel aan,

41
00:03:24,280 --> 00:03:29,440
maar het raakt aan de kern van mijn begrip van AI en hoe we deze technologie integreren

42
00:03:29,440 --> 00:03:30,440
in onze samenleving.

43
00:03:30,440 --> 00:03:38,000
Door AI-fouten als 'hallucinaties' te bestempelen, vrees ik dat we het vermenselijken van de technologie

44
00:03:38,000 --> 00:03:43,680
bevorderen die ons begrip van wat AI werkelijk kan en moet doen, vertroebelt.

45
00:03:43,680 --> 00:03:50,320
We projecteren menselijke eigenschappen op systemen die fundamenteel anders zijn, wat

46
00:03:50,320 --> 00:03:55,600
kan leiden tot misverstanden over de capaciteiten en beperkingen van deze technologieën.

47
00:03:55,600 --> 00:04:02,280
Nu zie ik het echte gevaar niet zozeer in de zogenaamde hallucinaties van AI, maar in

48
00:04:02,280 --> 00:04:07,640
het onvermogen om de mogelijkheden en beperkingen van AI binnen de juiste context te zien.

49
00:04:07,640 --> 00:04:14,080
Als we niet erkennen dat de fouten van AI voortkomen uit een statistische aard en niet

50
00:04:14,080 --> 00:04:21,920
uit de vorm van bewustzijn, dan creëren we, nee ik moet zeggen riskeren we, dat we oplossingen

51
00:04:21,920 --> 00:04:26,200
bouwen die niet aansluiten bij onze menselijke ervaringen en behoeften.

52
00:04:26,200 --> 00:04:30,440
Dit kan ons uiteindelijk minder menselijk maken.

53
00:04:30,440 --> 00:04:37,200
Dan worden wij gedwongen om ons aan te passen aan de beperkingen van de technologie in plaats

54
00:04:37,200 --> 00:04:39,760
van dat de technologie ons dient.

55
00:04:39,760 --> 00:04:44,000
Wat mij betreft het belangrijkste is juist van die technologie.

56
00:04:44,000 --> 00:04:49,560
Dus de toekomst van AI in onze samenleving is rijk aan potentieel.

57
00:04:49,560 --> 00:04:56,200
Wat het allemaal kan, maar het vereist van ons een zorgvuldige en geïnformeerde benadering.

58
00:04:56,200 --> 00:05:01,320
We moeten technologie ontwikkelen met een helder begrip van wat het kan en niet kan

59
00:05:01,320 --> 00:05:03,760
en hoe het zich verhoudt tot onze menselijke ervaring.

60
00:05:03,760 --> 00:05:10,200
Dit betekent afstand nemen van misleidende termen zoals hallucinaties en AI erkennen

61
00:05:10,200 --> 00:05:17,840
als een krachtig hulpmiddel dat, indien correct gebruikt, onze samenleving kan verrijken en

62
00:05:17,840 --> 00:05:21,240
die onze menselijke ervaringen versterken en verbeteren.

63
00:05:21,240 --> 00:05:25,680
Ik ben heel benieuwd wat jij hiervan vindt.

64
00:05:25,680 --> 00:05:31,960
Laat je comments achter op de socials, LinkedIn of mail het ons.

65
00:05:31,960 --> 00:05:34,480
Ik ben in ieder geval heel erg benieuwd naar jouw reactie.

66
00:05:34,480 --> 00:05:36,240
Dank je wel weer voor het luisteren.

67
00:05:36,240 --> 00:05:42,240
-