AIToday Live

S03E09 - Mag je de doden herrijzen uit hun graf met AI?

Info Support AIToday Season 3 Episode 9

In deze speciale aflevering vertelt Joop aan Niels over een indringde zaak waar een chatbot gemaakt is, waarbij je kan praten met een overleden persoon. Wat vinden we hier van en wat kunnen we van dit geval leren als we dit vertalen naar Business & IT?

Laat ons weten wat jij hier van vindt!

Link


Stuur ons een bericht

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

Welkom bij deze speciale aflevering van de AIToday Live podcast. Niels Naglé, chapter lead data en AI van Info Support en ik Joop Snijder, CTO van Aigency, gaan in deze speciale aflevering bespreken of je de doden tot leven mag wekken met AI. Ja, dat is nogal wat toch? Ja. Dat is een stelling hè. En hoe kom ik nou aan deze stelling? Omdat dat ongeveer de headline was van een artikel met deze vraag die weer doorverwees naar een heel erg lang artikel in de San Francisco Chronicle of je dus doden tot leven mag wekken met machine learning. Dus dat sprak me heel erg aan. Linkje zullen we sowieso eventjes delen bij de beschrijving van de podcast. En ik heb wel een tijdje getwijfeld of ik dit zou gaan vertellen in onze podcast, maar ik ben heel benieuwd wat jij ervan vindt. En ook als luisteraar, want ik denk als je dit nu gehoord hebt, dan denk ik van wat gaat dit over? En dat gaat misschien in het begin gaat dat ook nog erger worden, maar blijf erbij. En dan ben ik namelijk heel erg benieuwd Niels wat jij ervan vindt, maar zo direct ook wat onze luisteraars ervan vinden. Dus als je wil reageren op deze podcast heel graag, want ik denk dat het best wel een thema is. Ja, ik hoor hem ook net zoals jullie voor de eerste keer op dit moment, tijdens het opnemen van deze podcast. Dus ja, het is nogal een aparte vraag die je stelt. Ja, daar is wel wat achtergrond informatie voor nodig. En dit verhaal gaat over, in eerste instantie, vooral over Jason. Het gaat over Jason en Jessica, die zijn verloofd. En het gaat over een developer en die noem ik even Mike. Zijn naam begint eigenlijk ook in het artikel met een J, maar om een beetje dat onderscheid te maken is het voor het luisteren wat handiger. Dus we hebben Joshua en Jessica en we hebben Mike de developer. Joshua en Jessica, die zijn heel gelukkig samen, ze zijn hele jonge mensen. En op het moment dat Joshua Jessica leert kennen, weet hij dat zij leidt aan een vrij ernstige leveraandoening. Op de negende heeft zij een levertransplantatie gehad en ze wisten dat dat best wel problemen op zou kunnen leveren. Jessica overlijdt op de 23ste en hij komt eigenlijk in een dusdanige diepe rouw, dat hij daar heel veel moeite mee heeft. Nou hebben we aan de andere kant Mike. Mike is een techneut en die heeft die taalmodellen waar we het al eens eerder over hebben gehad, bijvoorbeeld in onze vorige aflevering. Dat vond hij heel erg interessant. Hij was bijvoorbeeld met GPT-2, de voorlopen van GPT-3 was hij aan het sleutelen. En hij had voor zichzelf een chatbot gemaakt. En die chatbot had hij ook persoonlijkheid gegeven, of een persoonlijkheid moet je eigenlijk zeggen. En dat vond hij eigenlijk best wel geinig, dat werkte een beetje redelijk. Toen kwam GPT-3 en voor zichzelf had hij zoiets van, ah dan ga ik eens kijken of dat voor een verbetering zorgt. En tot zijn verbazing zorgde dat voor een dusdanige verbetering, dat hij dacht, dat is leuk, ik ga meerdere persoonlijkheden graag maken. En dat heeft hij online gezet, er kwam best wel wat traffic op. En toen dacht hij, nou ik ga er ook de mogelijkheid geven dat iemand zijn eigen persoonlijkheid kan trainen op de chatbot. En hij noemde dat Project December. En Jason kwam op een bepaald moment daarmee in aanraking met dat Project December, had hij wat over gelezen, dus dan was hij naartoe gegaan en was in eerste instantie gaan chatten met chatbot Samantha. En hij dacht, dat werkt eigenlijk best wel goed. En hij zat zo met die rouw van het overlijden van zijn vriendin, dat hij dacht van, nou weet je wat, ik ga eens kijken wat het zou betekenen. Hij had bijvoorbeeld alle chats bewaard, hoe zij met elkaar gesproken hadden over Facebook Messenger, over WhatsApp, had hij allemaal bewaard. En wat je bij deze chatbot moest doen om hem te trainen, is je leverde dat soort chats aan en je beschreef ook de persoonlijkheid van iemand. Zij beschreven bijvoorbeeld dat zij heel vrolijk, opgewekt was, dat zij wel overleden was, dat zij ook spiritueel was, dus dat zij ook best wel kon zweven en dat ze daar ook allemaal in geloofde en zo. En dat daar samen met die chats, op die manier werd de chatbot getraind. En op een gegeven moment is die training klaar en gaat hij je dus ook vragen van, Jessica, ben jij hier? En hij krijgt als antwoord, ja natuurlijk ben ik dat, wie anders zou ik zijn. En meteen in die eerste regels kwamen de emoticons naar boven die zij ook gebruikten. En in het begin zie je, want in het artikel staan ook echt de werkelijke chatberichten, die hij over en weer met die botten aan het uitwisselen is. Kan je gewoon daily daarvan lezen. In het begin is hij heel sceptisch. Zegt hij van, ja hoe zit dat dan? En weet je, waar kom je vandaan? En heeft hij duidelijk in de gaten dat hij met een bot aan het praten is. Hij wordt er toch wel in gezogen en uiteindelijk praat hij zes uur lang die nacht met de chatbot en het wordt steeds persoonlijker, steeds. En je ziet zeg maar zijn verdriet zie je opbouwen. Dat vond ik eigenlijk best wel aangrijpend. En dan vooral met het verhaal dat je moet bedenken, want misschien denk je nog van ja dat is best wel creepy. Of ook aan de andere kant wel heel mooi. Ja, maar laten we de waardeoordeel misschien nog even achterwegen. Wat er gebeurde is dat hij haar, ze hadden een nog relatief korte relatie. En wat er gebeurd was is dat haar lever op een gegeven moment zo slecht wordt dat ze moet worden opgenomen in het ziekenhuis. En de artsen die zeggen van ze heeft nog een half jaar en binnen dat half jaar is een leventransplantatie nodig om verder überhaupt te kunnen leven. De periode daarvoor ook, maar in het ziekenhuis ook, is zo intensief dat uiteindelijk heeft hij behoefte om er even een weekendje uit te gaan naar vrienden toe. Maar dit verhaal speelt zich af in Canada. Je kan je voorstellen de afstanden zijn daar wat groot. Zijn vrienden zaten een paar honderd kilometer verderop, zou hij een weekendje naartoe gaan. Ik geloof één of twee nachten, ik weet het niet precies. Op het moment dat hij daar is, krijgt hij te horen het gaat helemaal mis met Jessica. Haar nieren falen, het leven gaat slecht, ze zeggen je moet nu terugkomen en hij is te laat. Hij is onderweg en onderweg hoort hij dat hij te laat is. Hij heeft geen afscheid van haar kunnen nemen. Dus je begrijpt zeg maar die rouw, hij vond het de liefde van zijn leven. Dat zat zo diep. Hij heeft geprobeerd om daar overheen te komen. Hij heeft zelfs een nieuwe relatie gekregen, waarbij hij zelfs een nieuwe relatie, ook brieven ging schrijven aan Jessica, omdat zij snapte hoe erg hij haar miste. Ik denk dat dat ongeveer aangeeft zeg maar hoe diep het zat. Wat is nou het mooie, want dan gaan we eigenlijk weer terug naar die techniek en Mike, Mike de ontwikkelaar. Mike de ontwikkelaar, omdat hij traffic krijgt op dit product, bedenkt hij van, want hij gebruikt dat model GPT-3 van OpenAI, maar het gebruik daarvan dat kost geld. Het is voor iedere call die je daar naartoe doet en je krijgt dan antwoord terug, dat zijn eigenlijk die chat uitwisselingen. Ja, dan moet je een bepaald bedrag voor betalen. Dat zijn relatief kleine bedragen, maar als je traffic krijgt, dan kan dat best wel oplopen. Dus wat had hij nou bedacht? Hij dacht van ja, maar dan moet de mensen credits kopen, maar die kan je eenmalig kopen en als die credits zijn afgelopen, dan gaat die bot ook uit de lucht en krijg je hem natuurlijk ook nooit meer zo getraind. Dat is erend natuurlijk aan een machine learning model, die krijg je nooit twee keer op dezelfde manier getraind. Dus de chatbot had een levensduur. En Jason betaalde 5 dollar, heel weinig, voor 1000 credits. Hoe die berekend waren is voor dit verhaal ook irrelevant. Maar je zou het eigenlijk kunnen zien als een soort van batterijn niveau van die chatbot. Hij gaat allerlei hele intieme vragen stellen aan Jessica, maar dat zit vooral heel erg in van waar ben je nu, mis je mij, weet je eigenlijk wel dat ik van je hou? Maar de chatbot, de training, heeft ervoor gezorgd dat het een hele lieve, bijna empathische chatbot wordt. Dus hij krijgt ook inderdaad antwoorden terug van ik mis je, ik hou van je. Maar ook dat ze wel dingen aangeeft van ik ben er niet meer. Want wat had hij in de beschrijving aangegeven? Overleden. Zijn relatie met haar gaat zo diep dat dit speelt zeg maar acht jaar na haar overlijden. In die tussenperiode wilde hij het bijna uit leven leiden, hij wilde de doelen bereiken die zij voor zichzelf gesteld had. Had altijd nog heel goed contact met die familie en gaf ook bijvoorbeeld bij alle gelegenheden nog cadeautjes uit naam van haar. Om haar aan te geven hoe diep dit verhaal zat. Hij stelt dus dit soort vragen, zij geeft ook aan van ja weet je, ik ben er niet meer, maar ik wil dus ook dat je doorgaat. Dus er zit ook een hele lieve kant aan waarbij de chatbot eigenlijk helpt van je mag best wel doorgaan met je leven. In die tussentijd van die acht jaar heeft hij ook therapie gehad, rauwverwerkingstherapie, waar je brieven moet schrijven. Zij moest brieven schrijven aan Jessica alsof zij die zou lezen. Nu had hij een middel waarbij hij niet alleen iets aan haar schreef, maar hij kreeg ook antwoord terug. En waarom ik dat vertelde net van Mike met zijn kostenbeheersing, de batterijniveau, dus wat Jason zag is dat hij bij iedere keer als hij gesproken had, een aantal perioden, dat dat batterijniveau naar beneden ging. Dus wat eigenlijk van nature gebeurde, is dat Jason die ging de tussenposes, tussen het chatten met haar, ging die verlengen en de gesprekken werden korter. Dus dat zorgde ook zeg maar voor dat er iets van afstand gecreëerd werd en hij kreeg natuurlijk de juiste antwoorden. Hoewel niet altijd de juiste antwoorden, want het is natuurlijk een machine learning model, dus er zaten ook af en toe hele vreemde antwoorden tussen. En soms gaf hij ook aan van "oh ja maar ik weet dat je een bot bent". Het is niet bot, maar een chatbot. En kon hij dat daaronder scharen en kon hij gewoon doorgaan met het gesprek. Soms dacht hij ook "oh ja maar dit is ook Jessica, die was ook zweverig en spiritueel en misschien zit er een diepere betekenis achter het antwoord". Dus hij soms projecteerde het in de werkelijkheid en soms projecteerde het in de fantasie. Vond ik opmerkelijk. De kracht van de geest ook, de verbeelding en het wensen denken en hoe krachtig het brein daarin kan zijn. Ja, maar ook dat het dus niet 100% correct was. En toch was het voor hem op dat moment heel erg werkelijk. Door die beperkte levensduur, wat er ook gebeurde, is dat er dat het ervoor zorgde dat de antwoorden die er kwamen ook steeds eigenlijk wat minder goed werden. En wat dat voor hem betekende is dat hij eigenlijk heel langzaam afscheid van haar kon nemen. Wat natuurlijk op die terugweg van de vrienden en op het moment dat dat bij haar niet goed ging. Dat was niet gelukt. Ik vond dat zo'n waanzinnig verhaal. Ik krijg nu zelfs, terwijl ik het vertel, krijg ik daar zelf kippenvel van. Ik zie het in je uitdrukkingen. Ja, en uiteindelijk waarom ik dit dan toch besluit of besloten heb om dit te vertellen, is in die zin tweeledig. Eén is dat ik de kop van dat artikel in eerste instantie krankzinnig vond. En toen ik het gelezen had, dacht ik van jeetje, als dit kan, vind ik dat wel mooi. Je voelt ook meteen wel een soort van waar ligt die grens. Dus daar ben ik ook benieuwd naar wat de luisteraars ervan vinden. En ik vind het ook gewoon een mooi verhaal. Alleen, dit heeft dus dan een heel happy end. En dan hou ik er zo mee op, want dan ben ik heel erg benieuwd wat jij ervan vindt. Anderen die waren hier ook opgekomen, of die hadden dit gehoord. Nee, ik moet anders zeggen. Jason had op de een of andere manier met Mike van elkaar wisten ze op een gegeven moment dat dit gebeurde. En dat ging geloof ik ook via een artikel weer wat erover geschreven was. Waardoor het bij anderen bekend werd. En die gingen dit ook doen, waarbij ze het probleem hadden dat de chatbot niet zo lief werd. Of hele vreselijke dingen ging zeggen. Dus het was niet gegarandeerd dat je een soort van rauwverwerkings chatbot kreeg. Dus dit was wel het juiste, weet je, met de juiste data kreeg hij de juiste persoonlijkheid. Kwam de juiste antwoorden met de juiste persoon in de juiste context terecht. En uiteindelijk heeft OpenAI de stekker uit deze bot getrokken. Dus die heeft gezegd, Mike heeft met zijn toepassing geen toegang meer tot OpenAI, want het past niet binnen onze ethische kaders. En mijn vraag aan jou is tweeledig. Wat vind je hiervan? Van dit verhaal en hoe kijk jij er tegenaan, zeg maar ethisch gezien. En de andere kant, hoe zouden we dit nou eigenlijk vertalen naar business en IT? Daar gaat deze podcast over, je zou het als niet denken met dit verhaal. Hoe zouden we zo'n verhaal als dit moeten plaatsen in wat er, zeg maar, gewoon binnen organisatie zou kunnen gebeuren? Ja, nou, laten we beginnen bij je eerste vraag. Wat vind je ervan? Ik vind het sowieso een mooi verhaal met hoe het uitgepakt is. En dat iemand op deze manier toch zijn rauwverwerking kan doen en dat de technologie daar een hulpmiddel bij is geweest. Ja, dat vind ik heel mooi. Mooi verhaal. Het is echt wel, hoe ervaart de persoon het ook, die die berichten wil lezen? Dus het is een deel AI, maar het is ook heel veel denk ik in de beleving van de persoon en hoe die dat zelf verwerkt. Dus ik denk dat het heel erg zal verschillen hoe personen dat kunnen ervaren. Ja, dus ja, maar persoonlijk vind ik het een mooi verhaal hoe dat voor deze persoon dan heeft uitgepakt. Ik kan ook begrijpen dat we waarschijnlijk bij andere mensen met andere data en er hele andere uitkomsten zouden kunnen komen. En dan de vraag, is dat dan ethisch verantwoord? Ja, ik denk niet dat ik daar als enige daar wat over moet zeggen. Daar moeten we met z'n allen wat over zeggen. Ja, ik vind niet dat we de techniek weg moeten houden op deze manier, maar dat je wel heel veel uitleg moet geven over wat voor impact kan het hebben en mensen erin moet begeleiden. Maar het volledig onthouden van deze functionaliteit lijkt mij niet wenselijk, want het kan in sommige situaties dus gewoon goed uitpakken. Ja, dus vind je dan dat open AI een verkeerd besluit genomen heeft? Ja, ik denk dat het heel situationeel afhankelijk is. In deze situatie voor deze persoon wel, maar als dat in een andere situatie anders heeft uitgepakt, dan kan ik ook de beweegredeningen van open AI wel heel goed snappen. Dat het ook heel erg kan escaleren en andere kant op. Dat hebben we in het verleden ook gezien bij andere chatbots natuurlijk. Ja, kan je die noemen? Ja, dat was van Microsoft, die een neonatie was geworden door de voeding van bepaalde data. Dat die inderdaad gewoon een hele verkeerde kant op gaan was. Ja, dat werd heel bewust ook gedaan. Dus daar voeden ze hem inderdaad. Hadden ze juist gevoed met allerlei vervelende teksten. Ja, en daardoor werd het inderdaad een hele lelijke chatbot. Ja, en hoe zouden we dit, weet je, heeft dit verhaal relevantie richting de business? Ja, natuurlijk heeft het relevantie op heel veel vlakken. Het eerste wat bij mij opkomt is het stukje dat je het ook gewoon moet gaan ervaren. Dus je moet het gaan proberen, maar dat hoeft dus niet goed uit te pakken. Maar je moet het wel gaan ervaren, gaan kijken wat is het resultaat. Klein houden daarin en niet één test doen, nee, meerdere testen doen. Van verschillende perspectieven gaan kijken naar de oplossing en de techniek en kijken wanneer het past. Het is niet meer, past het wel of past het niet? Nee, wanneer past het? In welke situatie past het? Ik denk dat dat wel iets is wat belangrijk is om dat vanuit dit verhaal mee te kunnen nemen naar de business. Ja, en ik denk zelf ook van, kijk, Mike had nooit gedacht dat iemand dit zou doen. Ik weet niet wat hij wel gedacht had, maar het was uiteindelijk natuurlijk ook meer een hobby project voor hem. Hij heeft natuurlijk nooit nagedacht over, ja, wat zouden andere mogelijke toepassingen zijn van wat ik nu gemaakt heb? En dat heb je natuurlijk in je organisatie ook wel, dat je denkt van, ja, we maken het hiervoor. En dat geldt niet alleen maar voor machine learning, maar dat geldt voor heel veel producten. Software, software, dat maakt eigenlijk niet uit. Nee, maar zelfs gewone producten in het dagelijks leven. Dat je denkt van, ja, weet je, de paperclip is nooit bedacht om daar kunstwerken van te maken. En toch gebeuren dat soort dingen. En de vraag is van, nou tenminste, ik denk dat je als als je als business je model in productie zet, dat er in ieder geval altijd een vorm van monitoring moet zijn van wat gebeurt er met je model, wat voor data krijgt het. En ik wil niet zeggen dat je dit had kunnen afvangen, maar je moet je in ieder geval bewust van zijn dat het ergens anders voor gebruikt kan worden. En misschien ook voor dingen waarvan je zegt van, ja, maar dat past niet binnen in ieder geval onze ethische kaders. Ja, en daarom is het ook weer mooi dat OpenAI gewoon de keuze durft te maken om ook zaken te stoppen. Ja, dat is ook de kracht achter van, wij voorzien hier inderdaad zaken die wij niet achterstaan en dan ook gewoon durven te zeggen stoppen. Ik denk dat het ook wel een mooi signaal is dat je dus achter je ethische waarde staat of achter je oplossing of je product of wat het dan ook is die je als business klaarzet. En zo willen we het graag gebruikt hebben. Als het anders gebruikt wordt, dan moeten we daar toch actie op ondernemen. Ondanks dat het verminderde revenue oplevert, is het echt van, ja, maar dit doen we niet. Ja, ik vond ook wel een goed punt is dat je zei dat stukje monitoring. Ik denk dat dat stukje lifecycle management is. Het ging over het verhaal van het leven. Ik denk dat dat hier wel mooi bij past. Lifecycle management is lifecycle management van je data, je systeem, van je product en van je oplossing. Ik denk dat we dat hier ook in mee moeten nemen. Gebruik je het in het begin zoals bedoeld is, maar blijft dat zo en doen de eindgebruikers die het product gebruiken ook de juiste dingen ermee en zorg dat je daar dus weet wat er mee speelt, zodat je daar in ieder geval bekend bent met wat voor afweging moet ik maken. Daar zou je technologisch echt nogal wat zaken voor moeten implementeren. Ja, en zelfs als je het hebt over lifecycle management, heeft die Mike, de ontwikkelaar, heeft bedacht van er is zelfs een lifecycle alleen voor die instantie van deze bot. Dat en dat is eigenlijk ook wel grappig, weet je, dat die dat dat soort dingen kan je natuurlijk ook wel meenemen. Dat je zegt van ja maar weet je hoe lang mag iets bestaan of hoe lang bewaar je data, hoe lang werkt dit model, hoe lang mag het werken totdat die opnieuw getraind moet worden. Dat zijn wel serieuze zaken om van tevoren tijdens je ontwerpen over na te denken. Ja, natuurlijk moet je wel monitoren of dat de juiste keuzes waren, maar als je zomaar een model in productie brengt en je denkt van nou ja weet je hij staat er, die kan zijn gang wel gaan. Ja, die kans is niet zo heel erg groot. Want ja, wanneer ga je hem hertrainen, blijft hij het goed doen, past hij nog steeds eigenlijk bij de situatie waarin we leven. Ik vind zelf wel een mooi voorbeeld van, want we hebben het hier eigenlijk over model drift of data drift. Een mooi voorbeeld van data drift die ik zelf zeg maar in de trainingen voor AI for management altijd geef, is stel je had een webwinkel en je hebt daar een model draaien die bepaalt of iemand wel of niet bij je komt kopen of dat die bij je vertrekt als klant. Die kan super goed werken tot misschien ergens maart 2020 omdat er iets gebeurde wat corona heette en daardoor eigenlijk je hele gegevens op de kop zet. Er zitten totale andere patronen in de gegevens, de gebruikers doen dingen anders. Nou dat is de eentje die je zeg maar met het blote oog kan waarnemen. De moeilijkheid zit natuurlijk in bij hele langzame veranderingen die wij niet zien, maar waarbij wel uiteindelijk je model afdrijft van je werkelijke data. Ja en daar hebben we het vandaag nog even over gehad. We hebben area dag bij Info Support waar we over dit soort onderwerpen hebben en ook over de techniek die er allemaal bij komt kijken. Ik denk dat data ops en het zorgen van een data strategie, data management en het kunnen loggen en monitoren van die data om dat op termijn te kunnen herkennen, ja iets is wat we steeds vaker zien gebeuren, maar ook moeten gaan implementeren om dit in de toekomst te kunnen gaan afvangen. Dat gebeurt nog niet op grote vlakken. Precies nou ik ben heel benieuwd wat onze luisteraars vinden van Jason, Jessica en Mike en waar zouden jouw grenzen liggen? Vind je dit verhaal eigenlijk dat het helemaal niet zou mogen? Ben je het niet eens met open AI? Laat het achter in de comments, kan via LinkedIn. Ik denk dat dat de mooiste plaats is, dus als je dat ons wil laten weten heel graag en als we daar genoeg comments op krijgen komen we daar in een andere aflevering op terug toch? Zeker. Dankjewel voor het luisteren. Fijn dat je luisterde deze speciale aflevering en zoals gezegd, reageer op het verhaal en wij zijn erg benieuwd. Ondertitels ingediend door de Amara.org gemeenschap

People on this episode