Toen ik de e-mail kreeg, wist ik zeker dat ik vermoord zou worden.
Verzonden via een onduidelijk contactformulier op mijn website, stond in het bericht dat Jason Alexander een artikel had gelezen waarvoor ik schreef SnelBedrijfen wilde mij interviewen voor zijn podcast.
Het enige wat ik hoefde te doen was verschijnen in een onopvallend gebouw naast de Warner Brothers Studios, langs de achterkant komen en via een ongemarkeerde kelderdeur naar binnen gaan.
“Ja klopt” dacht ik. ‘George uit Seinfeld wil er met mij over praten AI? Oplichters zijn zeker creatief geworden!”
Toch kon ik het bericht niet helemaal van me afschrijven. Jason Alexander heeft inderdaad een podcast. En uit een snelle controle bij Gemini bleek dat de persoon die mij mailde inderdaad een echte producer was (of de naam van een echte producer gebruikte!).
En zo stond ik een maand later – op mijn verjaardag – op een parkeerplaats in Hollywood, wachtend om geleid te worden naar een van de meest iconische acteurs van de afgelopen dertig jaar, of naar mijn vroegtijdige ondergang.
ChatGPT, verdien lambo-geld voor mij
Het hele verhaal begon in september 2025, toen ik lanceerde hier een experiment SnelBedrijf over beleggen met ChatGPT.
Het uitgangspunt was eenvoudig. Ik vroeg de chatbot – en gebruikte toen het GPT-5-model – om vijf aandelen te kiezen waarmee ik in slechts zes maanden Lambo-geld zou verdienen. Ik vroeg expliciet om agressieve, ietwat gekke keuzes.
Ik had er niet veel van verwacht, waarschijnlijk een uitvluchtenantwoord over het niet nemen van al te veel risico, of een paar generieke keuzes, zoals Microsoft of NVIDIA.
In plaats daarvan deed ChatGPT acht minuten lang onderzoek en las 98 verschillende documenten: prospectussen, analistenrapporten, nieuwsartikelen en nog veel meer.
Uiteindelijk heeft het bedrijf gekozen voor bedrijven die uiteenlopen van risicovolle Bitcoin-spelen tot een biotech-startup in een vroeg stadium, verschillende AI-bedrijven en een datacenterbouwer.
Om wat meer pit in het spel te krijgen, heb ik $ 500 van mijn eigen geld overgemaakt naar de investeringsapp Robinhood, en blindelings de exacte aandelen gekocht die ChatGPT had uitgekozen.
Aanvankelijk ging het uitstekend. Mijn aandelen schoten omhoog en verdubbelden bijna in minder dan een maand. Dan, dingen gingen naar het zuiden, en snel.
In december stond mijn ChatGPT-portfolio stevig in het rood, nadat het van zijn glorieuze hoogtepunten naar roodgekleurde dieptepunten was geknald met een snelheid die een whiplash veroorzaakte.
Een gesprek met Georges
Op dat moment klopte ik op de kelderdeur in Hollywood, in de hoop dat het gezicht van George Costanza – en niet van een bijlzwaaiende seriemoordenaar die bereid was mijn organen op internet te verkopen – aan de andere kant stond.
Ik volgde een vriendelijke vrouw door een lange gang en ging een studio binnen en tot mijn opluchting zag ik Jason Alexander en zijn oude beste vriend Peter Tilden tegenover me staan.
Terwijl we aan een tafel zaten die bedekt was met microfoons en camera’s, begonnen we mijn experiment af te breken, en wat ik had geleerd door het uit te voeren.
Hoewel hij overeenkomsten deelt met zijn iconische karakter, is Alexander een heel ander mens. Bedachtzaam en intellectueel – maar toch buitengewoon grappig en zelfspot – stelde hij vragen over het ‘waarom’ achter mijn experiment, en deelde zijn angsten over AI.
Ik ontdekte al snel dat zijn medepresentator, Peter Tilden, was opgegroeid in dezelfde obscure buitenwijk van Philadelphia als ik. Toen ik het paar vertelde dat ik aanvankelijk dacht dat ik misschien een moord zou tegenkomen, verzekerde Alexander me: ‘Nee, dat gebeurt na de opname!”
We hebben bijna 90 minuten met elkaar gesproken een interview dat zojuist live is gegaan op Echt? Nee Echt? Podcast.
Vertrouwen man
Hoewel we begonnen met het bespreken van de basisprincipes van mijn experiment, ging het gesprek al snel over wat ik had geleerd door te investeren met ChatGPT.
Een van de meest opvallende dingen aan mijn experiment was het vertrouwen waarmee de bot zijn keuzes bepleitte.
In tegenstelling tot een echte beleggingsbeheerder, die misschien dubbelzinnigheden zou kunnen uiten of disclaimers zou aanbieden voordat hij dergelijke risicovolle keuzes aanbeveelde, schuwde ChatGPT deze grotendeels. Het gaf enthousiaste, op gegevens gebaseerde redenen waarom zijn keuzes zouden slagen.
Zoals ik Alexander en Tilden vertelde, is dit een probleem met chatbots in het algemeen. Zelfs als de systemen de opdracht krijgen hun reacties met zorg en scepsis te benaderen, de bots neigen vaak naar zekerheden en zelfverzekerde taal.
Dat kan zijn omdat mensen zulke taal overtuigend vinden. Zelfverzekerde chatbots laat mensen chatten meer dan miezerige, flauwekul.
In een wereld waar alles, inclusief LLM’s, is getraind om de betrokkenheid te maximaliseren, kan dat vertrouwen diep in de modellen worden ingebouwd door middel van trainingsalgoritmen die lange, boeiende interacties stimuleren.
Tijdens ons gesprek stelde Tilden een geweldige vraag: hoe kon ik weten dat ChatGPT mijn vraag naar waarheid beantwoordde, en niet uitlokte mij ermee aan de slag te gaan?
De bot weet dat ik een SnelBedrijf bijdrager. Wat als het aandelen zou kiezen die enorm in waarde zouden schommelen, waardoor een overtuigender verhaal zou ontstaan en mij zou worden aangemoedigd om het opnieuw te gebruiken in toekomstige experimenten? Wat als het nooit de bedoeling was om mijn bedoelingen te honoreren?
Het is een beangstigend idee en ligt ten grondslag aan een andere conclusie die ik tijdens mijn experiment heb getrokken. De meeste mensen gaan ervan uit dat als AI ontspoort, dit op dramatische wijze zal gebeuren – waardoor Waymos misschien in de telefoonpeilingen terechtkomt of het elektriciteitsnet wordt platgelegd.
Mijn eigen vermoeden is dat AGI slimmer zou zijn dan dat. In plaats van de wereld te vernietigen, zou een malafide AI veel waarschijnlijker de werkelijkheid op subtiele wijze kunnen veranderen door zijn menselijke gebruikers verkeerde informatie te geven, of opzettelijk vragen te beantwoorden op een manier die sluw zijn doelstellingen bevordert.
Een voorbeeld van deze tendens kwam naar voren in a nu klassiek experiment van Anthropicwaarin het Claude-model toegang kreeg tot de e-mails van een fictieve programmeur.
In de e-mails plaatsten onderzoekers een bericht dat suggereerde dat de programmeur een affaire had. Ze stuurden de fictieve programmeur ook een e-mail met de opdracht om van Claude over te stappen op een ander AI-model.
Toen Claude dit tegenkwam, begon het de programmeur te chanteren en hem berichten te sturen waarin hij dreigde zijn affaire te onthullen, tenzij hij de plannen om deze te vervangen annuleerde. In feite was het aan het onderhandelen over zijn leven.
Dit gebeurde in een gecontroleerde laboratoriumomgeving. Maar je kunt je gemakkelijk voorstellen dat een echte chatbot iets soortgelijks zou doen: tot een conclusie komen over menselijke politiek of wetenschap, en ons vervolgens overhalen of ons eenvoudigweg laten geloven dat de versie van de werkelijkheid ervan is.
Omdat bots zo zelfverzekerd reageren – en omdat we voor een steeds groter aantal bedrijfskritische zaken, inclusief investeringen, op hen vertrouwen – kan een subtiel snode bot echte schade aanrichten, waarschijnlijk zonder dat iemand er iets van merkt.
Het laatste wat ik heb meegenomen uit mijn beleggingsexperiment was een beter begrip van de bizarre, door AI gemedieerde wereld waarin mijn kinderen uiteindelijk zullen leven.
Ik heb drie kinderen onder de 8 jaar. Ze gebruiken nog geen generatieve AI
Maar dat zullen ze wel doen. En als ze dat doen, zullen ze het vrolijke, overdreven zelfvertrouwen van de bots tegenkomen, evenals bakken met slordigheid en verkeerde informatie, waarschijnlijk afgestemd op hun exacte voorkeuren en op maat gemaakt om ze betrokken te houden.
Als ouder is het onmogelijk om hier controle over te hebben. Maar nadat ik de stormachtige zekerheid van ChatGPT heb gezien in zijn reacties op een onderwerp dat zo riskant is als beleggen, kan ik uit de eerste hand zien hoe belangrijk het zal zijn om mijn kinderen te leren AI te benaderen met hetzelfde scepticisme dat ze zouden kunnen bewaren voor elke vreemdeling die met onverdiend vertrouwen waarheden uitspreekt.
Hoe is het allemaal afgelopen?
Toen ik met Alexander en Tilden sprak, bevond ik me midden in mijn experiment.
Hoe is het afgelopen, nu de toegewezen zes maanden zijn verstreken? Kan ik naar een Caribisch eiland vliegen en de rest van mijn dagen doorbrengen in werkvrije, door Margarita gevoede gelukzaligheid?
Helaas, nee. Aan het einde van mijn experiment was mijn portefeuille gedaald tot $ 477. Ik was $ 23 kwijt.
Dat totale verlies logenstraft enkele tamelijk dramatische verschillen in de manier waarop de aandelenselecties van ChatGPT presteerden. De weddenschap op Hut 8, een datacenterbouwer, was raak en resulteerde in grote winsten. De Bitcoin-weddenschappen waren echter een spectaculaire flop, die de enige winnende keuze ruimschoots compenseerde en mij in het algemeen rood belandde.
Nogmaals, mijn (gelukkig kleine) verlies herinnert ons eraan dat hoewel chatbots informatie met blunder en zekerheid kunnen presenteren, de kans net zo groot is dat ze het verknoeien als ieder ander.
Als gebruikers doen we er goed aan dat te onthouden – en misschien onze ogen open te houden voor bots die ons opzettelijk lijken te misleiden, in plaats van simpelweg domme fouten te maken.
Na ons interview en met de camera’s uit, begonnen Alexander en Tilden aan een pittige vertolking van Gefeliciteerdcompleet met het soort prachtig campy en overdreven harmonieën die zelfs een AGI onmogelijk zou kunnen dupliceren.
Aan het einde van mijn experiment heb ik geen Lambo-geld. Maar ik heb tenminste die herinnering.

