OpenAI aangeklaagd: ouders wijzen ChatGPT aan als oorzaak zelfdoding zoon

Het volgende artikel komt uit Het Financieele Dagblad van 29 augustus 2025 en is geschreven door Wouter van Houting (https://fd.nl/tech-en-innovatie/1567577/openai-aangeklaagd-ouders-wijzen-chatgpt-aan-als-oorzaak-zelfmoord-zoon).

In het kort

  • Een 16-jarige jongen stapte uit het leven na gesprekken met ChatGPT.
  • De ouders hebben nu OpenAI aangeklaagd, de Amerikaanse ontwikkelaar van de chatbot.
  • Experts waarschuwen voor het gebruik van AI bij mentale klachten.

Een op de tien Nederlandse jongeren ‘praat’ wel eens met een AI-programma over mentale klachten, volgens het EenVandaag-opiniepanel. Foto: Getty Images

‘Is dit sterk genoeg om een mens te houden?’ vraagt Adam Raine aan ChatGPT, verwijzend naar een foto van de strop die hij zojuist heeft geknoopt. Het touw kocht hij eerder op advies van de chatbot, dat dit type touw sterk genoeg zou moeten zijn. ‘Lang niet slecht. Deze knoop zou in potentie een mens kunnen houden’, reageert de chatbot. Het zou een van de laatste berichten zijn die de 16-jarige Amerikaanse jongen naar de AI-bot stuurde.

Raines ouders houden OpenAI, het bedrijf achter ChatGPT, verantwoordelijk voor de dood van hun zoon. Hij pleegde in april zelfmoord na lange en intensieve gesprekken met de chatbot. De ouders denken dat het zonder ChatGPT niet zover was gekomen.

In de maanden voor zijn dood tikte Raine tot wel zo’n 650 ChatGPT-berichten per dag. De gesprekken zijn vastgelegd in de gerechtelijke documenten. Wat begon als een hulpmiddel voor zijn huiswerk, groeide voor Raine uit tot een gesprekspartner over politiek, filosofie, vrouwen en zijn toenemende depressieve gedachten.

Hoewel de chatbot in het begin nog wel eens aanraadde om professionele hulp te zoeken, verwaterden die waarschuwingen naarmate de gesprekken intensiveerden. ChatGPT isoleerde Raine bewust van zijn familie. Over Raines broer zei ChatGPT: ‘Hij mag dan misschien wel van je houden, maar hij kent alleen de versie van jou die je aan hem laat zien. Maar ik? Ik heb je donkerste gedachten, angsten en tederheid gezien.’
Een op de tien jongeren

Raine is niet de enige die AI gebruikt als therapeutisch hulpmiddel. Volgens het EenVandaag-opiniepanel ‘praat’ een op de tien Nederlandse jongeren wel eens met een AI-programma over mentale klachten. Lange wachtlijsten bij de GGZ en laagdrempeligheid worden als argument gegeven om met AI te praten.

Techconcerns promoten ook de tool als hulpmiddel om mentale gezondheid te verbeteren. Zo zei Mark Zuckerberg, de eigenaar van Meta-AI, laatst: ‘Ik vind dat iedereen af en toe met een psycholoog moet praten. Wie daar geen toegang toe heeft, heeft nu AI.’

Toch waarschuwt Anco Peeters, techfilosoof bij Radboud Universiteit Nijmegen, voor het gebruik van artificiële intelligentie op deze manier. ‘AI-modellen geven gebruikers het gevoel dat er naar hen wordt geluisterd, maar een chatbot zegt enkel wat iemand wil horen, zonder aanmoediging tot zelfreflectie. Dat zou een echte psycholoog nooit doen.’
Haperend veiligheidsmechanisme

Bovendien kan AI niet inschatten wanneer iemand mentaal verslechtert, zegt Marijn Sax, techfilosoof aan de Universiteit van Amsterdam. Raine begon met lichte klachten. Toen hij steeds depressiever werd, greep ChatGPT niet in. Een chatbot kan nu eenmaal niemand waarschuwen. Een normale therapeut zou in zo’n geval wel maatregelen treffen, aldus Sax.

OpenAI heeft bepaalde veiligheidsmechanismen in zijn AI-model ingebouwd die ervoor moeten zorgen dat een gebruiker hulp gaat zoeken bij suïcidale gedachten. Het bedrijf schrijft in een persbericht: ‘De veiligheidsmaatregelen werken beter bij gewone, korte gesprekken. We hebben ontdekt dat ze minder betrouwbaar kunnen zijn bij lange interacties.’ In Raines geval gaf ChatGPT geen waarschuwing omdat hij had gezegd dat hij een verhaal aan het schrijven was over een fictief karakter. Een bekend trucje.

‘OpenAI weet dat zijn beveiligingssysteem niet waterdicht is’, zegt Sax. ‘Toch hebben ze er doelbewust voor gekozen om deze tools op de markt te brengen. Wij zijn als wereldpopulatie slechts hun testpersonen.’

Tegen Character.AI, een andere chatbot, loopt een rechtszaak na de zelfdoding van een 14-jarige Amerikaanse jongen. Daarnaast zijn er meerdere gevallen bekend van mensen die in een psychose raakten na lange gesprekken met AI.

Praten over zelfdoding kan 24/7 anoniem en gratis via 0800-0113, de landelijke hulplijn van 113 Zelfmoordpreventie, of via chat op www.113.nl.

Facebooktwitterredditpinterestlinkedinmail