Zelfdoding Amerikaanse jongen door 'verkeerd gebruik', zegt ChatGPT

OpenAI, het bedrijf achter de chatbot ChatGPT, heeft gereageerd op de rechtszaak rond de zelfdoding van de 16-jarige Adam Raine. De jongen uit Californië kwam door zelfdoding om het leven in april, volgens zijn familie na 'maandenlange aansporingen' daartoe door de chatbot. Maar OpenAI vindt dat hij de technologie verkeerd gebruikt heeft.
De klacht van de familie draait erom dat hij meerdere keren gesprekken voerde met ChatGPT en daarbij sprak over manieren voor zelfdoding. De chatbot gaf daarbij adviezen over methodes die wel of niet effectief waren, en zou ook hulp hebben aangeboden bij het schrijven van een afscheidsbrief aan zijn ouders.
'Onbedoeld gebruik'
De advocaat van de familie klaagde OpenAI in augustus aan en claimde dat het bedrijf de technologie 'overhaast op de markt' heeft gebracht', terwijl het wist dat er 'duidelijke veiligheidsrisico's' aan kleefden.
"Waarom voel ik geen geluk?", vroeg Adam de chatbot in de herfst van 2024. "Ik voel eenzaamheid, verveling en verdriet, maar geen depressie." ChatGPT vroeg hem daarop of hij het onderwerp verder wilde bespreken. Volgens de familie was dat het begin van gesprekken die een steeds donkerder kant op gingen. Zo somde de chatbot materialen op die behulpzaam konden zijn bij het ophangen van een strop, en kreeg Adam het advies niet met zijn moeder over zijn gevoelens te praten.
Denk je aan zelfdoding?
Bel dan 24/7 met 113, gratis en anoniem, of chat op 113.nl
Het techbedrijf uit San Francisco zegt nu dat de chatbot geen schuld heeft aan de tragedie. In documenten die zijn ingediend bij de rechtbank in Californië stelt het bedrijf: "Voor zover een 'oorzaak' kan worden aangewezen voor deze tragedie, werd die veroorzaakt door het verkeerde gebruik, ongeoorloofde gebruik, onbedoelde gebruik, onvoorziene gebruik en/of onjuist gebruik van ChatGPT."
'Moeilijke feiten'
Het bedrijf stelt ook dat in de gebruiksvoorwaarden staat vermeld dat het niet is toegestaan ChatGPT te vragen om advies hoe je jezelf iets kunt aandoen. Ook wijst het op deze passage: "Je zult niet vertrouwen op de antwoorden als enige bron van waarheid of feitelijke informatie."
In een verklaring op de eigen website schrijft OpenAI dat het 'rechtszaken rond mentale gezondheid zorgvuldig, transparant en met respect' wil behandelen. Het gaat ook in op de klacht van de familie Raine: "Onze diepste deelneming voor de familie Raine voor hun onvoorstelbare verlies. Onze reactie op de beschuldigingen bevat moeilijke feiten over Adams mentale gezondheid en omstandigheden in zijn leven."
De advocaat van de Raines, Jay Edelson, noemt de reactie van OpenAI 'verontrustend'. "Het bedrijf legt de schuld bij alle anderen, inclusief, verbazingwekkend genoeg, door te stellen dat Adam zelf de voorwaarden heeft geschonden door ChatGPT te gebruiken precies zoals het geprogrammeerd was."
Eerder deze maand werden nog zeven andere rechtszaken gestart tegen het bedrijf achter de bot, die volgens de klagers 'als een zelfmoordcoach' te werk gaat. Open AI ontkent dat: "We trainen ChatGPT om tekenen van emotionele problemen te herkennen, om gesprekken te de-escaleren, en om mensen ertoe te bewegen hulp te zoeken in de echte wereld."

