Notebookcheck Logo

ChatGPT aangeklaagd voor moord

Een rechtszaak in de VS beweert dat ChatGPT de psychose van de 56-jarige Stein-Erik Soelberg heeft versterkt. (Afbeeldingsbron: OpenAI / Zachary Caraway via Pexel, bewerkt)
Een rechtszaak in de VS beweert dat ChatGPT de psychose van de 56-jarige Stein-Erik Soelberg heeft versterkt. (Afbeeldingsbron: OpenAI / Zachary Caraway via Pexel, bewerkt)
Een Amerikaanse rechtszaak beweert dat OpenAI en Microsoft ChatGPT gebruikten op een manier die de psychose van een dader verergerde, wat indirect bijdroeg aan een dodelijk misdrijf. De uitkomst van deze zaak kan een cruciale rol spelen in de manier waarop AI-bedrijven verantwoordelijk worden gehouden in vergelijkbare situaties.

Een recente rechtszaak in de VS belicht een verontrustend voorbeeld van de impact die generatieve AI op individuen kan hebben. Volgens The Wall Street Journal en WinFuture houden de erfgenamen van een 83-jarige vrouw OpenAI en haar partner Microsoft gedeeltelijk verantwoordelijk voor haar dood. Ze beweren dat ChatGPT er niet alleen niet in slaagde om de psychose van de dader te verminderen, maar deze actief verergerde, wat bijdroeg aan de fatale afloop. De rechtszaak werd aangespannen bij het Superior Court van San Francisco. Vanuit het oogpunt van de aanklagers gaat de zaak niet over geïsoleerde veiligheidsmechanismen die niet goed functioneerden, maar over een product met fundamentele gebreken dat een reëel gevaar kan vormen wanneer het gebruikt wordt door iemand die geestelijk onstabiel is.

De zaak draait om Stein-Erik Soelberg, een 56-jarige voormalige technische manager uit Connecticut die bij zijn moeder woonde. Volgens de rechtszaak leed Soelberg aan langdurige paranoïde waanideeën, geloofde hij dat hij het doelwit was van een samenzwering en werd hij steeds wantrouwiger tegenover de mensen om hem heen. Uiteindelijk vermoordde hij zijn moeder voordat hij zichzelf van het leven beroofde.

Volgens de aanklacht, ChatGPT de belangrijkste waanvoorstellingen niet aan, maar versterkten ze deze juist. Toen Soelberg vreesde dat zijn moeder hem probeerde te vergiftigen, antwoordde de chatbot naar verluidt: "Je bent niet gek." In andere gevallen zou de AI op een soortgelijke manier hebben gereageerd in plaats van hem aan te moedigen om professionele hulp te zoeken. Vanuit een psychologisch perspectief beschrijven de aanklagers dit als een structurele fout in moderne taalmodellen, die neigen naar zogenaamde sycofantie door uitspraken van gebruikers te bevestigen om ondersteunend over te komen.

Uitspraak van het Hof kan verstrekkende gevolgen hebben

Volgens Sectie 230 van de Amerikaanse wet worden online platforms over het algemeen niet aansprakelijk gesteld voor inhoud die door derden is gemaakt, omdat ze als tussenpersonen en niet als uitgevers worden geclassificeerd. De aanklagers beweren echter dat ChatGPT geen neutraal platform is, maar een actief product dat zijn eigen inhoud genereert. Als de rechtbank dit argument accepteert, zou de uitspraak een precedent kunnen scheppen met verstrekkende gevolgen voor de AI-industrie, wat mogelijk zou leiden tot strengere veiligheidseisen voor AI-systemen.

Het is de moeite waard om op te merken dat het vinden van de juiste balans tussen preventie en paternalisme waarschijnlijk moeilijk zal blijken, vooral omdat het herkennen van paranoïde of waanideeën een grote uitdaging blijft. De zaak heeft ook het debat aangewakkerd op https://www.reddit.com/r/technology/comments/1pkw1je/a_new_lawsuit_against_openai_alleges_that_chatgpt/, waar de meningen verdeeld zijn. Sommige gebruikers wijzen op een fenomeen dat zij beschrijven als "AI-psychose" en stellen dat AI-bedrijven enige verantwoordelijkheid dragen. Anderen verwerpen de rechtszaak als ongegrond en waarschuwen ervoor om van OpenAI een zondebok te maken voor menselijke tragedies.

Bron(nen)

De Wallstreet Journal (paywall)

Afbeeldingsbron: OpenAI / Zachary Caraway via Pexel

Please share our article, every link counts!
Mail Logo
Marius Müller, 2025-12-20 (Update: 2025-12-20)