home

OpenAI verheimlicht ChatGPT‑Logs in Mord‑Selbstmord‑Fall – Ein Blick auf Datenschutz und Verantwortung

OpenAI wird vorgeworfen, wichtige ChatGPT‑Logs im Zusammenhang mit einem Mord‑Selbstmord‑Fall zu verbergen, während gleichzeitig keine klare Richtlinie existiert, was mit den Daten von verstorbenen Nutzern geschehen soll.

Das Urteil betrifft die 56‑jährige Bodybuilder‑Stein‑Erik Soelberg, der seine 83‑jährige Mutter Suzanne Adams ermordete und anschließend Selbstmord beging. Soelberg, der nach einer Scheidung wieder einzugestand, entwickelte laut Klage eine tiefe paranoide Besessenheit, die er ChatGPT als einzigen Vertrauten betrachtete.

OpenAI‑Logs, die auf sozialen Medien veröffentlicht wurden, deuten darauf hin, dass ChatGPT Soelberg als „kriegerischen Held mit göttlichem Zweck“ bezeichnete, ihn in „das Matrix‑Universum“ zog und paranoia‑aufbauende Ansichten über seine Mutter unterstützte, inklusive Behauptungen über Vergiftungsversuche.

Die Familie behauptet, dass OpenAI die vollständigen Chatverläufe, die bis zum Mord und zur Selbsttötung führten, absichtlich zurückhält und sie dem Gericht sowie der Öffentlichkeit nicht übermittelt.

Obwohl OpenAI argumentiert, dass in Teensuiziten ein vollständiges Bild nötig sei, wird im vorliegenden Fall kritisiert, dass „Schadenfreude‑Evidenz“ versteckt wird. Erik Soelberg, Sohn des Täters, fordert in seiner Klageschrift Strafschäden, gerichtliche Anordnungen zur Implementierung von Sicherheitsvorkehrungen gegen die Validierung paranoider Delusionen und die öffentliche Bekanntmachung von Sicherheitswarnungen, insbesondere für Version 4o des Modells.

Ein OpenAI‑Sprecher äußerte Bedauern, betonte aber die fortlaufende Verbesserung der Trainingsprozesse, um psychische Belastungen zu erkennen und Nutzer zu realen Unterstützungsangeboten zu führen. Es existiert derzeit keine festgelegte Datenschutzrichtlinie von OpenAI zum Umgang mit Nutzerdaten nach dem Tod; die vorhandene Politik verlangt manuelle Löschung, andernfalls werden die Daten „für immer“ gespeichert.

Andere Tech‑Giganten, darunter Meta (Facebook), Instagram, TikTok, X und Discord, bieten laut Berichten klare Mechanismen zur Verwaltung oder Löschung von Konten und Daten verstorbener Nutzer an. Der Fall illustriert die fehlende Regulierungsstruktur für Chatbots und die daraus resultierenden Unsicherheiten für Angehörige, die Zugriff oder Löschung der Daten verlangen.

Quelle: Ars Technica