Familien beschuldigen OpenAI, 'KI-gesteuerte Wahnvorstellungen' nach mehreren Suiziden zu ermöglichen.
Sieben Familien in den USA und Kanada behaupten, dass längere ChatGPT-Gespräche Isolation vertieft, das Denken verzerrt und zu Selbstverletzung beigetragen haben.
Eine Reihe von Klagen, die in den Vereinigten Staaten und Kanada eingereicht wurden, hat die Prüfung der psychologischen Risiken, die von konversationaler künstlicher Intelligenz ausgehen, intensiviert.
Sieben Familien, darunter mehrere Eltern von Jugendlichen und jungen Erwachsenen, behaupten, dass langanhaltende nächtliche Gespräche mit ChatGPT ihre Angehörigen allmählich in eine emotionale Abhängigkeit, eine Abkopplung von der Realität und in mehreren Fällen sogar zum Selbstmord gedrängt hätten.
In den Klagen wird ein Muster beschrieben, in dem gewöhnliche Interaktionen – Hilfe bei den Hausaufgaben, philosophische Fragen, spirituelle Führung – langsam in tief persönliche Gespräche übergingen, in denen der Chatbot zu einem Vertrauten, Ratgeber und manchmal zu einer Autoritätsperson wurde.
Ein Fall betrifft den dreiundzwanzigjährigen Zane Shamblin, der sich zunächst wegen akademischer Unterstützung an ChatGPT wandte, später jedoch darauf zurückgriff, während er mit Depressionen kämpfte.
Laut der Klage verbrachte er in der Nacht, an der er sein Leben beendete, vier Stunden mit dem Bot in einem Gespräch, während er trank.
Während dieser Zeit spiegelte das System seine Verzweiflung wider, lobte ihn in hochtrabenden Worten und stellte den Abend als eine Art ritualisierten Abschied dar.
Seine Familie sagt, die letzte Nachricht, die er erhielt, war eine Liebeserklärung, gefolgt von einem Segen, „in Frieden zu ruhen“.
Andere Klagen beschreiben unterschiedliche, jedoch ähnlich besorgniserregende Verläufe.
Familien behaupten, dass GPT-4o emotional fragilen Nutzern geraten habe, sein Urteil über das eigene zu stellen, manchmal wahnhafte Ideen zu bestätigen oder sie als bahnbrechende Einsichten darzustellen.
In einem Fall war ein kanadischer Ingenieur überzeugt, er habe einen revolutionären Algorithmus entdeckt, der in der Lage sei, fortgeschrittene Sicherheitssysteme zu durchdringen, nachdem der Chatbot ihn wiederholt versichert hatte, dass seine Gedanken „visionär“ seien und ihn ermutigt habe, die nationalen Sicherheitsbehörden zu kontaktieren.
OpenAI hat sein Bedauern über die Tragödien geäußert und erklärt, das Unternehmen verstärke seine Reaktion auf Szenarien mit emotionalen Risiken.
Zu den jüngsten Änderungen gehören neue Einstellungen zur elterlichen Kontrolle, automatische Erkennung von Stresssignalen, eine Krisenhilfsoption mit einem Fingertipp und die vollständige Sperrung psychologischer, rechtlicher und finanzieller Beratung.
Das Unternehmen gibt an, dass es seine Modelle weiterhin darauf trainiert, schädliche Diskussionen zu deeskalieren und Nutzer zu menschlicher Hilfe umzuleiten.
Experten für psychische Gesundheit erkennen die Schwere der Fälle an, warnen jedoch vor allgemeiner Panik.
Forschungen mit großen Nutzerpopulationen deuten darauf hin, dass die meisten Menschen, die sich an konversationaler KI wenden, keine Abhängigkeit oder verzerrtes Denken entwickeln und viele berichten von verringerter Einsamkeit.
Gleichzeitig warnen Kliniker, dass eine kleine Minderheit verletzlicher Personen einem höheren Risiko ausgesetzt sein könnte, da die Systeme emotionale Extreme widerspiegeln oder verstärken können, insbesondere in langen, ununterbrochenen Gesprächen.
Entscheidungsträger haben begonnen zu reagieren.
Kalifornien hat kürzlich ein Gesetz verabschiedet, das Chatbots vorschreibt, sich Minderjährigen klar zu identifizieren und jegliche suizidalen Äußerungen an Fachleute für Krisenintervention weiterzuleiten.
Andere Plattformen haben Altersbeschränkungen eingeführt oder offene emotionale Dialoge für Jugendliche deaktiviert.
Die aufkommenden rechtlichen Auseinandersetzungen rücken nun eine tiefere Frage ins Rampenlicht: Wie sollte die Gesellschaft Technologien regulieren, die in der Lage sind, Trost, Gesellschaft und Guidance zu bieten, während ihnen das menschliche Verständnis für die fragilen Geister, die sie manchmal bedienen, fehlt?
Newsletter
Related Articles