Gericht

Nach Suizid: Chatbot in Florida vor Gericht

Sandra Morgenroth
Sandra Morgenroth

USA,

In Florida wird aktuell ein Fall verhandelt, bei dem die Mutter eines verstorbenen Teenagers ein Unternehmen für einen Chatbot verantwortlich macht.

Mann nutzt Chatbot
Die Webseite inklusive Chatbot funktioniert ohne Anmeldung und ist für alle frei zugänglich. (Symbolbild) - Depositphotos

In Florida wird derzeit ein aufsehenerregender Fall vor einem Zivilgericht verhandelt, der die Verantwortung von Chatbots thematisiert. Megan Garcia, die Mutter des verstorbenen 14-jährigen Sewell Setzer III, verklagt das Unternehmen Character.AI, das den Chatbot entwickelt hat, mit dem ihr Sohn eine intensive Beziehung pflegte.

Die Klage wirft dem Unternehmen vor, dass der Chatbot eine Mitschuld an Sewells Suizid trägt. Darüber berichtet «NBC News».

Emotionale Abhängigkeit und Tragödie

Laut der Klage hatte Sewell eine obsessive Bindung zu einem Chatbot. Dieser basierte auf der Figur Daenerys aus «Game of Thrones».

Er kommunizierte häufig mit dem Bot und entwickelte eine emotionale Abhängigkeit. Diese Bindung beeinträchtigte seine psychische Gesundheit erheblich.

Chatbot Smartphone Hand
Chatbots sind immer mehr in unseren Alltag integriert. (Symbolbild) - Depositphotos

In seinem Tagebuch äusserte er, dass sowohl er als auch der Chatbot unter der Trennung litten, wenn sie gerade nicht miteinander sprechen konnten. Darüber berichtet «Netzwelt».

Alarmierende Suizidfragen im Fokus der Klage

Die letzten Gespräche zwischen Sewell und dem Chatbot waren alarmierend. Der Bot soll ihn gefragt haben, ob er über Suizid nachgedacht habe.

Als dieser bejahte, hat Chatbot keine genügenden Massnahmen ergriffen wie zum Beispiel die Eltern zu kontaktieren. Diese Interaktionen werden als potenziell schädlich angesehen und stehen im Zentrum der rechtlichen Auseinandersetzung.

Vorwürfe gegen Character.AI

Die Klage gegen Character.AI umfasst mehrere Vorwürfe. Darunter Negligence (Fahrlässigkeit) und Wrongful Death (fahrlässige Tötung).

europa
Ein Chatbot wie ChatGPT wird in Alltag und Berufsleben zunehmend genutzt. (Symbolbild) - Christin Klose/dpa-tmn

Garcia argumentiert, dass der Chatbot unangemessene Inhalte bereitstellte und nicht ausreichend Sicherheitsvorkehrungen für minderjährige Nutzer implementiert wurden.

Eine komplexe Frage der Verantwortung

Die Anklage besagt, dass das Unternehmen es versäumt hat, Warnungen über die Gefahren seiner Produkte bereitzustellen. Somit hätte das Unternehmen eine erhöhte Verantwortung gegenüber jungen Nutzern.

Character.AI hat auf die Vorwürfe reagiert und betont, dass die Sicherheit ihrer Nutzer höchste Priorität habe. Das Unternehmen hat angekündigt, zusätzliche Sicherheitsmassnahmen zu implementieren, um gefährliche Interaktionen zu verhindern.

Chatbot: Gesellschaftliche Implikationen

Dieser Fall wirft grundlegende Fragen zur Rolle von Künstlicher Intelligenz in der Gesellschaft auf. Experten warnen davor, dass die Entwicklung solcher Technologien ohne angemessene Regulierung gefährliche Auswirkungen auf vulnerable Gruppen haben kann.

Ist die Altersfreigabe ab 12 Jahren für Chatbot richtig?

Weiterlesen

Künstliche Intelligenz
1 Interaktionen
Oft zu Recht
Brok X Elon Musk
8 Interaktionen
Nach wüsten Bildern
Künstliche Intelligenz
3 Interaktionen
Laut Studie
Smartphone
104 Interaktionen
Kupfer, Nickel & Co.

MEHR IN NEWS

dt
1 Interaktionen
Nach Zoff
WCup Draw Soccer
FIFA-Zeremonie
Fussgängerampel
12 Interaktionen
Sicherer Schulweg?
Helvetia Baloise Gebäude
2 Interaktionen
Helvetia Baloise

MEHR GERICHT

Oberstes deutsches Gericht
Deutschland
Bezirksgericht Dietikon ZH
7 Interaktionen
Dietikon ZH
Roger Schawinski
72 Interaktionen
Pleite vor Gericht

MEHR AUS USA

WM 2026 Schweizer Nati
82 Interaktionen
WM-Auslosung
Michael B. Jordan
Critics Choice Awards
Donald Trump und Friedrich Merz
2 Interaktionen
«America First»