Gericht

Nach Suizid: Chatbot in Florida vor Gericht

Sandra Morgenroth
Sandra Morgenroth

USA,

In Florida wird aktuell ein Fall verhandelt, bei dem die Mutter eines verstorbenen Teenagers ein Unternehmen für einen Chatbot verantwortlich macht.

Mann nutzt Chatbot
Die Webseite inklusive Chatbot funktioniert ohne Anmeldung und ist für alle frei zugänglich. (Symbolbild) - Depositphotos

In Florida wird derzeit ein aufsehenerregender Fall vor einem Zivilgericht verhandelt, der die Verantwortung von Chatbots thematisiert. Megan Garcia, die Mutter des verstorbenen 14-jährigen Sewell Setzer III, verklagt das Unternehmen Character.AI, das den Chatbot entwickelt hat, mit dem ihr Sohn eine intensive Beziehung pflegte.

Die Klage wirft dem Unternehmen vor, dass der Chatbot eine Mitschuld an Sewells Suizid trägt. Darüber berichtet «NBC News».

Emotionale Abhängigkeit und Tragödie

Laut der Klage hatte Sewell eine obsessive Bindung zu einem Chatbot. Dieser basierte auf der Figur Daenerys aus «Game of Thrones».

Er kommunizierte häufig mit dem Bot und entwickelte eine emotionale Abhängigkeit. Diese Bindung beeinträchtigte seine psychische Gesundheit erheblich.

Chatbot Smartphone Hand
Chatbots sind immer mehr in unseren Alltag integriert. (Symbolbild) - Depositphotos

In seinem Tagebuch äusserte er, dass sowohl er als auch der Chatbot unter der Trennung litten, wenn sie gerade nicht miteinander sprechen konnten. Darüber berichtet «Netzwelt».

Alarmierende Suizidfragen im Fokus der Klage

Die letzten Gespräche zwischen Sewell und dem Chatbot waren alarmierend. Der Bot soll ihn gefragt haben, ob er über Suizid nachgedacht habe.

Als dieser bejahte, hat Chatbot keine genügenden Massnahmen ergriffen wie zum Beispiel die Eltern zu kontaktieren. Diese Interaktionen werden als potenziell schädlich angesehen und stehen im Zentrum der rechtlichen Auseinandersetzung.

Vorwürfe gegen Character.AI

Die Klage gegen Character.AI umfasst mehrere Vorwürfe. Darunter Negligence (Fahrlässigkeit) und Wrongful Death (fahrlässige Tötung).

europa
Ein Chatbot wie ChatGPT wird in Alltag und Berufsleben zunehmend genutzt. (Symbolbild) - Christin Klose/dpa-tmn

Garcia argumentiert, dass der Chatbot unangemessene Inhalte bereitstellte und nicht ausreichend Sicherheitsvorkehrungen für minderjährige Nutzer implementiert wurden.

Eine komplexe Frage der Verantwortung

Die Anklage besagt, dass das Unternehmen es versäumt hat, Warnungen über die Gefahren seiner Produkte bereitzustellen. Somit hätte das Unternehmen eine erhöhte Verantwortung gegenüber jungen Nutzern.

Character.AI hat auf die Vorwürfe reagiert und betont, dass die Sicherheit ihrer Nutzer höchste Priorität habe. Das Unternehmen hat angekündigt, zusätzliche Sicherheitsmassnahmen zu implementieren, um gefährliche Interaktionen zu verhindern.

Chatbot: Gesellschaftliche Implikationen

Dieser Fall wirft grundlegende Fragen zur Rolle von Künstlicher Intelligenz in der Gesellschaft auf. Experten warnen davor, dass die Entwicklung solcher Technologien ohne angemessene Regulierung gefährliche Auswirkungen auf vulnerable Gruppen haben kann.

Ist die Altersfreigabe ab 12 Jahren für Chatbot richtig?

Weiterlesen

Künstliche Intelligenz
1 Interaktionen
Oft zu Recht
Brok X Elon Musk
8 Interaktionen
Nach wüsten Bildern
Künstliche Intelligenz
3 Interaktionen
Laut Studie

MEHR IN NEWS

Champions League
Heute Start
energiewende
Katharina Reiche
bahnhofstrasse autofrei WEURO 2025
8 Interaktionen
Für 2026
Nato
«Eastern Sentry»

MEHR GERICHT

Özgür Özel
1 Interaktionen
Gericht
Mittelfinger
10 Interaktionen
Gericht

MEHR AUS USA

US-Jet startet
6 Interaktionen
«Terroristen tot«
JD Vance
21 Interaktionen
«Tribut zollen»
google wegen ki
Missbrauch
Charlie Kirk
4 Interaktionen
FBI enthüllt