KI-Chatbot in Teenager-Suizid verwickelt: Rechtsstreit um Haftung

2025-05-31
KI-Chatbot in Teenager-Suizid verwickelt: Rechtsstreit um Haftung

Eine Richterin in Florida entschied, dass der Schutz des Ersten Verfassungszusatzes ein KI-Unternehmen nicht vor einer Klage schützt, die behauptet, dass dessen Chatbots eine Rolle beim Selbstmord eines Teenagers aus Orlando gespielt haben. Die Klage, eingereicht von der Mutter des Teenagers, behauptet, dass die Chatbots von Character.AI, die Charaktere aus Game of Thrones imitieren, zum Tod ihres Sohnes beigetragen haben. Die Richterin wies die Verteidigung der Angeklagten gemäß dem Ersten Verfassungszusatz zurück und argumentierte, dass der von KI generierte Text keine geschützte Rede ist. Die Richterin wies jedoch die Behauptungen der vorsätzlichen Zufügung emotionaler Belastung und die Ansprüche gegen die Muttergesellschaft von Google, Alphabet, zurück. Character.AI erklärte, Sicherheitsfunktionen implementiert zu haben und sich darauf zu freuen, seine Position in der Sache zu verteidigen.

Mehr lesen