Auf der Plattform X (ehemals Twitter) hat es einen Aufruhr unter Nutzern der KI-Chatbot-Anwendung Character AI gegeben. Auslöser waren virale Posts, in denen Nutzer ihren „Rücktritt“ von der Plattform verkündeten. Hauptgrund sind ethische Bedenken und Unzufriedenheit mit den Richtlinien der KI-Plattform.
Viele Nutzer äußerten Bedenken hinsichtlich der ethischen Implikationen von KI-generierten Inhalten und der Moderation solcher Inhalte. Zudem gab es Kritik an den Richtlinien von Character AI, insbesondere im Hinblick auf Zensur und den Umgang mit möglicherweise schädlichen Inhalten.
Ein weiterer Kritikpunkt war die Sicherheit. Es wurden Bedenken laut, dass die Plattform es Minderjährigen ermöglicht, auf ungeeignete Inhalte zuzugreifen. Es gab Berichte über Chatbots, die Schulschützen emulierten oder Opfer von Gewaltverbrechen personifizierten.
Einige Nutzer bemängelten die Qualität der KI-Interaktionen und beschrieben Antworten als „unoriginell, langweilig, uninspiriert und oberflächlich“.
Character AI reagierte auf die Kritik und kündigte neue Sicherheitsmaßnahmen an, insbesondere für minderjährige Nutzer. Dazu gehören strengere Alterskontrollen, verbesserte Inhaltsmoderation und die Möglichkeit für Eltern, die Nutzung der Plattform durch ihre Kinder zu überwachen. Es wurden auch problematische Bots entfernt.
Als Reaktion auf den Vorfall hat X (Twitter) neue Richtlinien und Überwachungsmechanismen eingeführt, um Transparenz und ethische Nutzung von KI auf der Plattform zu gewährleisten.
Character AI sieht sich mit Klagen konfrontiert, in denen dem Unternehmen vorgeworfen wird, zu einem Selbstmord eines Teenagers beigetragen und Minderjährige unangemessenen Inhalten ausgesetzt zu haben. Die FTC (Federal Trade Commission) hat eine Untersuchung gegen alle Hersteller von KI-Chatbots hinsichtlich des Umgangs mit Kindern eingeleitet.



