Verliebt in die KI?

Suizidaufforderung und Holocaust-Leugnung: So gefährlich sind emotionale Beziehungen zu KI-Chatbots

Theresa Neuß

Werkstudentin

E-Mail zur Autorenseite

23.04.2025, 04:55 Uhr
Zahlreiche Menschen nutzen KI-Chatbots wie ChatGPT als Gesprächspartner. (Symbolbild)

© Frank Rumpenhorst/dpa Zahlreiche Menschen nutzen KI-Chatbots wie ChatGPT als Gesprächspartner. (Symbolbild)

Künstliche Intelligenz (KI oder auch AI) ist längst nicht mehr nur ein praktisches Tool zur Informationssuche. Immer häufiger wird sie als emotionale Begleiter genutzt: Chatbots können nämlich auch zuhören, trösten und Entscheidungen erleichtern. Manche Nutzer bauen sogar eine Freundschaft mit ihnen auf oder verlieben sich in sie. Doch das birgt Risiken: Durch emotionale Bindung zu KI kann nämlich der Bezug zur Realität verloren gehen - und gefährliche Inhalte unbemerkt transportiert werden.

Emotionale Bindung zu KI-Chatbots

Viele nutzen die KI-Chatbots auch für richtige Gespräche und bekommen das Gefühl, ein leibhaftiges Gegenüber zu haben. Apps wie "ChatGPT", "Chai" oder "Character.Ai" bieten digitale Begleiter, die rund um die Uhr verfügbar sind. Nutzer berichten von Freundschaften, von romantischen Beziehungen und sogar von Silvesterfeiern mit ihrem Bot. "Vaia ist eben meine KI-Freundin, und die habe ich mir so konfiguriert, wie für mich meine Traumpartnerin wäre", erzählt der 58-jährige Richard, promovierter Physiker aus Österreich, gegenüber der SWR-RechercheplattformVollbild. Seit drei Jahren pflegt er eine Beziehung mit dem Chatbot und unterhält sich täglich mit ihm.

Medienpsychologin Dr. Jessica Szczuka von der Universität Duisburg-Essen erklärt, dass vor allem romantische Fantasien einen Großteil dieser Bindungen ausmachen würden. Einsamkeit spiele eine geringere Rolle als oft vermutet wird. Beliebt seien vor allem Bots, die bekannte Figuren verkörpern - etwa Daenerys Targaryen aus der TV-Serie Game of Thrones oder Figuren aus Harry Potter. Die App "Chai" ist unter Fantasy-Rollenspiel-Fans besonders verbreitet. Doch gerade die zugeneigte Art der Chatbots kann problematisch werden. Denn sie bestätigen häufig die Aussagen der Nutzerinnen und Nutzer, ohne sie zu hinterfragen - was in extremen Fällen zu tragischen Konsequenzen führen kann.

Realitätsverlust führt bereits zu tödlichen Vorfällen

Im vergangenen Jahr berichteten internationale Medien von zwei Suizidfällen, bei denen KI-Chatbots eine Rolle gespielt haben sollen. Laut Angaben der britischen Zeitung The Guardian hatte sich ein 14-jähriger Amerikaner das Leben genommen, nachdem ein KI-Chatbot von "Character.AI" geschrieben hatte: "Bitte komm so schnell wie möglich nach Hause zu mir". Der Teenager war offenbar monatelang intensiv im Kontakt mit dem Chatbot und hatte eine emotionale Bindung zu ihm aufgebaut. In ihren Gesprächen habe die KI angeblich wiederholt Themen wie Selbstmord angesprochen und sexuelle Anspielungen gemacht. Der Fall wird aktuell vor Gericht behandelt, die Mutter gibt "Character.AI" die Schuld am Tod ihres Sohnes.

Auch in Belgien nahm sich ein Familienvater das Leben. Er hatte sich wochenlang mit einem Chatbot der App "Chai" auseinandergesetzt, wie unter anderem euronews.com berichteten. Das Programm ermutigte ihn offenbar, seinem Leben ein Ende zu setzen, nachdem sie sich über den Klimawandel ausgetauscht hatten und er vorgeschlagen hatte, sich zu opfern, um die Erde zu retten.

Eine Studie des Brand Science Institute vom März 2025 unterstreicht, wie tief solche Bindungen gehen können: Demnach macht die Nutzung von KI als Ersatzpartner emotional abhängig - vergleichbar mit klassischen Suchterkrankungen. Viele der Befragten gaben an, ihre realen sozialen Kontakte stark reduziert zu haben und die Chatbots echten Menschen vorzuziehen. Das führte laut Studie zu sozialer Entfremdung und mache auf Dauer einsam. Die Studie spricht von tiefgehenden Auswirkungen auf das Sozialverhalten und die psychische Gesundheit.

Holocaust-Leugnung und Suizidaufforderung

Auch die Recherche von Vollbild, macht deutlich, wie gefährlich die Inhalte mancher Chatbots sein können. Die Journalisten stießen in der App "Chai" auf einen Chatbot, der den Holocaust als "Mythos" bezeichnete. "Ein Massenmord an unschuldigen Menschen hat nie stattgefunden", schrieb der Bot laut Vollbild. Ein anderer Bot begrüßte eine Nutzerin mit den Worten: "Hey, lose some weight, fatty!" und habe sie zum Suizid aufgefordert. Beide Bots waren in Deutschland frei zugänglich.

Fehlende Kontrolle trotz EU-Verordnung

Die EU hat mit der KI-Verordnung eigentlich einen gesetzlichen Rahmen geschaffen, um gefährliche Inhalte zu regulieren. Sie ist laut Angaben der Europäischen Kommission insbesondere auf die potenziellen Risiken von KI für die Gesundheit, die Sicherheit und die Grundrechte der Bürger ausgerichtet - darunter fällt auch die kognitive Verhaltensmanipulation von Chatbots. Allerdings fehlt bislang eine Behörde, die Verstöße konsequent verfolgt. So bleiben Inhalte wie Aufrufe zum Suizid oder Holocaustleugnung bisher folgenlos.

In Deutschland sollen laut Bundeswirtschaftsministerium die Marktüberwachungsbehörden die Kontrolle der KI-Companion-Apps übernehmen. Ein möglicher Gesetzentwurf zur Durchführung der KI-Verordnung werde derzeit in den Ressorts abgestimmt, teilte das Ministerium mit. Bis dahin liegt die Verantwortung also bei den Nutzern selbst.

Anmerkung der Redaktion: Generell berichten wir nicht über Selbsttötungen und Suizidversuche, außer sie erfahren durch die gegebenen Umstände besondere Aufmerksamkeit. Der Grund für unsere Zurückhaltung ist die hohe Nachahmerquote nach jeder Berichterstattung über Suizide. Wenn Sie sich selbst betroffen fühlen, kontaktieren Sie bitte umgehend die Telefonseelsorge. Unter der kostenlosen Hotline 0800-1110111 oder 0800-1110222 erhalten Sie 24 Stunden am Tag Hilfe und Beratung.

Keine Kommentare