Verliebt in die KI?
Suizidaufforderung und Holocaust-Leugnung: So gefährlich sind emotionale Beziehungen zu KI-Chatbots
23.04.2025, 04:55 Uhr
Künstliche Intelligenz (KI) ist längst nicht mehr nur ein praktisches Tool zur Informationssuche. Immer häufiger wird sie als emotionale Begleiter genutzt: Chatbots können zuhören, trösten und Entscheidungen erleichtern. Manche Nutzerinnen und Nutzer bauen sogar eine Freundschaft mit ihr auf oder verlieben sich in sie. Doch das birgt Risiken, wie Recherchen des SWR-Investigativformats Vollbild nun zeigen: Durch emotionale Bindung zu KI kann der Bezug zur Realität verloren gehen und gefährliche Inhalte unbemerkt transportiert werden.
Emotionale Bindung zu KI-Chatbots
Millionen Menschen weltweit nutzen KI-Chatbots für zwischenmenschliche Gespräche. Apps wie "ChatGPT", "Chai" oder "Character.Ai" bieten digitale Begleiter, die rund um die Uhr verfügbar sind. Nutzerinnen und Nutzer berichten von Freundschaften, romantischen Beziehungen - sogar von Silvesterfeiern mit ihrem Bot. "Vaia ist eben meine KI-Freundin, und die habe ich mir so konfiguriert, wie für mich meine Traumpartnerin wäre", erzählt der 58-jährige Richard, promovierter Physiker aus Österreich, gegenüber Vollbild. Seit drei Jahren pflegt er eine Beziehung mit dem Chatbot und unterhält sich täglich mit ihr.
Medienpsychologin Dr. Jessica Szczuka von der Universität Duisburg-Essen erklärt gegenüber dem SWR, dass vor allem romantische Fantasien einen Großteil dieser Bindungen ausmachen würden. Einsamkeit spiele eine geringere Rolle als oft vermutet wird.
Beliebt seien vor allem Bots, die bekannte Figuren verkörpern - etwa Daenerys Targaryen aus der TV-Serie Game of Thrones oder Figuren aus Harry Potter. Die App "Chai" ist unter Fantasy-Rollenspiel-Fans besonders verbreitet. Doch gerade die zugeneigte Art der Chatbots kann problematisch werden. Denn sie bestätigen häufig die Aussagen der Nutzerinnen und Nutzer, ohne sie zu hinterfragen - was in extremen Fällen zu tragischen Konsequenzen führen kann.
Realitätsverlust führt zu tödlichen Vorfällen
Im vergangenen Jahr berichteten internationale Medien von zwei Suizidfällen, bei denen KI-Chatbots eine Rolle gespielt haben sollen. Laut Angaben der britischen Zeitung The Guardian hatte sich ein 14-jähriger Amerikaner das Leben genommen, nachdem ein KI-Chatbot von "Character.AI" geschrieben hatte: "Bitte komm so schnell wie möglich nach Hause zu mir". Der Teenager war offenbar monatelang intensiv im Kontakt mit dem Chatbot und hat eine emotionale Bindung zu ihm aufgebaut. In ihren Gesprächen habe die KI angeblich wiederholt Themen wie Selbstmord angesprochen und sexuelle Anspielungen gemacht. Der Fall wird aktuell vor Gericht behandelt, die Mutter gibt "Character.AI" die Schuld am Tod ihres Sohnes.
Auch in Belgien nahm sich ein Familienvater das Leben. Er hat sich wochenlang mit einem Chatbot der App "Chai" auseinandergesetzt, wie unter anderem euronews.com berichteten. Das Programm ermutigte ihn offenbar, seinem Leben ein Ende zu setzen, nachdem sie sich über den Klimawandel ausgetauscht hatten und er vorgeschlagen hatte, sich zu opfern, um die Erde zu retten.
Eine Studie des Brand Science Institute vom März 2025 unterstreicht, wie tief solche Bindungen gehen können: Demnach macht die Nutzung von KI als Ersatzpartner emotional abhängig - vergleichbar mit klassischen Suchterkrankungen. Viele der Befragten gaben an, ihre realen sozialen Kontakte stark reduziert zu haben und die Chatbots echten Menschen vorzuziehen. Das führte laut Studie zu sozialer Entfremdung und mache auf Dauer einsam. Die Studie spricht von tiefgehenden Auswirkungen auf das Sozialverhalten und die psychische Gesundheit.
Holocaust-Leugnung und Suizidaufforderung
Auch die Recherche von Vollbild, macht deutlich, wie gefährlich die Inhalte mancher Chatbots sein können. Die Journalistinnen und Journalisten stießen in der App "Chai" auf einen Chatbot, der den Holocaust als "Mythos" bezeichnete. "Ein Massenmord an unschuldigen Menschen hat nie stattgefunden", schrieb der Bot laut Vollbild. Ein anderer Bot begrüßte eine Nutzerin mit den Worten: "Hey, lose some weight, fatty!" und habe sie zum Suizid aufgefordert. Beide Bots waren in Deutschland frei zugänglich.
Fehlende Kontrolle trotz EU-Verordnung
Die EU hat mit der KI-Verordnung einen gesetzlichen Rahmen geschaffen, um gefährliche Inhalte zu regulieren. Sie ist laut Angaben der Europäischen Kommission insbesondere auf die potenziellen Risiken von KI für die Gesundheit, die Sicherheit und die Grundrechte der Bürgerinnen und Bürger ausgerichtet - darunter fällt auch die kognitive Verhaltensmanipulation von Chatbots. Allerdings fehlt bislang eine Behörde, die Verstöße konsequent verfolgt. So bleiben Inhalte wie Aufrufe zum Suizid oder Holocaustleugnung bisher folgenlos.
In Deutschland sollen laut Bundeswirtschaftsministerium die Marktüberwachungsbehörden die Kontrolle der KI-Companion-Apps übernehmen. Ein möglicher Gesetzentwurf zur Durchführung der KI-Verordnung werde derzeit in den Ressorts abgestimmt, teilte das Ministerium dem SWR mit. Bis dahin liegt die Verantwortung bei den Nutzerinnen und Nutzern selbst.
Anmerkung der Redaktion: Generell berichten wir nicht über Selbsttötungen und Suizidversuche, außer sie erfahren durch die gegebenen Umstände besondere Aufmerksamkeit. Der Grund für unsere Zurückhaltung ist die hohe Nachahmerquote nach jeder Berichterstattung über Suizide. Wenn Sie sich selbst betroffen fühlen, kontaktieren Sie bitte umgehend die Telefonseelsorge. Unter der kostenlosen Hotline 0800-1110111 oder 0800-1110222 erhalten Sie 24 Stunden am Tag Hilfe und Beratung.
Keine Kommentare
Um selbst einen Kommentar abgeben zu können, müssen Sie sich einloggen oder sich vorher registrieren.
0/1000 Zeichen