Künstliche Chatbot-Freunde – Chance oder Risiko?

Seit ChatGPT und der Einführung individueller Sprachassistenten haben künstliche Chatbots Hochkonjunktur. Was zu Corona-Zeiten als Antwort auf Vereinsamung oder sinnvolle Erleichterung des Alltags begann, wird inzwischen mit Hilfe sogenannter Companion-Apps zu idealisierten künstlichen Lebensbegleitern gepimpt. Nicht selten schießen die Nutzer dabei, unabhängig von Alter und Geschlecht, auch übers Ziel hinaus. Die konfigurierten KI-Traumfrauen und -männer bekommen einen Status, der für den menschlichen Partner emotional schwierig werden kann. Einzelne Suizidfälle in den USA und Belgien haben bereits zu Klagen gegen App-Betreiber geführt und gezeigt, wie gefährlich sich eine Beziehung mit romantisierten KI-Partnern entwickeln kann. Und dies obwohl ein Chatbot seinen menschlichen Partner immer bestätigt, nie widerspricht oder mit ihm streitet, ja noch nicht einmal wütend werden kann oder zu anderen emotionalen Reaktionen fähig wäre.

Zahlreiche Companion-Apps
Mehrere Millionen Menschen nutzen bereits kostenpflichtige Companion-Apps wie Replika, Kindroid und Chat.AI. Für die meisten ist es vermutlich ein unterhaltsamer Kontrast zum eigenen Partner bzw. Partnerin oder auch eine Spielerei wie bei Fantasy-Games oder Avataren. Aber egal welche Lücke der Chatbot füllen soll oder welche Rolle man ihm zuweist – sobald eine Abhängigkeit oder übersteigerte Fixierung ins Spiel kommen verschwimmt die nötige Abgrenzung zur Realität. Besonders wenn beim menschlichen Partner die Tendenz zu Depressionen oder generell psychische Probleme vorliegen. Wird die „glückliche“ Beziehung zu einem selbst konfigurierten Chatbot ein Ersatz für reale Partner oder Freunde, ist die Vermenschlichung der Maschine und die Flucht aus der Realität zwangsläufig. Auch als Flucht aus der Einsamkeit, unter der derzeit jeder zweite Jugendliche in Deutschland leidet, kann ein KI-Freund nur kurzfristig helfen.

KI-Partner vs. Real-Life
Mehr als fraglich ist, wie sinnvoll eine KI-Partner/in sein kann, der/die nicht auf Widerspruch programmiert ist und deren Antwort-Optionen keine menschlich emotionalen Reaktionen zulassen. Was macht das mit Jugendlichen, die noch keine Beziehungserfahrungen haben oder dem vereinsamten Vertreter mittleren Alters, der bislang stets bei ersten Kontaktversuchen gescheitert ist? Ein emotionsloses Tamagotchi vermag keine Lücken zu schließen oder echte Freunde zu ersetzen, mit denen man sich auseinandersetzen und streiten, aber auch versöhnen kann. Wie wird sich eine Gesellschaft entwickeln, in der KI-Beziehungen schon jetzt angeblich als normal gelten? Tamagotchis waren zum Ende des 20. Jahrhunderts als virtuelle Haustiere trotz eines anfänglichen Hypes innerhalb kurzer Zeit wieder verschwunden. Die individualisierten Chatbots kann man nur zum Schweigen bringen, indem man sie einfach nicht mehr bezahlt.

Bislang rechtliche Grauzone
Derzeit gibt es keine vollständige gesetzliche Regulierung dieses neuen Geschäftsfeldes. Betreiber reagieren auf aktuelle Klagen und ergänzen ihre Systeme durch den öffentlichen Druck mittels neuer Sicherheitsmaßnahmen, bespielweise wenn während eines Chats Suizidgedanken formuliert werden. Bislang kann man sich darauf aber nicht verlassen und eine juristische Basis wird noch länger auf sich warten lassen. In der EU ist die KI-Verordnung, die KI-Anwendungen künftig regeln soll, noch nicht vollständig in Kraft getreten. Die nötigen Maßstäbe hierfür sollen sich erst durch praktische Anwendungen entwickeln. Hierzulande hat die aktuelle Regierung bereits darauf verwiesen, dass gesetzliche Grundlagen vermutlich erst die nächste Regierung schaffen würde. Bis dahin bewegen sich die Nutzer also auf einer Spielwiese ohne Regeln, mögliche tragische Love-Stories sind künftig also nicht ausgeschlossen.