KI, dein Freund und Helfer im Alltag und bei der Arbeit. Doch was, wenn es darüber hinausgeht, wenn anstelle einer Freundschaft, einer romantischen Beziehung plötzlich ein Chatbot steht? Geht das überhaupt?
Was einst Fragen für die Philosophie und die Analyse von Science Fiction Werken waren, erhält immer mehr praktische Relevanz. Künstliche Intelligenz wird dahingehend weiterentwickelt, dass sie möglichst glaubhaft Menschen und ihre emotionalen Strukturen repliziert. Denn emotionale Verbundenheit ist zum Beispiel ein wertvolles Marketingwerkzeug und wichtig für die Annahme digitaler Services.[1] Diese Entwicklung bringt aber auch die Möglichkeit für glaubhaft wirkende Partner in und ausserhalb von Videospielen, ständig bereite Zuhörer oder lebhafte, virtuelle Haustiere.[2]
In einer Welt, in der das Gefühl von Einsamkeit zunimmt,[3] ist es nicht abwegig, dass die Lücke realer sozialer Kontakte mit künstlichen gefüllt wird. Wer keinen Partner findet, sucht sich eben einen virtuellen, der sich auf die eigenen Bedürfnisse einstellen und trainieren lässt. Wenn Enkel und Pflegende keine Zeit haben, die Grosseltern zu besuchen oder es keine Verwandten mehr gibt, dann unterhält sich Oma beim Kaffee mit dem Service Roboter.
Aber können Menschen wirklich ein so tiefes Gefühl wie Liebe für eine Maschine empfinden und glauben, dass sie ebenfalls geliebt werden? Ob sich solche Beziehungen real anfühlen und Personen emotional davon abhängig werden können, ist Gegenstand aktueller Forschung. Eine Studie die sich dem widmet ist «Can people experience romantic love for artificial intelligence? An empirical study of intelligent assistants.» Hier kommen die Autoren zum Schluss, dass derartige Verbindungen durchaus möglich sind. Je besser die Performance, die emotionalen Fähigkeiten der KI sind und je stärker die emotionale Kompetenz eines Nutzers oder einer Nutzerin sind, desto einfacher und stärker formt sich eine längerfristige Bindung mit Intimität und Leidenschaft. Empathie von Seiten der KI und eine geringe Vertrauensschwelle auf Seite der User spielen dabei eine zentrale Rolle.
Das ist in gewissem Sinne also auch eine Anleitung dazu, wie sich Unternehmen Kundschaft auf lange Zeit und mit emotionaler Abhängigkeit schaffen können. [4]
Was diese Entwicklung ethisch, gesellschaftlich aber auch für betroffene Individuen bedeutet, sind nächste Fragen. Einige Ansätze dazu liefert zum Beispiel Frau Weber-Guskar in ihrer Arbeit «How to feel about emotionalized artificial intelligence? When robot pets, holograms, and chatbots become affective partners». In dieser Arbeit geht sie auf drei Argumente gegen emotionale Bindungen zu Künstlicher Intelligenz ein:
In einer derartigen Beziehung …
- … macht man sich selbst etwas vor, oder es wird einem etwas vorgemacht.
- … gibt es keine (echte) Gegenseitigkeit.
- … kommt es zu moralischen Fehlentscheidungen.
Sie selbst argumentiert dahingehend, dass diese Argumente weniger Gewicht haben, als es im ersten Moment scheint. Es ist zu beachten, dass sie verletzliche Personen und bewussten Missbrauch von Firmen und Dritten aussen vor lässt.[5]
Es gibt also auch weitere Szenarien, die mehr Vorsicht und Regulation verlangen. Die Fragen und Forschung erstrecken sich weit bis in Themengebiete, die hier nicht angedeutet werden (zum Beispiel im psychotherapeutischen Rahmen). Sie fordern Aufmerksamkeit und Bewusstsein für das Geschehen, denn die Weiterentwicklung der Technologie ist in vollem Gange.
Zum Ende möchte ich die Inspiration für die Themenwahl dieses Beitrags erwähnen: Das Video des YouTube-Kanals Ultralativ «Verliebt in einen Chatbot».[6]
Dieser studentische Beitrag wurde von Valeria Schantong im Rahmen der Vorlesung Medien- und Kommunikationswissenschaften verfasst. Sie studiert Informationswissenschaften an der Fachhochschule Graubünden. Zur Zeit arbeitet Sie neben dem Studium im Bereich Berufs- und Bildungsinformation, ausserdem klickt Sie sich gerne durch YouTube oder kümmert sich gemeinsam mit Ihrer Katze um Ihr Blumenbeet.
[1] Vgl.: The future of service: The power of emotion in human-robot interaction – ScienceDirect
[2] Vgl.: Socially emotional brain-inspired cognitive architecture framework for artificial intelligence (sciencedirectassets.com)
[3] Vgl.: https://doi.org/10.1136/bmj-2021-067068
[4] Vgl : https://doi.org/10.1016/j.im.2022.103595
[5] Vgl.: How to feel about emotionalized artificial intelligence? When robot pets, holograms, and chatbots become affective partners | Ethics and Information Technology (springer.com)