Berlin. Alexa, Siri oder Service-Roboter sprechen mit uns und kennen unsere Vorlieben. Das kann aber ausarten, warnt eine Roboter-Psychologin.

Sprachassistenten, Dialogsysteme, die Unterhaltungen mit einem technischen System erlauben (sogenannte Chatbots) und auch Roboter täuschen dem Gegenüber immer geschickter zwischenmenschliche Beziehungen vor. Und auch wenn wir wissen, dass es sich um seelenlose Maschinen handelt – die Evolution hat uns schlecht auf diese neue Situation vorbereitet.

Tief in uns hält sich der unbewusste Drang, ihnen menschliche Eigenschaften zuzuschreiben. Das stiftet Verwirrung und kann sich auch auf unsere realen Beziehungen auswirken, sagt die Roboterpsychologin Martina Mara im Interview.

Frau Mara, wird durch die rasante Entwicklung von künstlicher Intelligenz (KI) und Robotik die Illusion der Maschine als bewusstes Gegenüber wirklich überzeugender?

Martina Mara Wir Menschen können durchaus manchmal auf solche Simulationen hereinfallen beziehungsweise uns darauf einlassen. Wenn wir eine Maschine als Freund oder Arbeitskollegen betrachten, auf den man sich verlassen kann, kann das auch positive Effekte haben. Das kann etwa helfen, sich weniger einsam zu fühlen, weil man einen Ansprechpartner hat. Chatbots wie Replika sind ja extra für diesen Zweck konzipiert. Er wird laufend durch den Input des Nutzers trainiert und scheint ihm daher passende Antworten zu geben.

Ist das nicht auch gefährlich?

Replika ist im Grunde wie ein Spiegelbild, mit dem ich mich unterhalte. Es ahmt nach, was ich ihm als Input gebe, und passt sich darauf basierend an mich an. Dadurch wirkt er sehr sympathisch, und manche Leute entwickeln sogar Gefühle für das Ding. In Wirklichkeit schwimmt man aber in seiner eigenen Suppe und ist quasi in seiner eigenen Echokammer gefangen. Das erscheint mir unterm Strich wenig bereichernd. Schließlich ist die Konfrontation mit anderen Perspektiven und Persönlichkeiten etwas, das uns wachsen lässt.

Die Maschine macht es uns also zu einfach?

In gewisser Weise schon. Wenn wir die Systeme so stark personalisieren, dass sie immer auf die Vorlieben des Users abzielen, könnte das dazu führen, dass uns die Beziehung, der Dialog und die Auseinandersetzung mit realen Menschen mit der Zeit anstrengender erscheint. Dazu gibt es ja auch schon seit Längerem zumindest anekdotische Berichte aus Japan. Die Grass-Eater dort (junge Männer, die zwar beruflich erfolgreich sind, aber wenig bis gar kein Interesse an Sex zeigen, Anm. d. Red.) sagen, sie haben keine Zeit für eine Beziehung zu einem realen Menschen, weil ihnen der Druck, den sie in Ausbildung und Job spüren, zu hoch ist. Echte Beziehungen erscheinen ihnen zu anstrengend beziehungsweise zu komplex und erfordern zu viele Kompromisse. Deshalb gehen sie zum Teil parasoziale Beziehungen mit fiktionalen Figuren ein.

Wie kann es dazu kommen, dass sich ein Mensch gefühlsmäßig auf ein künstliches Wesen einlässt?

Es ist gut belegt, dass wir Menschen in unserer Wahrnehmung Maschinen in vielen Situationen automatisch vermenschlichen. Das gilt besonders, wenn gewisse Hinweisreize gegeben sind. Im einfachsten Fall reicht es schon, wenn sich etwas bewegt. Dann haben wir den Eindruck, da sei etwas Lebendiges, und wir schreiben den Systemen menschliche Charakteristika zu und nehmen so auch in unbelebten Objekten etwas menschenähnliches wahr. Das drückt sich dann etwa in Aussagen aus wie „Mein Computer ist heute wieder launisch“ oder „Der Staubsaugerroboter ist müde geworden“. Unser Gehirn neigt dazu, alles, was in unserer Umgebung vorgeht, in einem sozialen Sinn zu interpretieren. Und Menschen, die einen besonderen Bedarf haben, etwa weil sie einsam sind, machen das noch stärker.

Roboterpsychologin Martina Mara forscht zu den Beziehungen zwischen Menschen und Robotern. Sie sagt: „Ein Roboter wird sich nie von sich aus um mein Wohlergehen kümmern.“
Roboterpsychologin Martina Mara forscht zu den Beziehungen zwischen Menschen und Robotern. Sie sagt: „Ein Roboter wird sich nie von sich aus um mein Wohlergehen kümmern.“ © Paul Kranzler/JKU | Paul Kranzler/JKU

Was unterstützt das?

Arbeiten künstliche Systeme auch noch mit Sprache, verstärkt sich der Effekt natürlich weiter. Sprachassistenten wie Alexa reden ja bereits mit uns. Das birgt zusätzlich die Gefahr, dass die Interaktion damit auch Auswirkungen auf das reale Leben hat. Warum sollten sich Gespräche mit Alexa, die ich wahrscheinlich auch unbewusst vermenschliche, nicht auf meine Interaktion mit realen Menschen auswirken?

Ist es aus ihrer Sicht schon so weit, dass wir mit KI und Robotern Beziehungen führen?

Ganz so weit würde ich nicht gehen. Wir haben zwar zunehmend Maschinen in unserem Alltag und Berufsleben, die wir vielleicht als soziales Gegenüber interpretieren können. Was den Begriff „Beziehung“ angeht, bin ich aber skeptisch. Zumindest nach den meisten Definitionen steht Beziehung für ein wechselseitiges Verhältnis. Mit Maschinen kann es nur eine simulierte Wechselseitigkeit geben. Ein Roboter wird sich auch nie von sich aus um mein Wohlergehen kümmern. Er wird nie meine Erzählungen und Erlebnisse nachvollziehen können.

Der nächste Schritt nach den Sprachassistenten dürften wohl menschenähnliche Roboter sein. Gibt es auch zu ihrer Wirkung auf den Menschen schon Forschungsergebnisse?

Vor allem in der sozialen Robotik will man Maschinen schaffen, die sympathisch oder niedlich wirken. Dabei werden Designparameter wie das Kindchenschema beachtet und Roboter mit großen Köpfen und runden Formen gebaut. Eine unserer Studien hat etwa gezeigt, dass es bereits als niedlich empfunden wird, wenn ein Roboter den Kopf schief hält. Es ist also nicht besonders schwierig, einen Roboter sympathisch erscheinen zu lassen. Das ist durchaus problematisch, weil es zu sogenannten Overtrust-Phänomenen führen kann, der Maschine also zu viel Vertrauen entgegengebracht wird. Das könnte ausgenutzt werden, um Nutzern persönliche Daten zu entlocken, die ja letztendlich natürlich nicht den Roboter, sondern das Unternehmen dahinter interessieren.

Zur Person

Martina Mara, geboren 1981, studierte Publizistik- und Kommunikationswissenschaft an der Universität Wien und promovierte 2014 an der Universität Koblenz-Landau mit einer Dissertation über die Wahrnehmung menschenähnlicher Maschinen. Seit April 2018 ist Mara Professorin für Roboterpsychologie am Linz Institute of Technology der Johannes Kepler Universität in Linz (Österreich).

Dort geht Martina Mara der Frage nach, wie Menschen intelligente Maschinen wahrnehmen, wie sie sich ihnen gegenüber verhalten und wie sich die Maschinen uns gegenüber verhalten sollten.