Springe zum Hauptinhalt
Universitätsbibliothek
Universitätsbibliographie

Eintrag in der Universitätsbibliographie der TU Chemnitz

Volltext zugänglich unter
URN: urn:nbn:de:bsz:ch1-qucosa2-337688


Stein, Jan-Philipp
Ohler, Peter ; Krems, Josef (Gutachter)

Exploring the Uncanny Valley of Mind : An Investigation of Human Uniqueness Concepts, Control Perceptions, and Threat Experience in the Face of Emotion-Sensitive Artificial Intelligence

Die Erkundung des Uncanny Valley of Mind : Eine Untersuchung von Konzepten menschlicher Einzigartigkeit, der Wahrnehmung von Kontrolle und dem Bedrohungsempfinden angesichts emotionssensitiver Künstlicher Intelligenz


Kurzfassung in deutsch

Inspiriert von den enormen technologischen Fortschritten der letzten Jahrzehnte beschäftigt sich die vorliegende Dissertation mit der Wahrnehmung emotionssensitiver künstlicher Intelligenz (KI) und nimmt dabei vor allem die Bedeutung von erlebter Menschenhaftigkeit in den Fokus. Bei der Entwicklung meiner Hypothesen finden Befunde von kognitionswissenschaftlichen Studien ebenso Beachtung wie philosophische und kulturpsychologische Literatur. Tatsächlich gipfelt die interdisziplinäre Recherche in einer deutlichen Vermutung: Da das Erkennen von Geistes- und Gefühlszuständen in anderen Lebewesen von vielen Personen als Kernkomponente ihrer menschlichen Einzigartigkeit betrachtet wird, laufen affektive Technologien mit ähnlichen Fähigkeiten Gefahr, unheimlich oder abstoßend zu wirken – sie werden zu unliebsamen ‚Eroberern‘ einer urmenschlichen Domäne.
In einer ersten empirischen Studie (N = 92) finde ich Hinweise auf die Gültigkeit der getroffenen Annahme. Es zeigt sich, dass empathisch agierende Figuren in einer virtuellen Umgebung deutlich stärkere Ablehnung hervorrufen, wenn Probanden dahinter keine Menschen (Avatare), sondern ein hochkomplexes KI-System (autonome Agenten) vermuten. Nachdem persönliche Beobachtungen und Aussagen der Versuchspersonen wiederholt auf die Rolle von Bedrohungswahrnehmnungen hindeuten, stelle ich diese Variable ins Zentrum einer zweiten Untersuchung. Mithilfe vertiefender Literaturrecherche entwickle ich ein „Model of Autonomous Technology Threat“ („Modell der Bedrohung durch autonome Technologie“), welches zwei potentielle Determinanten von Technologieaversion kombiniert: Während die distale Facette übergeordnete Einstellungen zu menschlicher Einzigartigkeit bündelt, wird zudem ein starker Einfluss von unmittelbaren (proximalen) Wahrnehmungen postuliert, etwa dem erlebten Ausmaß an situativer Kontrolle oder der Sorge um die eigene physische Unversehrtheit.
Ein neues Virtual-Reality-Experiment, in dem Probanden (N = 125) mit einem angeblich autonomen – tatsächlich jedoch ferngesteuerten – Agenten interagieren, dient dazu, das Modell statistisch zu überprüfen. Obgleich sich durchaus Hinweise zur Bedeutsamkeit des distalen Pfades abzeichnen, erweisen sich vor allem proximale Faktoren als signifikanter Prädiktor von Bedrohungsempfinden und infolgedessen der Nutzerakzeptanz.
Mit einer dritten Studie soll schließlich exploriert werden, inwieweit die Wahrnehmung von Menschenartigkeit auch bei nicht verkörperlichten, emotionssensitiven KIs Relevanz besitzt. Zugleich rücke ich nun Kultureinflüsse in den Fokus, indem ich Versuchspersonen verschiedener kultureller Herkunft (N = 89) eine automatisierte Emotionserkennungssoftware kennenlernen lasse. Während chinesische Probanden, deren kulturelle Sozialisation tendenziell ein breiteres Verständnis von ‚Beseeltheit‘ umfasst, nur kurzzeitig vom Feedback der affektiven Software in Erregung versetzt werden, lässt sich bei deutschen Versuchspersonen ein deutlich längerer Anstieg physiologischer Aktivierung feststellen. Zugleich zeichnet die Messung subjektiver Empfindungen ein überraschendes Bild: Die emotionssensitive Maschine – in diesem Fall ein abstrakter, mechanischer Kasten – wird umso positiver bewertet, je mehr Menschenhaftigkeit Probanden in ihr erkennen.
Angesichts der drei durchgeführten Studien komme ich zu dem Schluss, dass lediglich Szenarien mit verkörperlichter KI im Sinne des entwickelten Bedrohungsmodells beide Pfade bedienen, was für eine eindeutig aversive Reaktion erforderlich sein könnte. Die Gestaltung der Software in Studie 3 spielte unterdessen für das unmittelbare Kontrollerleben der Versuchspersonen keine Rolle; eine mögliche Erklärung, warum sich Attributionen von Menschenähnlichkeit hier sogar positiv in den subjektiven Evaluationen niederschlugen.

Kurzfassung in englisch

Inspired by the enormous technological advancements of previous decades, this doctoral thesis revolves around users’ perception of emotion-sensitive artificial intelligence (AI), with particular focus on the role of human likeness attributions. For the development of my hypotheses, I acknowledge both cognitive scientific as well as philosophical and cultural psychological literature. Eventually, my interdisciplinary review culminates in one central assumption: Since many people regard the recognition of mental and emotional states in other entities as a core component of their human uniqueness, affective technology with similar capabilities runs the risk of being seen as uncanny or aversive—turning into a discomforting ‘challenger’ of an inherently human domain.
Indeed, a first empirical study (N = 92) provides evidence for the validity of my hypothesis. My findings show that empathically acting characters in a virtual environment are met with much stronger aversion if participants suspect them to be controlled by highly complex AI (autonomous agents) instead of other humans (avatars). Acknowledging statements from my participants which repeatedly hint towards the importance of threat perceptions, I turn this concept into the main subject of a second study. Based on additional literature research, I develop a “Model of Autonomous Technology Threat”, which combines two potential determinants of technology aversion: Whereas the model’s distal facet summarizes overarching attitudes about human uniqueness, I also postulate a strong influence of immediate (proximal) perceptions, including the experience of situational control or users’ concern about their immediate physical well-being.
Using yet another virtual reality (VR) setting, I ask participants (N = 125) to interact with an allegedly autonomous—in fact remotely controlled—digital agent under different conditions, which allow for a statistical comparison of my proposed model. Although the yielded results do lend some support to the validity of the distal path, it is mostly the proposed proximal factor that connects to participants’ threat experience, which in turn emerges as a negative predictor of technology acceptance.
Lastly, a third study is designed to investigate whether perceptions of human likeness possess any relevance in the context of disembodied emotion-sensitive AI. Moreover, I now focus on potential cross-cultural differences, inviting participants from different cultural backgrounds (N = 89) to familiarize themselves with automatic emotion recognition software. Whereas Chinese participants, whose cultural socialization encompasses a much broader understanding of ‘animacy’, only show brief arousal after feedback from the affective software, I observe a significantly longer increase in physiological activity among German participants. At the same time, the obtained subjective measures paint a surprising picture: The more participants attribute human likeness to the emotion-sensitive machine—an abstract mechanical box in this scenario—the higher they actually rate the technology’s attractiveness.
By summarizing the three conducted studies, I reach the conclusion that only AI stimuli involving elaborate embodiments activated both paths of the developed threat model, which might be a requirement for a distinctly aversive reaction. The presentation of the abstract software in Study 3, on the other hand, did not influence participants’ immediate control perceptions—a possible explanation as to why attributions of human likeness turned out as a positive predictor for the subjective evaluations in this experiment.

Universität: Technische Universität Chemnitz
Institut: Institut für Psychologie Allgemein
Fakultät: Fakultät für Human- und Sozialwissenschaften
Dokumentart: Dissertation
Betreuer: Ohler, Peter
SWD-Schlagwörter: Medienpsychologie , Mensch-Maschine-Kommunikation , Künstliche Intelligenz
Freie Schlagwörter (Deutsch): autonome Technologien , Bedrohungsempfinden , Nutzerakzeptanz , digitale Agenten
Freie Schlagwörter (Englisch): autonomous technologies , artificial intelligence , threat experience , user acceptance , digital agents
DDC-Sachgruppe: Psychologie
Sprache: englisch
Tag der mündlichen Prüfung 24.04.2019

 

Soziale Medien

Verbinde dich mit uns: