ChapterPDF Available

Abstract

Chatbots sind softwarebasierte Systeme, die mittels natürlicher Sprache mit Menschen interagieren. Viele Unternehmen setzen zunehmend auf Chatbots, um Kunden bei der Suche nach Informationen über Produkte oder Dienstleistungen und bei der Durchführung einfacher Prozesse zu unterstützen. Nichtsdestotrotz ist die Akzeptanz von Chatbots bei vielen Nutzern derzeit noch gering. Ein Grund dafür ist, dass sich die Interaktion mit Chatbots nur selten natürlich und menschlich anfühlt. Es wächst deshalb die Erkenntnis, dass neben einer guten technischen Plattform auch weitere Faktoren bei der Gestaltung von Chatbots beachtet werden sollten. Die soziotechnische Gestaltung von Chatbots fokussiert sich daher auf die sozialen Signale eines Chatbots. Diese sozialen Signale (z. B. Lächeln, Sprachstil oder Antwortgeschwindigkeit) spielen nicht nur in der zwischenmenschlichen Kommunikation, sondern auch in der Interaktion mit Chatbots eine grosse Rolle. Dieser Artikel erläutert die Grundlagen der soziotechnischen Gestaltung von Chatbots, verdeutlicht die Wirkung sozialer Signale anhand eines Forschungsbeispiels und diskutiert kritisch die Vermenschlichung von Chatbots.
This is the author’s version of a work that was published in the following source
Gnewuch U., Feine J., Morana S., Maedche A. (2020) Soziotechnische Gestaltung von Chatbots. In:
Portmann E., D'Onofrio S. (eds) Cognitive Computing. Edition Informatik Spektrum. Springer Vieweg,
Wiesbaden.
Please note: Copyright is owned by the author and / or the publisher.
Commercial use is not allowed.
Institute of Information Systems and Marketing (IISM)
Kaiserstraße 89-93
76133 Karlsruhe - Germany
https://iism.kit.edu
Karlsruhe Service Research Institute (KSRI)
Kaiserstraße 89
76133 Karlsruhe Germany
https://ksri.kit.edu
© 2017. This manuscript version is made available under the CC-
BY-NC-ND 4.0 license http://creativecommons.org/licenses/by-
nc-nd/4.0/
169
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020
E. Portmann, S. D’Onofrio (Hrsg.), Cognitive Computing, Edition Informatik
Spektrum, https://doi.org/10.1007/978-3-658-27941-7_7
U. Gnewuch (*) · J. Feine · S. Morana · A. Maedche
Karlsruher Institut für Technologie (KIT), Institute of Information Systems and Marketing
(IISM), Karlsruhe, Deutschland
E-Mail: ulrich.gnewuch@kit.edu; jasper.feine@kit.edu; stefan.morana@kit.edu; alexander.
maedche@kit.edu
Soziotechnische Gestaltung von
Chatbots
UlrichGnewuch, JasperFeine, StefanMorana und
AlexanderMaedche
Zusammenfassung
Chatbots sind softwarebasierte Systeme, die mittels natürlicher Sprache mit
Menschen interagieren. Viele Unternehmen setzen zunehmend auf Chatbots, um
Kunden bei der Suche nach Informationen über Produkte oder Dienstleistungen
und bei der Durchführung einfacher Prozesse zu unterstützen. Nichtsdestotrotz
ist die Akzeptanz von Chatbots bei vielen Nutzern derzeit noch gering. Ein
Grund dafür ist, dass sich die Interaktion mit Chatbots nur selten natürlich und
menschlich anfühlt. Es wächst deshalb die Erkenntnis, dass neben einer guten
technischen Plattform auch weitere Faktoren bei der Gestaltung von Chatbots
beachtet werden sollten. Die soziotechnische Gestaltung von Chatbots fokussiert
sich daher auf die sozialen Signale eines Chatbots. Diese sozialen Signale
(z.B.Lächeln, Sprachstil oder Antwortgeschwindigkeit) spielen nicht nur in der
zwischenmenschlichen Kommunikation, sondern auch in der Interaktion mit
Chatbots eine grosse Rolle. Dieser Artikel erläutert die Grundlagen der sozio-
technischen Gestaltung von Chatbots, verdeutlicht die Wirkung sozialer Signale
anhand eines Forschungsbeispiels und diskutiert kritisch die Vermenschlichung
von Chatbots.
Vollständig neuer Beitrag
170
1 Einleitung
Chatbots und Sprachassistenten liegen derzeit im Trend (vgl. (Gartner 2018)). Da
sie eine Interaktion über natürliche Sprache ermöglichen, wird ihnen grosses Poten-
zial als einfach zu bedienende Benutzerschnittstelle zugeschrieben. Neben den po-
pulären Sprachassistenten, wie zum Beispiel Amazon’s Alexa,1 werden zunehmend
auch sogenannte Chatbots, mit denen ein Nutzer über Textnachrichten interagieren
kann, auf Webseiten oder Messaging-Plattformen eingesetzt. Aufgrund der jüngsten
technologischen Fortschritte und der Popularität von Textnachrichten als Kommu-
nikationsform ist bei Unternehmen insbesondere das Interesse an Chatbots gestie-
gen. In vielen Branchen werden Chatbots bereits produktiv eingesetzt, um Nutzer
bei der Suche nach relevanten Informationen über Produkte und Dienstleistungen
zu unterstützen und einfache Prozesse, wie etwa bei der Flug- oder Hotelbuchung,
zu automatisieren (Morana etal. 2017). Die Schweizerische Post setzt beispiels-
weise einen Chatbot auf ihrer Webseite ein, um häuge Kundenanfragen zu Produk-
ten und Dienstleistungen von PostFinance automatisiert zu beantworten (D’Onofrio
etal. 2018; Stucki etal. 2018, 2020). Von dem Einsatz eines Chatbots versprechen
sich Unternehmen sowohl Kosteneinsparungen als auch eine Rund-um-die-Uhr-
Verfügbarkeit für ihre Kunden (Gnewuch etal. 2017). Allein auf Facebook Messen-
ger2 wurden daher in einem Jahr bereits über 100.000 Chatbots erstellt (Johnson
2017).
Trotz des grossen Interesses von Unternehmen und Technologiekonzernen Chat-
bots zu entwickeln und einzusetzen, ist die Akzeptanz von Chatbots bei vielen Nut-
zern derzeit noch gering. Zwar kann sich mittlerweile jeder Vierte vorstellen, einen
Chatbot zu nutzen, doch gibt es noch viele Vorbehalte gegenüber Chatbots (Bitkom
2018). Ein Grund für die mangelnde Akzeptanz bei Nutzern ist, dass sich die Inter-
aktion mit einem Chatbot nur selten natürlich und menschlich anfühlt (Moore etal.
2017). Aufgrund der Komplexität der menschlichen Sprache gibt es noch immer
Schwierigkeiten beim Verstehen von mehrdeutigen Nachrichten eines Nutzers. Zum
Beispiel kann die Nachricht „Das ist ja toll“ je nach Situation als Lob oder als iro-
nische Bemerkung verstanden werden. Aktuell tun sich Chatbots jedoch schwer
damit, solche Nuancen in der Sprache zu erkennen. Die Forschung hat jedoch ge-
zeigt, dass es nicht ausschliesslich eine technische Herausforderung ist, dem Nutzer
das Gefühl einer natürlichen Konversation zu vermitteln. In der Interaktion mit ei-
nem Chatbot gibt es diverse Gestaltungselemente, die das Nutzererlebnis (engl.
user experience) massgeblich beeinussen. Zum Beispiel haben Chatbots oft ein
visuelles Erscheinungsbild (bspw. einen menschenähnlichen Avatar), benutzen
Emojis oder Smalltalk. Studien haben gezeigt, dass Nutzer– auch wenn sie wissen,
dass sie es mit einem Chatbot zu tun haben– diese Elemente in einer Interaktion
erwarten, da sie diese aus der Kommunikation mit anderen Menschen gewohnt sind
(Nass und Moon 2000). Viele dieser Elemente entsprechen daher den sozialen Si-
1 https://developer.amazon.com/de/alexa.
2 https://www.messenger.com.
U. Gnewuch et al.
171
gnalen (engl. social cues), die aus der Kommunikationsforschung bekannt sind. So
haben nonverbale Signale, wie etwa ein Lächeln, Blickkontakt oder die Stimmlage,
einen grossen Einuss auf die zwischenmenschliche Kommunikation (Burgoon
etal. 2010). Ähnlich wie in der zwischenmenschlichen Kommunikation nehmen
Nutzer auch soziale Signale von Chatbots wahr und reagieren unterbewusst darauf
(Nass etal. 1994). Diese unterbewussten Reaktionen können die Empndungen der
Nutzer und mitunter auch ihr Verhalten beeinussen. Beispielsweise bauen viele
Nutzer des chinesischen Chatbots Xiaoice3 eine emotionale Bindung zu dem Chat-
bot auf und senden täglich die Nachricht „ich liebe dich“ (Markoff und Mozur
2015). Die Forschung hat gezeigt, dass dies unter anderem durch ein attraktives
Erscheinungsbild des Chatbot Avatars ausgelöst werden kann (Chae etal. 2016).
Nutzer verwenden in der Interaktion mit einem Chatbot auch oft Höichkeitsos-
keln oder führen Smalltalk, ungeachtet der Tatsache, dass Chatbots Computerpro-
gramme sind (Stucki etal. 2018, 2020). Dieses Verhalten verdeutlicht, dass Chat-
bots oft nicht nur als reine Werkzeuge für die Erledigung bestimmte Aufgaben
wahrgenommen werden, sondern von den Nutzern unterbewusst personiziert
werden (Nass und Moon 2000).
Viele Studien deuten daher darauf hin, dass bei der Entwicklung von Chatbots
nicht nur der Einsatz modernster Technologien und Methoden, wie die des Natural
Language Processing, im Mittelpunkt steht, sondern dass auch soziale Faktoren
einen massgeblichen Einuss auf den Erfolg eines Chatbots haben können (vgl.
z.B. (Araujo 2018; Gnewuch etal. 2018a; Liao etal. 2018)). Folglich zielt die so-
ziotechnische Gestaltung von Chatbots darauf ab, sowohl technische als auch sozi-
ale Faktoren und Erkenntnisse möglichst gleichberechtigt in den Gestaltungspro-
zess einzubringen (Mumford 2006). Allerdings gibt es bisher kaum konkrete
Richtlinien für die soziotechnische Gestaltung von Chatbots. Im Internet nden sich
viele Webseiten (bspw. chatbots.org oder chatbotsmagazine.com) und Blogartikel
(z.B. botsociety.io/blog), die eher allgemeine Tipps und Anregungen geben, auf
was bei der Gestaltung von Chatbots zu achten ist (McTear 2017). Beispielsweise
weisen viele dieser Artikel darauf hin, dem Chatbot eine Persönlichkeit zu geben
und soziale Signale, wie zum Beispiel Emojis oder Smalltalk, einzusetzen, um die
Interaktion mit dem Chatbot natürlicher zu gestalten. Diese Ratschläge sind jedoch
meist vage oder zu abstrakt, um sie leicht umsetzen zu können.
In diesem Artikel wird die Gestaltung von Chatbots aus einer soziotechnischen
Perspektive betrachtet. Komplementär zur Entwicklung von Chatbots mit dem Fo-
kus auf technischen Problemstellungen, konzentriert sich dieser Artikel auf die Ge-
staltung der sozialen Signale eines Chatbots. Zunächst werden Chatbots kurz einge-
führt und die theoretischen Grundlagen, warum Menschen auf soziale Signale von
Chatbots reagieren, erläutert. Danach wird anhand eines aktuellen Forschungspro-
jekts gezeigt, wie sich die Gestaltung eines bestimmten sozialen Signals (d.h. der
Antwortgeschwindigkeit) auf die Wahrnehmung eines Chatbots und die Kundenzu-
friedenheit auswirkt. Abschliessend wird erörtert, wie die sozialen Signale eines
Chatbots an bestimmte Umgebungsvariablen angepasst werden können. Ausserdem
3 https://www.msxiaobing.com.
Soziotechnische Gestaltung von Chatbots
172
werden die Implikationen einer Vermenschlichung von Chatbots durch die Gestal-
tung sozialer Signale kritisch diskutiert.
2 Chatbots und die Wirkung ihrer sozialen Signale
Chatbots sind textbasierte Dialogsysteme, die sich mit einem Nutzer in natürlicher
Sprache unterhalten (Chat) und eigenständig einfache Aufgaben ausführen können
(Bot) (Stucki etal. 2018, 2020). Während in der Praxis viele verschiedene Bezeich-
nungen, wie etwa digitaler oder virtueller Assistent genutzt werden, konzentriert
sich die Wirtschaftsinformatikforschung auf den Begriff Conversational Agent.
Dieser Begriff bezeichnet üblicherweise alle Softwaresysteme, die eine Interaktion
über natürliche Sprache ermöglichen (Dale 2016), und umfasst neben den textba-
sierten Chatbots auf Webseiten und Messaging-Plattformen auch Sprachassistenten,
wie zum Beispiel Amazon’s Alexa (Gnewuch etal. 2018a).
Obwohl 2016 zum Jahr des Chatbots ernannt wurde, ist diese Technologie nicht
gänzlich neu (Dale 2016). Die Forschung beschäftigt sich schon seit einigen Jahr-
zehnten mit den Grundlagen dieser Technologie (Følstad und Brandtzæg 2017). Der
erste Chatbot ELIZA wurde bereits 1966 entwickelt und ahmte den Konversations-
stil eines Psychotherapeuten nach (Weizenbaum 1966). Mit einem einfachen Mus-
terabgleich (engl. pattern matching) erkannte ELIZA bestimmte Begriffe in den
Nachrichten des Nutzers. Anschliessend antwortete ELIZA mit vordenierten Ant-
worten, die Platzhalter enthielten und mit entsprechenden Worten ersetzt werden
konnten. Auf den ersten Chatbot folgten viele weitere, wie zum Beispiel PARRY,
der einen paranoiden schizophrenen Menschen nachahmte (Colby etal. 1971), oder
A.L.I.C.E, ein Web-Chatbot der auf der Open-Source Programmiersprache AIML
von Richard Wallace beruht (Wallace 2009). Seitdem hat sich die Technologie je-
doch deutlich weiterentwickelt. Insbesondere durch technische Fortschritte auf dem
Gebiet der künstlichen Intelligenz können moderne Chatbots den Menschen immer
besser verstehen und automatisch dazulernen. Beispiele dafür sind die intelligenten
Sprachassistenten wie Amazon’s Alexa und Google’s Assistant.4
Während sich ein Grossteil der Forschung auf die Lösung technischer Problem-
stellungen (Verbesserung der Natural Language Processing Algorithmen, Entwick-
lung neuer Architekturen, usw.) fokussiert, wächst die Erkenntnis, dass neben einer
guten technischen Plattform auch weitere Faktoren bei der Gestaltung von Chatbots
beachtet werden müssen. Da Nutzer mit Chatbots über natürliche Sprache kommu-
nizieren, müssen bei der Gestaltung viele Faktoren und Elemente aus der zwischen-
menschlichen Kommunikation berücksichtigt werden.
In der zwischenmenschlichen Kommunikation spielen soziale Signale eine
grosse Rolle und sind für den Aufbau und Erhalt erfolgreicher sozialer Beziehungen
unerlässlich (Burgoon etal. 2010). Bei Menschen sind soziale Signale implizite
Hinweisreize, wie zum Beispiel Lächeln, Blickkontakt oder Stimmlage, aus denen
sich soziale Informationen ableiten lassen. Diese Signale werden oft unterbewusst
4 https://assistant.google.com.
U. Gnewuch et al.
173
verwendet, um die Gedanken und Gefühle anderer Personen richtig zu interpretie-
ren. Die Forschung hat gezeigt, dass Menschen auch in der Interaktion mit Compu-
tern und anderen Technologien diese sozialen Signale unterbewusst wahrnehmen
und automatisch darauf reagieren (Nass etal. 1994). Dieses Verhalten lässt sich
darauf zurückführen, dass Menschen als soziale Wesen evolutionär darauf program-
miert sind, auf alle Merkmale zu reagieren, die als soziale Signale verstanden wer-
den können (Nass und Moon 2000). Selbst relativ subtile und unauffällige soziale
Signale reichen bereits aus, um bei Menschen eine soziale Reaktion hervorzurufen.
Diese ausgelösten sozialen Reaktionen werden vom Menschen meist nicht bewusst
wahrgenommen. Aus diesem Grund weisen viele Studien darauf hin, dass auch
Computer und andere Technologien als Soziale Akteure angesehen werden können
(Nass etal. 1994).
Abb.1 zeigt den Prozess der Entstehung von sozialen Reaktionen in der Interak-
tion mit Chatbots (basierend auf Krämer (2005) sowie Nass und Moon (2000)).
Zunächst nimmt ein Nutzer unterbewusst Merkmale eines Chatbots wahr, die nor-
malerweise mit Menschen (z.B.Name, Geschlecht) assoziiert werden und daher als
soziale Signale interpretiert werden können. Neben der Verwendung von natürlicher
Sprache gibt es bei Chatbots eine Vielzahl dieser Signale. Diese sozialen Signale
führen dazu, dass der Nutzer dem Chatbot unterbewusst menschliche Attribute zu-
schreibt und gelerntes Verhalten aus der zwischenmenschlichen Kommunikation
auf den Chatbot anwendet. Somit wird der Chatbot als sozialer Akteur angesehen
und ruft soziale Reaktionen beim Nutzer hervor. Dabei handelt es sich um emotio-
nale und kognitive Reaktionen, die vergleichbar sind mit den Reaktionen während
der Interaktion mit anderen Menschen.
Viele Studien haben untersucht, wie sich bestimmte soziale Signale auf die
Wahrnehmung eines Computers oder anderer Technologien und auf das Nutzerver-
halten auswirken. In ihren ersten Experimenten in der 1990er-Jahren zeigten Nass,
Steuer und Tauber, dass die Teilnehmer zwei verschiedene Stimmen desselben
Computers als zwei verschiedene soziale Akteure wahrnahmen und je nach Ge-
schlecht der Stimme andere Stereotypen auf den Computer anwendeten (Nass etal.
1994). So bevorzugten die Teilnehmer eine Leistungsbewertung von einem Compu-
Abb. 1 Entstehung von sozialen Reaktionen in der Interaktion mit Chatbots
Soziotechnische Gestaltung von Chatbots
174
ter mit männlicher Stimme und lehnten einen weiblichen Computer mit einer domi-
nanten Persönlichkeitsausprägung ab. Ausserdem konnten Nass, Fogg und Moon
zeigen, dass ein Computer als Teammitglied wahrgenommen werden kann, wenn er
durch farbliche Kennzeichnung dem Team eines Nutzers zugeordnet wird (Nass
etal. 1996).
Viele Studien über Chatbots haben sich mit den sozialen Signalen beschäftigt,
die vom Erscheinungsbild des Avatars eines Chatbots ausgehen. Einige Forscher
haben den Einuss visueller sozialer Signale, wie zum Beispiel eines lächelnden
Avatars, untersucht. So erwidern Menschen ein Lächeln deutlich öfter, wenn ein
Avatar sie anlächelt (Krämer etal. 2013) und interagieren deutlich länger mit einem
lächelnden Avatar (Cafaro etal. 2016). Daneben gibt es aber auch viele andere Ar-
ten sozialer Signale, wie etwa verbale Signale. So hat die Verwendung von Smallt-
alk Einuss auf die wahrgenommene Persönlichkeit eines Chatbots (Li etal. 2017)
und Chatbots, die Witze machen, werden als humorvoller angesehen (Dybala etal.
2009).
Im Rahmen eines Forschungsprojekts wurde eine systematische Identizierung
und Klassizierung der sozialen Signale von Chatbots durchgeführt. Diese Klassi-
zierung basiert auf der Einteilung der menschlichen Kommunikation in vier
grundlegende Kommunikationssysteme: Verbal, visuell, auditiv und unsichtbar
(Leathers 1976). Wie in Abb.2 dargestellt, lassen sich die sozialen Signale von
Chatbots anhand dieser Kategorien aus der zwischenmenschlichen Kommunikation
klassizieren.
Verbale Signale umfassen alle sozialen Signale, die durch die Verwendung
von Worten erzeugt werden. Diese verbalen Signale können dahingegen unter-
schieden werden, dass der gleiche verbale Inhalt einer Nachricht (d.h. was ge-
sagt wird) in unterschiedlichen Stilen (d.h. wie etwas gesagt wird) ausgedrückt
werden kann (Collier 2014). Visuelle Signale sind alle nonverbalen sozialen Si-
gnale, die visuell wahrnehmbar sind und auf drei verschiedene Arten erzeugt
werden können: Durch das Aussehen (z.B.Farben), durch Bewegungen (bspw.
Abb. 2 Klassikation sozialer Signale von Chatbots
U. Gnewuch et al.
175
Mimik) und durch die Chat-Umgebung (d.h. besondere Elemente der textbasier-
ten Kommunikation, wie etwa Emojis) (Leathers 1976; Walther 1992). Auditive
Signale umfassen alle hörbaren sozialen Signale, die durch nonverbale Laute
erzeugt werden (d.h. nicht durch Worte). Diese bestehen aus den vokalen Quali-
täten (d.h. permanente und variable Eigenschaften der gesprochenen Sprache,
wie etwa Stimmlage und Sprechtempo) und den Vokalisierungen (nicht-sprachli-
che Stimmlaute oder Geräusche, wie z.B. Husten) (Trager 1958). Unsichtbare
Signale sind alle sozialen Signale, die nicht gesehen oder gehört werden können.
Diese bestehen aus den chronemischen Signalen (d. h. zeitliche Aspekte der
Kommunikation, wie bspw. Antwortzeiten) und haptischen Signalen (z.B.Wär-
meempndungen).
Durch die Vielzahl an sozialen Signalen und deren mögliche Ausprägungen
gibt es viele Gestaltungsmöglichkeiten, die die Wahrnehmungen und das Verhal-
ten der Nutzer beeinussen können. Daher können bestimmte Gestaltungsent-
scheidungen eine grosse Auswirkung auf den Erfolg eines Chatbots haben. Eine
smarte Gestaltung der sozialen Signale kann dazu beitragen, das Vertrauen in ei-
nen Chatbot zu steigern (de Visser etal. 2016), die Nutzerzufriedenheit mit einem
Chatbot zu erhöhen (Verhagen etal. 2014) und den Erfolg einer langfristigen Be-
ziehung zwischen einem Chatbot und einem Menschen sicherzustellen (Bickmore
und Picard 2005). Im Gegensatz dazu kann sich eine ungünstige Gestaltung der
sozialen Signale eines Chatbots negativ auf den Nutzer und die Interaktion aus-
wirken. So wird ein Chatbot mit einer sehr direkten Ansprache als unhöich emp-
funden (Mayer etal. 2006) und ein zu menschenähnliches Erscheinungsbild kann
den Nutzer davon abhalten, Informationen über sich selbst preiszugeben (Sah und
Peng 2015).
3 Soziotechnische Gestaltung von Chatbots amBeispiel
der Antwortgeschwindigkeit5
Im vorangegangenen Kapitel wurden die theoretischen Grundlagen, warum Men-
schen auf soziale Signale von Chatbots reagieren, erklärt und die grosse Vielfalt der
möglichen sozialen Signale von Chatbots aufgezeigt. Im folgenden Kapitel wird
nun auf ein konkretes soziales Signal eines Chatbots (d.h. die Antwortgeschwindig-
keit) eingegangen und anhand dieses Beispiels die soziotechnische Gestaltung von
Chatbots illustriert. Zunächst wird der aktuelle Forschungsstand zur Antwortge-
schwindigkeit von Chatbots dargestellt, bevor ein Gestaltungsprinzip und eine For-
mel zur Berechnung einer dynamischen Antwortverzögerung hergeleitet werden.
Anschliessend werden die Ergebnisse eines Experiments zur Evaluierung dieser
dynamischen Antwortverzögerung vorgestellt und diskutiert.
5 Zentrale Teile dieses Kapitels basieren auf Gnewuch etal. (2018a).
Soziotechnische Gestaltung von Chatbots
176
3.1 Antwortgeschwindigkeit von Chatbots
In der zwischenmenschlichen und computergestützten Kommunikation ist die Ant-
wortgeschwindigkeit (d.h. wie schnell eine Person auf die Aussage einer anderen
Person antwortet) ein wichtiges soziales Signal, das die Wahrnehmung einer Person
und die Beurteilung von dessen Antwort massgeblich beeinusst (Walther und Tid-
well 1995; Moon 1999). So kann eine lange Pause vor einer Antwort (d.h. eine
langsame Antwortgeschwindigkeit) ein Zeichen für ein sorgfältiges Nachdenken
sein, aber in bestimmten Situationen auch den Eindruck erwecken, dass eine Person
lügt, da sie sich die passende Antwort zunächst zurechtlegen muss. Es wird daher
vermutet, dass auch in der Interaktion zwischen Mensch und Chatbot die Antwort-
geschwindigkeit des Chatbots eine wichtige Rolle spielt (Walther und Tidwell
1995).
Forscher sind sich jedoch uneinig darüber, welchen Einuss die Antwortge-
schwindigkeit eines Chatbots auf seine Wahrnehmung beim Nutzer hat. Generell
wird angenommen, dass blitzschnelle Antworten einen Chatbot unmenschlich er-
scheinen lassen und dem Nutzer nicht das Gefühl einer natürlichen Konversation
vermitteln (Appel etal. 2012; Holtgraves und Han 2007; Stucki etal. 2018, 2020).
Da moderne Chatbots in der Lage sind, fast unmittelbar auf Nachrichten des Nut-
zers zu antworten, werden Antworten daher oft künstlich verzögert. Die Verzöge-
rung simuliert dabei die Zeit, die ein Mensch benötigen würde, um eine Nachricht
zu lesen und darauf zu antworten (Appel etal. 2012). Beispielsweise hat Lufthansa
als Reaktion auf Beschwerden der Kunden über die zu schnellen Antworten ihres
Chatbots Mildred6 eine künstliche Verzögerung eingebaut (Crozier 2017). Andere
Studien haben jedoch gezeigt, dass Verzögerungen sich auch negativ auf die Nutzer-
zufriedenheit auswirken können (Hoxmeier und DiCesare 2000), insbesondere
dann, wenn der Nutzer eine schnelle Antwort erwartet (wie bspw. im Kundenser-
vice).
Bisher gibt es nur wenige empirische Studien, die die Auswirkungen unter-
schiedlicher Antwortgeschwindigkeiten auf die Wahrnehmung von Chatbots beim
Nutzer untersucht haben. Ausserdem kommen diese Studien zu widersprüchlichen
Ergebnissen über den Einuss verzögerter Antworten eines Chatbots. Während
Moon (1999) feststellt, dass Nutzer schnelle Antworten negativ bewerten, zeigt
Holtgraves etal. (2007), dass ein schneller Chatbot positiver wahrgenommen wird
als ein Chatbot mit verzögerten Antworten. Ferner werden in diesen Studien nur
statische Verzögerungen untersucht, die unabhängig von der Länge oder Komplexi-
tät der gesendeten Nachricht sind (d.h. jede Nachricht des Chatbots wird nach einer
bestimmten Anzahl von Sekunden gesendet). Aufgrund der widersprüchlichen For-
schungsergebnisse und des zunehmenden Einsatzes künstlicher Verzögerungen bei
realen Chatbots wurde daher der Frage nachgegangen, wie die Antwortgeschwin-
digkeit eines Chatbots natürlicher gestaltet werden kann. Aufbauend auf den bishe-
rigen Forschungsergebnissen und unter Berücksichtigung von Erkenntnissen aus
der zwischenmenschlichen Kommunikation haben die Autoren eine Formel zur
6 https://www.lufthansa.com/us/en/lufthansa_bot.
U. Gnewuch et al.
177
Berechnung einer dynamischen Verzögerung hergeleitet und anschliessend in ei-
nem Chatbot implementiert.
3.2 Dynamische Antwortverzögerung für Chatbots
Für die Herleitung der dynamischen Antwortverzögerung wurde ein gestaltungsori-
entierter Forschungsansatz (engl. design science research) angewendet. Der gestal-
tungsorientierte Forschungsansatz zielt auf die iterative Gestaltung und Evaluation
neuer und innovativer Artefakte (z.B.Softwareprototypen oder Modelle) zur Lö-
sung praktischer Probleme ab (Hevner etal. 2004). Ein spezieller Fokus liegt dabei
auf der Einbeziehung von existierenden wissenschaftlichen Erkenntnissen (bspw.
Theorien aus anderen Disziplinen) als Basis zur fundierten Herleitung von Gestal-
tungsprinzipien. Dieser Forschungsansatz bietet sich daher besonders für die sozio-
technische Gestaltung von Chatbots an, da so bestehendes Wissen aus der zwischen-
menschlichen Kommunikation in die Gestaltung und Evaluation einer dynamischen
Antwortverzögerung integriert werden kann. Im Folgenden werden drei Meta-An-
forderungen (MA) für die Gestaltung von Chatbots mit einer dynamischen Antwort-
verzögerung hergeleitet und anschliessend in einem Gestaltungsprinzip zusammen-
gefasst.
Forscher und Anwender argumentieren, dass schnelle Antworten einen Chatbot
unmenschlich wirken lassen und Nutzern nicht das Gefühl einer natürlichen Kon-
versation geben (Appel etal. 2012; Crozier 2017; Holtgraves etal. 2007). Daher
haben viele Chatbots eine Verzögerung eingebaut, um die Zeit zu simulieren, die ein
Mensch für seine Antwort bräuchte. Die Länge dieser Verzögerung ist jedoch meist
fest deniert oder zufällig generiert und orientiert sich nicht an den individuellen
Eigenschaften einer Nachricht. In der textbasierten Kommunikation setzt sich die
Antwortzeit eines Menschen in der Regel aus zwei Komponenten zusammen: Zum
einen aus der Zeit, die der Mensch benötigt, um die Nachricht einer anderen Person
zu lesen beziehungsweise zu verstehen, und zum anderen aus der Zeit, die der
Mensch benötigt, um eine Antwort zu formulieren und einzugeben (Derrick etal.
2013). Konsequenterweise sollte eine dynamische Antwortverzögerung eines Chat-
bots beide Komponenten, das heisst sowohl die Nachricht des Nutzers (MA1) als
auch die Antwort des Chatbots (MA2) berücksichtigen. Darüber hinaus hängt die
Antwortzeit eines Menschen von den individuellen Eigenschaften einer Nachricht
ab. Insbesondere die Komplexität spielt dabei eine grosse Rolle, da komplexere
Nachrichten länger zum Lesen und komplexere Antworten länger zum Formulieren
brauchen (Khawaja etal. 2010). Demzufolge sollte eine dynamische Antwortverzö-
gerung eines Chatbots die Komplexität der Nachricht beziehungsweise der Antwort
einkalkulieren (MA3). Basierend auf diesen drei MAs wird folgendes Gestaltungs-
prinzip für eine dynamische Antwortverzögerung formuliert:
Gestaltungsprinzip: Integriere eine dynamische Antwortverzögerung in den
Chatbot, die basierend auf der (1) Komplexität der eingehenden Nachricht (des
Nutzers) und der (2) Komplexität der Antwort des Chatbots eine Antwortzeit berech-
net, die sich für den Nutzer natürlicher anfühlt.
Soziotechnische Gestaltung von Chatbots
178
Im Folgenden wird nun die Umsetzung dieses Gestaltungsprinzips in einer For-
mel zur Berechnung einer dynamischen Antwortverzögerung beschrieben. Zur
Berechnung der Komplexität einer Nachricht wurde ein Lesbarkeitsindex
Flesch- Kincaid- Grade-Level– verwendet, der bereits zur Analyse von textbasierter
Kommunikation angewendet wurde. Prinzipiell berechnet dieser Lesbarkeitsindex
die Anzahl der Schuljahre, die ein Leser absolviert haben muss, um einen Text zu
verstehen (Kincaid etal. 1975).
Anhand folgender Formel des Flesch-Kincaid-Grade-Level wurde die Sprach-
komplexität (K) einer Nachricht (N) berechnet:7
KN Anzahl Worter
Anzahl Satze
Anzahl Si
()
=∗
+∗039118,,


llben
Anzahl Worter

15 59,
Die Komplexitätswerte reichen von 3,40 bis positiv unendlich. Darauf aufbauend
wird eine Antwortverzögerung (A) in Millisekunden für eine beliebige Nachricht
(N) unter Verwendung des Komplexitätswertes (K(N)) als Input berechnet:
AN KN KN
=∗
+
+
>05 05 15 0,ln,,,
ANKN
()
=
()
00
Mit dieser Formel wird eine Antwortverzögerung für (1) die vorherige Nachricht
(Nn−1), die entweder vom Nutzer oder vom Chatbot gesendet wurde, und (2) die vom
Chatbot gesendete Antwort (Nn) berechnet. Dies liegt daran, dass die Antworten des
Chatbots auch in mehrere, aufeinander folgende Nachrichten aufgeteilt werden
können und nicht zwingend als eine lange, aggregierte Nachricht gesendet werden
müssen. Letztlich werden beide Verzögerungen addiert, um die gesamte Antwort-
verzögerung (Agesamt) in Millisekunden zu berechnen:
ANANAN
gesamt nn n
()
=
()
+
()
1
Basierend auf dieser Formel werden komplexe Antworten des Chatbots nach einer
komplexen Nachricht des Nutzers signikant verzögert (d.h. ca. bis zu 4 Sekun-
den). Weniger komplexe Nachrichten hingegen werden – wenn überhaupt – nur
minimal verzögert. Zwar kann das Ergebnis aus der Berechnung mit dieser Formel
nicht als optimale Verzögerung verstanden werden, aber dennoch stellt die Formel
eine ausreichende Annäherung für die Gestaltung einer dynamischen Antwortver-
zögerung dar.
7 Für weitere Informationen zur Herleitung dieser Formel verweisen die Autoren auf das Original-
werk von Kincaid etal. (1975).
U. Gnewuch et al.
179
3.3 Experimentaldesign und Chatbot-Szenario
Um die dynamische Antwortverzögerung zu evaluieren und die Auswirkungen un-
terschiedlicher Antwortgeschwindigkeiten auf die Wahrnehmung von Chatbots
beim Nutzer zu untersuchen, wurde ein Online-Experiment in einem Kunden-
service- Szenario durchgeführt. Dieses Experiment verwendete ein Zwischensubjekt-
Design (engl. between-subject-design) mit zwei experimentellen Bedingungen:
Schnelle Antwortgeschwindigkeit (Kontrollgruppe) und dynamisch verzögerte Ant-
wortgeschwindigkeit (Treatmentgruppe).
In der Kontrollgruppe interagierten die Teilnehmer mit einem Chatbot, dessen
Antworten nicht künstlich verzögert wurden und daher in weniger als einer Se-
kunde erschienen. In der Treatmentgruppe interagierten die Teilnehmer mit einem
Chatbot, der– wie im Abschn.3.2 beschrieben– die Antworten erst nach einer zu-
sätzlichen, dynamisch berechneten Verzögerung sendete. In beiden Fällen wurden
die Teilnehmer vor dem Experiment darüber informiert, dass sie mit einem Chatbot
und nicht mit einem Menschen interagieren. Die Teilnehmer wurden zufällig einer
der beiden Gruppen zugeteilt. Das Experiment wurde auf Englisch durchgeführt.
Für die Durchführung des Experiments wurden zwei Chatbots mit dem Microsoft
Bot Framework8 und dem Language Understanding Intelligence Service (LUIS)9
entwickelt. Beide Chatbots waren identisch bis auf ihre jeweilige Antwortgeschwin-
digkeit.
Zu Beginn des Online-Experiments wurde den Teilnehmern eine ktive Kopie
ihrer Mobilfunkrechnung aus dem letzten Monat gezeigt. Aus dieser Rechnung ging
hervor, dass ihr aktueller Mobilfunktarif zu teuer ist und sie bei einem Wechsel Geld
sparen könnten. Die Teilnehmer wurden aufgefordert, sich von dem Chatbot zu ei-
nem neuen Tarif beraten zu lassen. In der Konversation fragte der Chatbot in einem
strukturierten Dialog nach den Anforderungen und der Zahlungsbereitschaft des
Teilnehmers (siehe Abb.3). Anschliessend empfahl er einen ktiven Tarif, der bes-
ser zu den Anforderungen des Teilnehmers passte.
Nach der Interaktion mit dem Chatbot wurden die Teilnehmer gebeten, den
Chatbot zu beurteilen und ihren Eindruck von der Konversation zu beschreiben. In
dem dafür entwickelten Fragebogen wurden folgende etablierte Messinstrumente
verwendet: Wahrgenommene Menschlichkeit (engl. perceived humanness) (Holt-
graves und Han 2007; Holtgraves etal. 2007), soziale Präsenz (Gefen und Straub
1997) und Nutzerzufriedenheit (Verhagen etal. 2014). Um zu messen, wie mensch-
lich der Chatbot wahrgenommen wird, wurden Teilnehmer danach gefragt, wie gut
bestimmte Adjektive (bspw. höich, menschlich oder ansprechend) auf den Chatbot
zutreffen (Holtgraves und Han 2007; Holtgraves etal. 2007).
84 Teilnehmer wurden über Mailinglisten und persönlichen Kontakt rekrutiert. Fünf
Antworten wurden aus der Stichprobe entfernt, da sich die jeweiligen Teilnehmer nicht
an die Aufgabenstellung des Experiments gehalten oder den Fragenbogen nur durchge-
klickt hatten. Insgesamt bestand die Stichprobe daher aus 79 Beobachtungen (25 Frauen
8 https://dev.botframework.com.
9 https://www.luis.ai.
Soziotechnische Gestaltung von Chatbots
180
und 54 Männer; Durchschnittsalter=28,83 Jahre), von denen 35in der Kontrollgruppe
und 44in der Treatmentgruppe waren. Die ungleiche Gruppengrösse ist darauf zurück-
zuführen, dass die zufällige Zuordnung der Teilnehmer über die Experimentalplattform
nicht berücksichtigte, dass einige Teilnehmer das Experiment nicht bis zum Ende
durchgeführt hatten.
3.4 Ergebnisse und Diskussion des Experiments
Tab.1 zeigt die deskriptiven Ergebnisse (d.h. den Mittelwert und die Standardabwei-
chung in Klammern) der Auswertung der erhobenen Messinstrumente für die Kontroll-
und Treatmentgruppe. In der Analyse wurde auf einen signikanten Unterschied zwi-
schen den Mittelwerten der beiden Gruppen getestet. Alle Tests wurden einseitig
durchgeführt, um zu untersuchen, ob sich eine dynamisch verzögerte Antwortgeschwin-
digkeit (Treatmentgruppe) positiv auf die Wahrnehmung eines Chatbots auswirkt (d.h.
im Vergleich zu einer schnellen Antwortgeschwindigkeit in der Kontrollgruppe).
Die Teststatistik zeigt, dass eine dynamisch verzögerte Antwortgeschwindigkeit
eines Chatbots zu einer signikant höheren wahrgenommenen Menschlichkeit und
sozialen Präsenz des Chatbots führt. Darüber hinaus sind Nutzer insgesamt zufrie-
dener mit einem Chatbot mit dynamisch verzögerter Antwortgeschwindigkeit.
Abb. 3 Experimentaldesign und Chatbot Szenario (auf Englisch)
U. Gnewuch et al.
181
Die Ergebnisse des Online-Experiments deuten darauf hin, dass sich eine dy-
namische Antwortverzögerung positiv auf die Wahrnehmung des Chatbots beim
Nutzer auswirkt. Diese Erkenntnis stützt die Annahme, dass dynamische Antwort-
verzögerungen eine effektive Möglichkeit sind, um einen Chatbot zu vermensch-
lichen und Konversationen für den Nutzer natürlicher zu gestalten. Darüber hi-
naus zeigt dieses Experiment, dass relativ subtile soziale Signale, wie zum
Beispiel die Antwortgeschwindigkeit eines Chatbots, soziale Erwartungen und
Prozesse beim Nutzer auslösen und die Wahrnehmung des Chatbots wesentlich
beeinussen können. Interessanterweise zeigt das Experiment auch, dass Verzö-
gerungen die Zufriedenheit der Nutzer mit der Chatbot-Interaktion erhöhen. Frü-
here Studien weisen eher darauf hin, dass Verzögerungen in der Reaktionszeit
eines Systems zu einer geringeren Nutzerzufriedenheit führen (bspw. (Hoxmeier
und DiCesare 2000)). Diese Ergebnisse erscheinen daher auf den ersten Blick
widersprüchlich und kontraintuitiv: Warum sollte jemand länger als nötig auf die
Antwort eines Chatbots warten wollen?
Im Gegensatz zum hier beschriebenen Experiment haben andere Studien jedoch
die Antwortgeschwindigkeiten von Systemen mit graschen Benutzeroberächen
(bspw. von webbasierten Anwendungen) untersucht, bei denen die Interaktion durch
Klicks, Scrollen oder andere Mausbewegungen erfolgt. Durch die Verwendung na-
türlicher Sprache können Chatbots jedoch mehr oder andere soziale Erwartungen,
Prozesse und Reaktionen auslösen als die meisten Anwendungen mit klassischen
graschen Benutzeroberächen. Die Autoren nehmen daher an, dass das menschli-
che Element von Chatbots ihre Wahrnehmung beim Nutzer stark prägt, wodurch sie
bei der Evaluation der Antwortgeschwindigkeit eines Chatbots andere Massstäbe
anlegen als bei der Evaluation von Systemen mit grascher Benutzeroberäche. Da
Menschen mit anderen Menschen chatten, die in der Regel nicht augenblicklich
antworten können, scheinen sie automatisch die gleichen Regeln und Erwartungen
auf ihre Interaktion mit einem Chatbot zu übertragen. Dieser Effekt wird noch da-
durch verstärkt, dass sich viele Chatbots auf Messaging-Plattformen wie Facebook
Tab. 1 Ergebnisse des Online-Experiments (für weitere Details siehe Gnewuch etal. 2018a)
Gruppe/Chatbot
Wahrgenommene
Menschlichkeit1Soziale Präsenz2
Nutzer-
zufriedenheit2
Treatment: Dynamisch
verzögerte Antwort-
geschwindigkeit (n=44)
5,53 (1,67) 3,70 (1,51) 5,17 (0,97)
Kontroll: Schnelle
Antwortgeschwindigkeit
(n=35)
4,46 (1,88) 2,95 (1,43) 4,61 (1,34)
Teststatistik t(77)=2,69,
p=0,004, r=0,293
t(77)=2,22,
p=0,02,
r=0,246
t(60,04)=2,088,
p=0,02, r=0,260
1gemessen mit einer semantischen 9-Punkte-Differenzskala | 2gemessen mit einer 7-Punkt-Likert-
Skala
Soziotechnische Gestaltung von Chatbots
182
Messenger, Slack10 oder Telegram11 benden, die sonst nur zur Kommunikation mit
anderen Menschen verwendet werden.
Obwohl noch mehr Forschung nötig ist, zeigen die Ergebnisse, dass Nutzer in
diesem speziellen Kontext einen Chatbot mit einer verzögerten Antwortgeschwin-
digkeit, die dynamisch basierend auf der Komplexität berechnet wurde, bevorzu-
gen. Das vorgestellte Gestaltungsprinzip und die Formel zur Berechnung einer dy-
namischen Antwortverzögerung können daher helfen, Chatbots so zu gestalten, dass
sie von ihren Nutzern besser angenommen werden und auch eher genutzt werden.
4 Diskussion
Die vorangegangenen Kapitel verdeutlichen, dass soziale Signale nicht nur in der
zwischenmenschlichen Kommunikation, sondern auch in der Interaktion mit Chat-
bots eine grosse Rolle spielen können. Nutzer reagieren unterbewusst auf bestimmte
Signale eines Chatbots, wie zum Beispiel die Attraktivität seines Avatars oder seine
unnatürlich schnellen Antworten. Im Rahmen verschiedener Forschungsprojekte
konnten die Autoren feststellen, dass es nahezu unmöglich ist, den Einuss sozialer
Signale auf die Interaktion mit Chatbots zu unterbinden. Auch wenn den Nutzern
bewusst war, dass sie es mit einem Chatbot zu tun hatten, fanden sich in den Chat-
verläufen oft Hinweise darauf, dass sie sich dessen noch einmal vergewissern woll-
ten. Während einige Nutzer den Chatbot aktiv nach seiner Identität fragten (z.B.
Bist du ein Mensch?“), gab es andere, die den Chatbot mit besonders komplizierten
Fragen herausforderten, um sicherzugehen, dass die Antworten nicht doch von ei-
nem Menschen kommen.
Aufgrund der Vielzahl an möglichen sozialen Signalen ist es für Forscher und
Anwender wichtig, die soziotechnische Gestaltung zu verstehen. Die soziotechni-
sche Gestaltung von Chatbots kann daher auf Erkenntnissen aus der zwischen-
menschlichen Kommunikation aufbauen, um soziale Signale von Chatbots sowohl
isoliert als auch im Zusammenspiel bestmöglich zu gestalten. Beispielsweise kann
die verzögerte Antwortgeschwindigkeit eines Chatbots mit verschiedenen Varianten
einer Eingabeanzeige (engl. typing indicator) kombiniert werden. Diese Eingabean-
zeigen, die dem Nutzer aus Messaging-Plattformen bekannt sind (bspw. drei ani-
mierte Punkte in Facebook Messenger), werden ebenfalls als ein soziales Signal
wahrgenommen (Gnewuch etal. 2018b). Die soziotechnische Gestaltung von Chat-
bots sollte daher auch die Abhängigkeiten zwischen verschiedenen sozialen Signa-
len berücksichtigen.
In der Regel wird im Laufe des Entwicklungsprozesses die konkrete Gestaltung
einzelner sozialer Signale, wie etwa der Sprachstil oder das Erscheinungsbild des
Chatbots, festgelegt und nach Einführung des Chatbots nicht mehr geändert. Nichts-
destotrotz sind die technischen Voraussetzungen für eine Adaption der sozialen
Signale eines Chatbot auf verschiedene Nutzer, Kontexte oder Aufgaben bereits
10 https://slack.com.
11 https://telegram.org.
U. Gnewuch et al.
183
heute gegeben. Ein Chatbot kann sich nicht nur mit jeder Konversation neues
Wissen aneignen, sondern sich auch an einen bestimmten Nutzer oder Kontext
anpassen. Im folgenden Kapitel werden daher die Möglichkeiten der adaptiven
Gestaltung sozialer Signale eines Chatbots diskutiert.
4.1 Adaptive Gestaltung der sozialen Signale von Chatbots
Aus der zwischenmenschlichen Kommunikation ist bekannt, dass Menschen ihre
sozialen Signale beeinussen, um sich an andere Menschen und ihre Umgebung
anzupassen. Beispielsweise verwenden Menschen im beruichen Umfeld oft das
distanzierte Sie, während sie im privaten Umfeld in aller Regel das intimere Du
einsetzen (Wrede-Grischkat 2007). Analog wird eine derartige Anpassung an äu-
ssere Umgebungsvariablen oft auch von Chatbots gefordert, um als intelligente Ak-
teure wahrgenommen zu werden (Knote etal. 2018). Ein Grund dafür ist, dass die
Wirkung einer Mensch-Chatbot Interaktion unter anderem durch den (1) einzelnen
Nutzer, (2) den Kontext und (3) die Aufgabe beeinusst werden (Benyon et al.
2005). Daher können Erkenntnisse zur Gestaltung eines sozialen Signals nicht ohne
Weiteres auf einen anderen Nutzer, einen anderen Kontext oder eine andere Auf-
gabe übertragen werden. Dieser Aspekt soll anhand der Ergebnisse einiger Studien
in den folgenden Abschnitten verdeutlicht werden.
Potentielle Nutzer von Chatbots können sich hinsichtlich ihrer demograschen
(Alter, Geschlecht, usw.) oder geograschen Daten (z. B. Herkunftslands), aber
auch hinsichtlich ihres Nutzungsverhaltens (sporadische Nutzer, erfahrene Nutzer,
usw.) stark unterscheiden (Catrambone etal. 2004). Aus diesem Grund können sich
soziale Signale von Chatbots auch unterschiedlich auf verschiedene Nutzergruppen
auswirken, weshalb ihre individuellen Eigenschaften bei der soziotechnischen Ge-
staltung berücksichtigt werden sollten. Braslavski et al. (2018) haben beispiels-
weise gezeigt, dass Witze eines Chatbots abhängig von Alter, vom Geschlecht und
den Sprachkenntnissen des jeweiligen Nutzers unterschiedlich wahrgenommen
werden. Endrass, Rehm und André (2011) untersuchten den Einuss von Smalltalk
abhängig vom kulturellem Hintergrund des Nutzers und zeigten, dass Nutzer in
westlichen Kulturen Smalltalk von Chatbots anders wahrnehmen als Nutzer aus
asiatischen Kulturen. Weiter fanden Isbister und Nass (2000) heraus, dass Chatbots
als angenehmer bewertet werden, wenn ihre Persönlichkeitseigenschaften mit de-
nen des Nutzers übereinstimmen.
Weiter beeinussen die Aufgabe und der Kontext, in dem die Aufgabe stattndet,
die Wirkung sozialer Signale. So bevorzugen Nutzer in einer Banking-Umgebung
ein Erscheinungsbild mit einer klassischen und formaleren Kleidung, wohingegen
die Kleidung des Assistenten in einem virtuellen Reisebüro oder Kinokasse keine
Rolle zu spielen scheint (McBreen 2002). Auch ist ein Nutzer bereit, mehr intime
Informationen in einem Gesundheitskontext offenzulegen, wenn er direkt und per-
sönlich angesprochen wird (Sah und Peng 2015). Eine direkte und persönliche An-
sprache wirkt sich zudem auch positiv auf die Entwicklung einer vertrauensvollen
Beziehung zwischen dem Nutzer und einem Fitness-Chatbot aus (Bickmore und
Soziotechnische Gestaltung von Chatbots
184
Picard 2005). Wenn aber nanzielle Informationen vom Nutzer abgefragt werden,
wirkt sich eine direkte Ansprache negativ auf die Offenlegung dieser Informationen
aus (Puzakova etal. 2013). Fogg (2002) argumentiert daher, dass das Ausmass der
Ausgestaltung von sozialen Signalen reduziert werden sollte, wenn es die Haupt-
aufgabe des Chatbots ist schnell und effektiv Informationen zur Verfügung zu stel-
len. In solchen Fällen lenken soziale Signale seiner Argumentation nach von der
sinnvollen Nutzung des Chatbots ab. Wenn es jedoch um Freizeit-, Unterhaltungs-
und Bildungsaufgaben geht, ist eine ausgiebige Gestaltung von sozialen Signalen
sinnvoll und sogar vom Nutzer gewünscht (Fogg 2002).
Abschliessend lässt sich feststellen, dass es für eine erfolgreiche soziotechnische
Gestaltung von sozialen Signalen notwendig ist, diese an die Umgebung anzupas-
sen. Da sich die Nutzer, der Kontext, aber auch die Aufgabe in einer Interaktion mit
einem Chatbot kontinuierlich verändern können, ist es sinnvoll den Chatbot so zu
gestalten, dass er sich adaptiv an Veränderungen der Umgebung anpassen kann. Die
notwendigen Umgebungsinformationen kann der Chatbot hierfür aus verschiede-
nen Quellen auslesen. So kann er zum Beispiel auf die Informationen aus Nutzer-
prolen von sozialen Plattformen zugreifen (z.B.Facebook) oder den Nutzer direkt
nach wichtigen Informationen fragen (bspw. nach Geschlecht, Alter oder Erfah-
rung). Weiter kann der Chatbot die vom Nutzer geschriebenen Nachrichten in Echt-
zeit analysieren, um Erkenntnisse über die Stimmung (engl. sentiment), die Emoti-
onen oder sogar über die Persönlichkeit des Nutzers zu gewinnen und zu nutzen
(Clavel und Callejas 2016). Die Nutzung dieser Erkenntnisse, ihre Modellierung
und die anschliessende Durchführung von adaptiven Anpassungsstrategien ermög-
lichen es, die sozialen Signale des Chatbots an die Bedürfnisse, die Verhaltenswei-
sen und die Situation des individuellen Nutzers anzupassen und somit die sozialen
Reaktionen positiv zu beeinussen.
4.2 Wie menschenähnlich sollte ein Chatbot sein?
Sowohl in der Forschung als auch in der Praxis wird oft darüber diskutiert, wie sehr
Technologie dem Menschen ähnlich sein sollte beziehungsweise sein darf (z.B.
(Wirtschaftswoche 2016)). Auch bei der Gestaltung von Chatbots muss zwangsläu-
g über den Grad der Menschlichkeit entschieden werden. Insbesondere die Gestal-
tung der sozialen Signale eines Chatbots hat einen grossen Einuss darauf, wie
menschenähnlich ein Chatbot wahrgenommen wird. Wie in Abschn. 3 dargestellt,
reicht es bereits aus, die Antwortgeschwindigkeit eines Chatbots zu verzögern, um
die Wahrnehmung des Nutzers dahingehend zu beeinussen. Analog dazu können
beliebige soziale Signale eingesetzt werden, um den Chatbot weiter zu vermensch-
lichen. Dies wirft die Frage auf, ob eine Vermenschlichung des Chatbots sinnvoll
ist. So führte die starke Vermenschlichung des bekannten Chatbots Anna von
IKEA12 dazu, dass viele Nutzer keine inhaltlichen Fragen rund um IKEAs Produkte
stellten, sondern sich hauptsächlich zum äusseren Erscheinungsbild von Anna
12 Den Chatbot Anna von IKEA (www.ikea.com) gibt es seit 2016 nicht mehr.
U. Gnewuch et al.
185
äusserten. Andererseits gibt es auch Nutzer, die sich über die Roboterhaftigkeit von
Chatbots beschweren (Brandtzaeg und Følstad 2018). Auch die Präsentation von
Google’s Sprachassistenten Duplex13 hat zu grossen Diskussionen darüber geführt,
ob es ethisch vertretbar ist, einen Menschen darüber im Unklaren zu lassen, ob er
mit einer Maschine oder einem Menschen interagiert (Kremp 2018). Auch Joseph
Weizenbaum (1976), der Entwickler von ELIZA, hat schon frühzeitig kritisiert,
dass Maschinen viele menschlichen Qualitäten wie Mitgefühl, Kreativität und Intui-
tion niemals besitzen werden und somit auch nicht in Kontexten, in denen diese
erforderlich sind, eingesetzt werden sollten.
In der Forschung gehen die Meinungen darüber auseinander, ob die Vermensch-
lichung eines Chatbots sinnvoll und ethisch vertretbar ist. Die eine Seite argumen-
tiert, dass es bei Chatbots primär um die Funktion gehen sollte und eine Vermensch-
lichung durch soziale Signale nur von der eigentlichen Aufgabe ablenkt. Daher
sollten Entwickler das Ausmass der sozialen Signale eines Chatbots soweit wie
möglich reduzieren. Häug berufen sich Forscher auf die Theorie des Uncanny Val-
ley (deut. Unheimliches Tal), die besagt, dass künstliche Figuren, wie etwa Roboter
oder Chatbots, mit zunehmender Vermenschlichung positiver evaluiert werden und
eine zunehmend positive Reaktion beobachtbar ist (Mori 1970). Allerdings wird mit
steigendem Grad der Menschenähnlichkeit ein Punkt erreicht, an dem sich diese
positive Reaktion in eine negative Reaktion umkehrt. Ab diesem Punkt löst die un-
vollkommene Menschlichkeit Unbehagen beim Nutzer aus und die Akzeptanz steigt
erst wieder an, wenn die künstliche Figur nahezu identisch mit dem Menschen ist.
Übertragen auf die Gestaltung von Chatbots bedeutet dies, dass bei dem Versuch,
einen Chatbot möglichst menschenähnlich wirken zu lassen, die Gefahr besteht,
dass der Nutzer durch seine unvollkommene Menschlichkeit abgeschreckt wird.
Diese Gefahr besteht insbesondere dann, wenn der Nutzer im Unklaren darüber
gelassen wird, ob er mit einem Menschen oder einem Chatbot interagiert (vgl.
(Jentsch 1997)). Diese Unklarheit führt nicht selten dazu, dass sich Nutzer im
Kundenservice- Chat erst einmal vergewissern, ob sie es mit einem Menschen oder
Chatbot zu tun haben (Mooallem 2017). Folglich empfehlen diese Forscher, dem
Nutzer bereits zu Beginn klarzumachen, dass sie es mit einem Chatbot zu tun haben
und in der Gestaltung des Chatbots auf soziale Signale zu verzichten, um keine
falschen Erwartungen beim Nutzer zu wecken oder sogar Unbehagen bei ihnen aus-
zulösen.
Andererseits erwarten viele Nutzer, obwohl sie wissen, dass ein Chatbot eine Ma-
schine ist, dass er soziale Signale sendet, da sie diese aus der Interaktion mit Men-
schen gewohnt sind (Nass und Moon 2000). Aus diesem Grund wird argumentiert,
dass eine Vermenschlichung des Chatbots vom Nutzer gewünscht und folglich auch
ethisch vertretbar ist. Hinzukommt, dass sich allein durch die Verwendung von natür-
licher Sprache als Interaktionsform eine gewisse Assoziation mit menschlichem Ver-
halten nicht komplett vermeiden lässt. Zusammenfassend lässt sich daher sagen, dass
es vermutlich keine pauschale Antwort auf die Frage nach dem optimalen Grad der
Menschenähnlichkeit eines Chatbots gibt. Der Ansatz einer soziotechnischen Gestal-
13 https://www.youtube.com/watch?v=D5VN56jQMWM.
Soziotechnische Gestaltung von Chatbots
186
tung lässt sich aber auch hier anwenden, um die Wirkung der sozialen Signale eines
Chatbots zu untersuchen und gegebenenfalls Anpassungen vorzunehmen, um den
Grad der Menschenähnlichkeit zu reduzieren oder zu erhöhen.
5 Fazit
Soziale Signale sind nicht nur in der zwischenmenschlichen Kommunikation wich-
tig. Auch bei der Interaktion mit Chatbots nehmen Nutzer dessen soziale Signale
(Antwortgeschwindigkeit, Emojis, usw.) unterbewusst wahr, wodurch soziale Re-
aktionen bei ihnen ausgelöst werden. In der Gestaltung von Chatbots gibt es eine
Vielzahl an sozialen Signalen, die einen grossen Einuss auf die Wahrnehmung des
Chatbots beim Nutzer haben können. Für Forscher und Anwender ist es daher wich-
tig, die soziotechnische Gestaltung von Chatbots zu verstehen. Die soziotechnische
Gestaltung versucht, sowohl technische als auch soziale Faktoren und Erkenntnisse
im Gestaltungsprozess eines Chatbots zu berücksichtigen. So können soziale Si-
gnale von Chatbots optimal gestaltet und adaptiv im Laufe der Konversation ange-
passt werden, um für eine positive Wahrnehmung des Chatbots beim Nutzer zu
sorgen, ohne den Chatbot zu stark zu vermenschlichen.
Danksagung Die Autoren dieses Kapitels danken allen Teilnehmern der hier vorgestellten Stu-
dien und allen Kolleginnen und Kollegen am Institute of Information Systems and Marketing für
ihre Unterstützung. Ein besonderer Dank gilt Marc T.P. Adam für seine Mitarbeit in diesem For-
schungsprojekt.
Literatur
Appel J, von der Pütten A, Krämer NC, Gratch J (2012) Does Humanity Matter? Analyzing the
Importance of Social Cues and Perceived Agency of a Computer System for the Emergence of
Social Reactions during Human-Computer Interaction. Advances in Human-Computer Inter-
action, 2012:1–10.
Araujo T (2018) Living up to the chatbot hype: The inuence of anthropomorphic design cues and
communicative agency framing on conversational agent and company perceptions. Computers
in Human Behavior, 85: 183–189.
Benyon D, Turner P, Turner S (2005) Designing interactive systems: People, activities, contexts,
technologies. Pearson Education.
Bickmore TW, Picard RW (2005) Establishing and maintaining long-term human-computer relati-
onships. ACM Transactions on Computer-Human Interaction, 12(2): 293–327.
Bitkom (2018) Jeder Vierte will Chatbots nutzen. Bitkom Research. https://www.bitkom.org/
Presse/Presseinformation/Jeder-Vierte-will-Chatbots-nutzen.html. Erstellt: 18.01.2017. Letz-
ter Zugriff: 08. August 2018.
Brandtzaeg PB, Følstad A (2018) Chatbots: Changing User Needs and Motivations. Interactions,
25(5): 38–43.
Braslavski P, Blinov V, Bolotova V, Pertsova K (2018) How to Evaluate Humorous Response Ge-
neration, Seriously? In: Proceedings of the 2018 Conference on Human Information Interacti-
on&Retrieval– CHIIR ’18. NewYork, NewYork, USA.
U. Gnewuch et al.
187
Burgoon J, Guerrero L, Floyd K (2010) Nonverbal communication. Routledge, NewYork, NY,
USA.
Cafaro A, Vilhjálmsson HH, Bickmore T (2016) First Impressions in Human--Agent Virtual En-
counters. ACM Transactions on Computer-Human Interaction (TOCHI), 23(4): 24.
Catrambone R, Stasko J, Xiao J (2004) ECA as user interface paradigm. In: From brows to trust.
Springer, 239–267.
Chae SW, Lee KC, Seo YW (2016) Exploring the Effect of Avatar Trust on Learners’ Perceived
Participation Intentions in an e-Learning Environment. International Journal of Human–Com-
puter Interaction, 32(5): 373–393.
Clavel C, Callejas Z (2016) Sentiment analysis: from opinion mining to human-agent interaction.
IEEE Transactions on Affective Computing, 7(1): 74–93.
Colby KM, Weber S, Hilf FD (1971) Articial paranoia. Articial Intelligence, 2(1): 1–25.
Collier G (2014) Emotional expression. Psychology Press, NewYork, NY, USA.
Crozier R (2017) Lufthansa delays chatbot’s responses to make it more ‚human‘. iTnews Australia.
https://www.itnews.com.au/news/lufthansa-delays-chatbots-responses-to-make-it-more-hu-
man-462643. Erstellt: 24. Mai 2017. Letzter Zugriff: 30. August 2018.
D’Onofrio S, Portmann E, Franzelli M, Bürki C (2018) Cognitive Computing: Theoretische Grund-
lagen und Praxisbeispiele der Schweizerischen Post. Informatik-Spektrum, 41(2): 113–122.
Dale R (2016) The return of the chatbots. Natural Language Engineering, 22(05): 811–817.
de Visser EJ, Monfort SS, McKendrick R, Smith MABB, McKnight PE, Krueger F, Parasuraman R
(2016) Almost human: Anthropomorphism increases trust resilience in cognitive agents. Jour-
nal of Experimental Psychology: Applied, 22(3): 331–349.
Derrick DC, Meservy TO, Jenkins JL, Burgoon JK, Nunamaker JF (2013) Detecting Deceptive
Chat-Based Communication Using Typing Behavior and Message Cues. ACM Transactions on
Management Information Systems, 4(2): 1–21.
Dybala P, Ptaszynski M, Rzepka R, Araki K (2009) Activating Humans with Humor--A Dialogue
System That Users Want to Interact with. IEICE TRANSACTIONS on Information and Sys-
tems, 92(12): 2394–2401.
Endrass B, Rehm M, André E (2011) Planning Small Talk behavior with cultural inuences for
multiagent systems. Computer Speech, Language, 25(2): 158–174.
Fogg BJ (2002) Computers as Persuasive Social Actors. In: Persuasive Technology: Using Com-
puters to Change What We Think and Do. Morgan Kaufmann Publishers, San Francisco, CA,
USA, 89–120.
Følstad A, Brandtzæg PB (2017) Chatbots and the new world of HCI.Interactions, 24(4): 38–42.
Gartner (2018) Gartner Says 25 Percent of Customer Service Operations Will Use Virtual Custo-
mer Assistants by 2020. https://www.gartner.com/newsroom/id/3858564. Erstellt: 19. Februar
2018. Letzter Zugriff: 11. September 2018.
Gefen D, Straub DW (1997) Gender Differences in the Perception and Use of E-Mail: An Exten-
sion to the Technology Acceptance Model. MIS Quarterly, 21(4): 389–400.
Gnewuch U, Morana S, Adam MTP, Maedche A (2018a) Faster is Not Always Better: Understan-
ding the Effect of Dynamic Response Delays in Human-Chatbot Interaction. In: Proceedings of
the European Conference on Information Systems (ECIS). Portsmouth, UK.
Gnewuch U, Morana S, Adam MTP, Maedche A (2018b) ‚The Chatbot is typing …‘– The Role of
Typing Indicators in Human-Chatbot Interaction. In: Proceedings of the 17th Annual Pre-ICIS
Workshop on HCI Research in MIS.San Francisco, CA, USA.
Gnewuch U, Morana S, Maedche A (2017) Towards Designing Cooperative and Social Conversa-
tional Agents for Customer Service. In: Proceedings of the 38th International Conference on
Information Systems (ICIS). Seoul, South Korea.
Hevner AR, March ST, Park J, Ram S (2004) Design Science in Information Systems Research.
MIS Quarterly, 28(1): 75–105.
Holtgraves T, Han T-L (2007) A procedure for studying online conversational processing using a
chat bot. Behavior Research Methods, 39(1): 156–163.
Soziotechnische Gestaltung von Chatbots
188
Holtgraves T, Ross SJ, Weywadt CR, Han T-L (2007) Perceiving articial social agents. Compu-
ters in Human Behavior, 23(5): 2163–2174.
Hoxmeier JA, DiCesare C (2000) System Response Time and User Satisfaction : An Experimental
Study of Browser-based Applications. In: Proceedings of the 6th Americas Conference on In-
formation Systems (AMCIS). Long Beach, CA, USA.
Isbister K, Nass C (2000) Consistency of personality in interactive characters: verbal cues,
non-verbal cues, and user characteristics. International Journal of Human-Computer Studies,
53: 251–267.
Jentsch E (1997) On the psychology of the uncanny (1906). Angelaki: Journal of the Theoretical
Humanities, 2(1): 7–16.
Johnson K (2017) Facebook Messenger hits 100,000 bots. https://venturebeat.com/2017/04/18/
facebook-messenger-hits-100000-bots/. Erstellt: 18. April 2017. Letzter Zugriff: 08. August
2018.
Khawaja MA, Chen F, Marcus N (2010) Using language complexity to measure cognitive load for
adaptive interaction design. In: Proceedings of the 15th International Conference on Intelligent
User Interfaces (IUI ’10).
Kincaid JP, Fishburne RP, Rogers RL, Chissom BS (1975) Derivation Of New Readability Formu-
las (Automated Readability Index, Fog Count And Flesch Reading Ease Formula) For Navy
Enlisted Personnel. Branch Report, 8–75.
Knote R, Janson A, Eigenbrod L, Söllner M (2018) The What and How of Smart Personal As-
sistants: Principles and Application Domains for IS Research. In: Multikonferenz Wirtschafts-
informatik. Lüneburg, Germany.
Krämer NC (2005) Social Communicative Effects of a Virtual Program Guide. In: R.T. Panayioto-
poulos T., Gratch J., Aylett R., Ballin D., Olivier P. (ed.), Intelligent Virtual Agents. IVA 2005.
Springer, Berlin, Heidelberg.
Krämer NC, Kopp S, Becker-Asano C, Sommer N (2013) Smile and the world will smile with
you– The effects of a virtual agent’s smile on users’ evaluation and behavior. International
Journal of Human-Computer Studies, 71(3): 335–349.
Kremp M (2018) Künstliche Intelligenz: Google Duplex ist gruselig gut. Spiegel. http://www.
spiegel.de/netzwelt/web/google-duplex-auf-der-i-o-gruselig-gute-kuenstliche-intelli-
genz-a-1206938.html. Erstellt: 09. Mai 2018. Letzter Zugriff: 30. August 2018.
Leathers DG (1976) Nonverbal communication systems. Allyn and. Bacon, Inc., Boston, MA,
USA.
Li J, Zhou MX, Yang H, Mark G (2017) Conding in and Listening to Virtual Agents: The Effect
of Personality. In: Proceedings of the 22nd International Conference on Intelligent User Inter-
faces– IUI ’17.
Liao QV, Hussain MM, Chandar P, Davis M, Crasso M, Wang D, Muller M, Shami NS, Geyer
W (2018) All Work and no Play ? Conversations with a Question-and-Answer Chatbot in the
Wild. In: CHI 18.
Markoff J, Mozur P (2015) For Sympathetic Ear, More Chinese Turn to Smartphone Program.
New York Times. https://www.nytimes.com/2015/08/04/science/for-sympathetic-ear-more-
chinese-turn-to-smartphone-program.html. Erstellt: 31. Juli 2015. Letzter Zugriff: 05. Dezem-
ber 2018.
Mayer RE, Johnson WL, Shaw E, Sandhu S (2006) Constructing computer-based tutors that are so-
cially sensitive: Politeness in educational software. International Journal of Human- Computer
Studies, 64(1): 36–42.
McBreen H (2002) Embodied conversational agents in e-commerce applications. In: Socially In-
telligent Agents. Springer, 267–274.
McTear MF (2017) The Rise of the Conversational Interface: A New Kid on the Block? In: FETLT
2016. Springer, Cham, 38–49.
U. Gnewuch et al.
189
Mooallem J (2017) Mr. Know-It-All: Is it OK For Me to Ask Customer Service Reps if They’re
Robots? https://www.wired.com/story/mr-know-it-all-are-customer-service-reps-robots/. Er-
stellt: 10. März 2017. Letzter Zugriff: 30. August 2018.
Moon Y (1999) The effects of physical distance and response latency on persuasion in computer-
mediated communication and human-computer communication. Journal of Experimental
Psychology: Applied, 5(4): 379–392.
Moore RJ, Arar R, Ren G-J, Szymanski MH (2017) Conversational UX Design. In: Proceedings
of the SIGCHI Conference: Extended Abstracts on Human Factors in Computing Systems
(CHI ’17). Denver, CO, USA.
Morana S, Friemel C, Gnewuch U, Maedche A, Pfeiffer J (2017) Interaktion mit smarten Syste-
men– Aktueller Stand und zukünftige Entwicklungen im Bereich der Nutzerassistenz. Wirt-
schaftsinformatik, Management, 9(5): 42–51.
Mori M (1970) The uncanny valley. Energy, 7(4): 33–35.
Mumford E (2006) The story of socio-technical design: reections on its successes, failures and
potential. Information Systems Journal, 16(4): 317–342.
Nass C, Fogg BJ, Moon Y (1996) Can computers be teammates? International Journal of Human
Computer Studies, 45(6): 669–678.
Nass C, Moon Y (2000) Machines and Mindlessness: Social Responses to Computers. Journal of
Social Issues, 56(1): 81–103.
Nass C, Steuer J, Tauber ER (1994) Computers are social actors. In: Proceedings of the SIGCHI
Conference on Human Factors in Computing Systems. Boston, MA, USA.
Puzakova M, Rocereto JF, Kwak H (2013) Ads are watching me: A view from the interplay between
anthropomorphism and customisation. International Journal of Advertising, 32(4): 513–538.
Sah YJ, Peng W (2015) Effects of visual and linguistic anthropomorphic cues on social perception,
self-awareness, and information disclosure in a health website. Computers in Human Behavior,
45: 392–401.
Stucki T, D’Onofrio S, Portmann E (2018) Chatbot– Der digitale Helfer im Unternehmen: Praxis-
beispiele der Schweizerischen Post. HMD Praxis Der Wirtschaftsinformatik, 55(4): 725–747.
Stucki T, D’Onofrio S, Portmann E (2020) Chatbots gestalten mit Praxisbeispielen der Schweizeri-
schen Post. HMD Best Paper Award 2018. Essentials. Springer Vieweg, Wiesbaden.
Trager GL (1958) Paralanguage: A rst approximation. Studies in Linguistics, 13: 1–11.
Verhagen T, van Nes J, Feldberg F, van Dolen W (2014) Virtual Customer Service Agents: Using
Social Presence and Personalization to Shape Online Service Encounters. Journal of Computer-
Mediated Communication, 19(3): 529–545.
Wallace RS (2009) The Anatomy of A.L.I.C.E.In: R.Epstein, G.Roberts,, G.Beber (eds.), Parsing
the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Com-
puter. Springer Netherlands, Dordrecht, 181–210.
Walther JB (1992) Interpersonal Effects in Computer-Mediated Interaction. Communication
Research, 21(4): 460–487.
Walther JB, Tidwell LC (1995) Nonverbal cues in computer-mediated communication, and the
effect of chronemics on relational communication. Journal of Organizational Computing, 5(4):
355–378.
Weizenbaum J (1966) ELIZA– A Computer Program for the Study of Natural Language Commu-
nication between Man and Machine. Communications of the ACM, 9(1): 36–45.
Weizenbaum J (1976) Computer power and human reason: From judgment to calculation. W.H.
Freeman, Co, NewYork, NY, USA.
Wirtschaftswoche (2016) Menschenähnliche Computerwesen: Wie die Grenzen zwischen Men-
schen und Robotern verschwimmen. https://www.wiwo.de/technologie/forschung/menschen-
aehnliche-computerwesen-wie-die-grenzen-zwischen-menschen-und-robotern-verschwim-
men/14684090.html. (Erstellt: 16. Oktober 2016. Letzter Zugriff: 08. August 2018).
Wrede-Grischkat R (2007) Manieren und Karriere: internationale Verhaltensregeln für Führungs-
kräfte. Springer.
Soziotechnische Gestaltung von Chatbots
Conference Paper
Full-text available
Nowadays, eating and growing chili peppers is becoming more and more popular in the world. It is appearing in increasingly dishes, making gastronomy even more colourful and tasty. Capsicum is a member of the Solanaceae family (Borhidi, 2002, Turcsányi, 2001). The genus Capsicum includes a very diverse group of sweet and hot peppers that originated in the tropics of the Americas (Paik, et al. 2003). Capsaicin (8-methyl-N-vanillyl-6- nonenamide) is an alkaloid responsible for the pungent effect of chili peppers. How hot chili peppers are measured on a scale called Scoville. Between 2017 and 2019, we conducted several experiments. One part of the experiments looked at the effect of climate on capsaicin content in 3 different regions (Turkey, Lithuania, Hungary). In the first year, we started the experiment with 50 cultivars, 16 cultivars for measurements regarding climatic conditions. We found that, climatically, the varieties under Turkish growing conditions generally showed the best quality. In Lithuania, it can only be grown under greenhouse conditions, but by providing the necessary environmental conditions, high harvest quality can also be achieved here.
Thesis
Full-text available
The goal of this thesis is to offer a basic architecture for a dialogue manager which increases the acceptance of speech assistants and motivation to use them by enabling easy adaptations for the improvement of the communication between humans and speech assistants. Therefore, problems in the communication will be researched and an approach to minimise these is offered. The focus will be the dialogue management, assuming that other components of the speech assistant pipeline are working reliable and their performance is sufficient to be able to focus on the dialogue. The results should offer a new view on future usability of speech assistants and address social and societal reservations, increasing awareness of these factors in human-machine interaction.
Conference Paper
Full-text available
Chatbots have attracted considerable interest in recent years. A key design challenge to increase their adoption is to make the interaction with them feel natural and human-like. Therefore, it is suggested to incorporate social cues in the chatbot design. Drawing on the Computers are Social Actors paradigm and the "uncanny valley" hypothesis, we study the effect of one specific social cue (i.e., typing indicators) on social presence of chatbots. In an online experiment, we investigate the effect of two specific designs of typing indicators. Our preliminary results indicate that graphical typing indicators increase social presence of chatbots, but only for novice users. Therefore, our results suggest that the relationship between typing indicators and perceived social presence of chatbots depends on the design of these indicators and user's prior experience. We contribute with empirical insights and design knowledge that support researchers and practitioners in understanding and designing more natural human-chatbot interactions.
Conference Paper
Full-text available
A key challenge in designing conversational user interfaces is to make the conversation between the user and the system feel natural and human-like. In order to increase perceived humanness, many systems with conversational user interfaces (e.g., chatbots) use response delays to simu-late the time it would take humans to respond to a message. However, delayed responses may also negatively impact user satisfaction, particularly in situations where fast response times are expected, such as in customer service. This paper reports the findings of an online experiment in a customer service context that investigates how user perceptions differ when interacting with a chatbot that sends dynamically delayed responses compared to a chatbot that sends near-instant responses. The dynamic delay length was calculated based on the complexity of the re-sponse and complexity of the previous message. Our results indicate that dynamic response de-lays not only increase users’ perception of humanness and social presence, but also lead to greater satisfaction with the overall chatbot interaction. Building on social response theory, we provide evidence that a chatbot’s response time represents a social cue that triggers social re-sponses shaped by social expectations. Our findings support researchers and practitioners in understanding and designing more natural human-chatbot interactions.
Article
Full-text available
Zusammenfassung Chatbots gewinnen an Bedeutung. Sie ermöglichen uns Menschen, in natürlicher Sprache mit Computersystemen zu kommunizieren. Im einfachsten Fall extrahiert der Chatbot aus der Äusserung eines Benutzers dessen Intention, fragt fehlende Informationen in einer Wissensbank ab und bereitet dem Benutzer eine Antwort auf. Somit stellen Chatbots eine Schnittstelle zwischen Informationen und Nutzern dar. In einem Unternehmen können dadurch mehrere Vorteile generiert werden. Der Wissensfluss kann sowohl innerhalb des Unternehmens als auch in der Interaktion mit dem Kunden optimiert werden. Benutzer, seien es nun Mitarbeiter oder Kunden, erhalten von Chatbots schnell und in gleichbleibend hoher Qualität die gesuchten Informationen. Damit der menschliche Benutzer den sprechenden oder schreibenden Chatbot akzeptiert, sollte dieser angemessen kommunizieren. Was dies bedeutet, wie dies möglich wird und welche Potentiale Chatbots bieten, soll dieser Artikel anhand Praxisbeispielen der Schweizerischen Post diskutieren. Die kritische Reflexion der gewonnenen Erkenntnisse runden den Artikel ab.
Conference Paper
Full-text available
Digitization brings new possibilities to ease our daily life activities by the means of assistive technology. Amazon Alexa, Microsoft Cortana, Samsung Bixby, to name only a few, heralded the age of smart personal assistants (SPAs), personified agents that combine artificial intelligence, machine learning, natural language processing and various actuation mechanisms to sense and influence the environment. However, SPA research seems to be highly fragmented among different disciplines, such as computer science, human-computer-interaction and information systems, which leads to 'reinventing the wheel approaches' and thus impede progress and conceptual clarity. In this paper, we present an exhaustive, integrative literature review to build a solid basis for future research. We have identified five functional principles and three research domains which appear promising for future research, especially in the information systems field. Hence, we contribute by providing a consolidated, integrated view on prior research and lay the foundation for an SPA classification scheme.
Book
Immer mehr Unternehmen bauen Chatbots, damit ihre Kunden und Mitarbeiter in natürlicher Sprache mit den Systemen des Unternehmens kommunizieren können. Mittels Chatbots können dialogintensive Prozesse automatisiert und neue Wissensquellen erschlossen werden. Das vorliegende essential führt die Grundlagen von Chatbots ein und zeigt mit Praxisbeispielen der Schweizerischen Post, wo sie angewendet werden können, worauf bei ihrer Gestaltung geachtet werden muss und welche neuen Fähigkeiten in einem Unternehmen für deren Einsatz erforderlich sind. Der Inhalt • Grundlagen zu Chatbots • Chatbots bei der Schweizerischen Post • Erfahrungsberichte Die Zielgruppen • Praktiker aus den Fachgebieten der Softwareentwicklung und -implementierung sowie aus dem Management • Studierende und Dozierende der Informatik und der Betriebswirtschaftslehre Die Autoren Toni Stucki hat langjährige Erfahrungen als Softwarearchitekt. Bei der Schweizerischen Post leitet er ein Softwareentwicklungsteam, mit dem er bereits mehrere Chatbots implementiert hat. Dr. Sara D’Onofrio arbeitete als Innovation-Managerin bei der Schweizerischen Post und war bei der Chatbot-Entwicklung der IT Post mit dabei. In ihrer Dissertation beschäftigte sie sich mit der Thematik Chatbots. Prof. Dr. Edy Portmann ist Swiss Post Professor of Computer Science am Human-IST Institut der Universität Freiburg i.Üe., Schweiz, und beschäftigt sich mit Fragen rund um Informationssysteme, -verarbeitung und -beschaffung.
Article
Disembodied conversational agents in the form of chatbots are increasingly becoming a reality on social media and messaging applications, and are a particularly pressing topic for service encounters with companies. Adopting an experimental design with actual chatbots powered with current technology, this study explores the extent to which human-like cues such as language style and name, and the framing used to introduce the chatbot to the consumer can influence perceptions about social presence as well as mindful and mindless anthropomorphism. Moreover, this study investigates the relevance of anthropomorphism and social presence to important company-related outcomes, such as attitudes, satisfaction and the emotional connection that consumers feel with the company after interacting with the chatbot.
Conference Paper
Nowadays natural language user interfaces, such as chatbots and conversational agents, are very common. A desirable trait of such applications is a sense of humor. It is, therefore, important to be able to measure quality of humorous responses. However, humor evaluation is hard since humor is highly subjective. To address this problem, we conducted an online evaluation of 30 dialog jokes from different sources by almost 300 participants -- volunteers and Mechanical Turk workers. We collected joke ratings along with participants» age, gender, and language proficiency. Results show that demographics and joke topics can partly explain variation in humor judgments. We expect that these insights will aid humor evaluation and interpretation. The findings can also be of interest for humor generation methods in conversational systems.
Article
Die Schweizerische Post gilt als prädestinierter Anbieter von Smart-City-Dienstleistungen, dies, weil die Schweizerische Post als Mischkonzern verschiedenste Angebote in den grundlegenden Bereichen wie Kommunikation, Logistik und Mobilität, die für das Funktionieren einer Smart City von Bedeutung sind, mithilfe moderner Technologien stetig optimiert und dabei der Kunde ins Zentrum setzt. Die postalischen Dienstleistungen sollen dem Kunden mittels adaptiver und interaktiver Systeme einen Vorteil generieren und ihm somit den Alltag vereinfachen. Um dieses Ziel zu erreichen, werden in Zusammenarbeit mit dem Human-IST Institut der Universität Fribourg die theoretischen Konzepte des Soft und Cognitive Computing aufgearbeitet und anschliessend in der Praxis direkt in konkreten Projekten geplant und umgesetzt. Der Artikel bietet somit einen Überblick über den aktuellen Stand sowohl der Theorie als auch der Projekte der Post.
Book
Souveränes, höfliches Auftreten gegenüber Geschäftspartnern und auf internationalem Parkett ist das Erfolgsrezept im globalen Business. Die Erfolgsautorin Rosemarie Wrede-Grischkat zeigt, wie es heute gelingt, sich auf unterschiedliche Verhaltensformen richtig einzustellen, und welches eigene Auftreten zu einem positiven Image führt - geschäftlich wie auch privat. Der Bestseller jetzt in der 5. Auflage - aktualisiert und mit vielen nützlichen Ergänzungen, u. a. für Global Players, zur internationalen Anrede und zum neuen Business-Dress-Code. - Korrekte Umgangsformen für gehobene Ansprüche - Gastgeber- und Repräsentationspflichten - Standards und Tabus im Ausland mit hilfreichen Angaben und Tipps zu knapp 100 Ländern Dieses umfassende Nachschlagewerk zum Thema Business-Etikette dient vielen offiziellen Institutionen und Gesellschaften sowie international operierenden Unternehmen als Orientierung. Besonders nützlich ist die übersichtliche Gestaltung der zahlreichen Regeln und Tipps. Kompetent und kurzweilig geschrieben - ein echtes Lesevergnügen. Rosemarie Wrede-Grischkat schult seit zwanzig Jahren als freiberufliche Dozentin für Umgangsformen Führungskräfte der Wirtschaft und offizieller Institutionen im In- und Ausland.