ArticlePDF Available

Motivationsheterogenität in Laborexperimenten mit Studierenden. Problemspezifizierung und Auswege

Authors:
  • Berliner Institut für Sozialforschung (BIS)
Felix Bader*
Motivationsheterogenität in Laborexperimenten mit
Studierenden
Problemspezifizierung und Auswege
Der Beitrag von Alexander Lenger und Stephan Wolf (2018) zeigt, dass die Motiva-
tion von Studierenden, an sozialwissenschaftlichen Laborexperimenten teilzuneh-
men, heterogen ist. Das ist wenig überraschend, musste so aber auch erst einmal
gezeigt werden. Darüber hinaus entwickeln die Autoren aus qualitativen Interviews
– eine begrüßenswerte Methodentriangulation – eine Typologie von Experimental-
teilnehmern1 bezüglich ihrer Motivation und unterscheiden den strategisch-nutzen-
maximierenden Typus, den ,Interessierten Forscher‘ und den ,Kritischen Experten‘.
Zu einem korrekturbedürftigen Problem für den generalisierenden Einsatz von
Laborexperimenten mit Studierenden wird dieser Befund allerdings nur unter
bestimmten Umständen, die im Beitrag nicht oder nicht deutlich genug herausgear-
beitet werden.
Verhaltensunterschiede zwischen Typen und
Verallgemeinerbarkeit der Typenverteilung
Erstens muss man annehmen, dass es Unterschiede im Verhalten im Experiment
zwischen den Teilnehmern je nach Motivationslage gibt. Das mag naheliegend sein,
vor allem bei ökonomischen Entscheidungssituationen, in denen oft eigeninteres-
sierte gegenüber prosozialen Zielen abgewogen werden müssen. Es ist anzunehmen,
aber nicht nachgewiesen, dass ,Interessierte Forscher‘ und ‚Kritische Experten‘ stär-
ker zu prosozialen Optionen tendieren. Daher ist Vorsicht bei der Verallgemeine-
rung durchschnittlichen Verhaltens geboten, doch das ist – wenngleich gängige Pra-
xis – ohnehin nicht die Idee eines Experiments.
Zweitens ist die Frage, ob die Verhaltensunterschiede zwischen den Typen nur die
Verhaltensraten betreffen – beispielsweise das Ausmaß kooperativen Verhaltens –
oder ob auch die Größe und möglicherweise sogar die Richtung der Effekte rando-
misierter Treatments (Kausaleffekte) sich je nach Typ unterscheiden. Da dank der
zufälligen Zuordnung der Teilnehmer zu Treatment- und Kontrollgruppe – ein
wesentliches Merkmal jedes Experiments, das Lenger und Wolf in ihrer Beschrei-
bung vernachlässigen – die gleiche Anzahl an Personen jeden Motivationstyps zu
erwarten ist, ist die interne Validität trotzdem weiterhin gegeben.
1
*Felix Bader, Universität Mannheim, Fakultät für Sozialwissenschaften, A5, 6, 68159 Mann-
heim, E-Mail: bader@uni-mannheim.de
1Aus Gründen der Lesbarkeit wird stets die männliche Form verwendet, es sind jedoch Perso-
nen jeglichen Geschlechts gemeint.
SozW, 69 (1) 2018, 101107 DOI: 10.5771/0038-6073-2018-1-101
https://doi.org/10.5771/0038-6073-2018-1-101
Generiert durch IP '172.22.53.54', am 26.07.2023, 15:30:10.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Problematisch für die Generalisierung experimenteller Befunde wird die Motivati-
onsheterogenität erst, wenn – je nach inhaltlichem Generalisierungsziel neben den
Verhaltensunterschieden oder den heterogenen Treatmenteffekten – die externe
Validität selbst eingeschränkt ist. Das ist nicht selbstverständlich, sondern nur der
Fall, wenn die Verteilung der Typen im Experiment anders ist als in der Grundge-
samtheit. Wenn in der Allgemeinbevölkerung bestimmte Motivationstypen seltener
oder häufiger zu finden sind als in der Gruppe der Studierenden, die am Experi-
ment teilgenommen haben, wäre die „Transportierbarkeit“ (Pearl/Bareinboim
2014) der experimentellen Befunde gering. Außerdem könnte die externe Validität
eingeschränkt sein, wenn sich das Verhalten in der im Experiment simulierten
Situation je nach Motivationstyp unterschiedlich gut auf das Verhalten außerhalb
des Labors übertragen ließe. Es könnte sein, dass sich beispielsweise das Verhalten
von Personen, die sich im Experiment entsprechend des Typs ,Interessierte For-
scher‘ darstellen, weniger gut auf deren Verhalten außerhalb des Labors übertragen
ließe, als das Verhalten von ,Kritischen Experten‘.
Wenn je nach Fragestellung zum einen die Motivationstypen Verhaltensunter-
schiede oder heterogene Treatmenteffekte aufweisen und zum anderen die Vertei-
lung der Typen in der Grundgesamtheit anders oder die Übertragbarkeit des Ver-
haltens heterogen ist, lassen sich die entsprechenden Laborergebnisse nicht verallge-
meinern. Es erscheint plausibel, dass ein Teil dieser Annahmen oder sogar alle diese
Annahmen zutreffen. Jedoch müsste dies in größer und gezielt angelegten Folgestu-
dien empirisch gezeigt werden, um die Relevanz der Typologie zu belegen.
Zunächst müssten – wie Lenger und Wolf fordern – standardisierte Erhebungsin-
strumente entwickelt werden, die es erlauben, die Teilnahmemotivation von einer
großen Zahl von Experimentalteilnehmern mit heterogenem soziodemographischen
Hintergrund bzw. von einer Zufallsstichprobe aus der Bevölkerung zu erheben.
Dazu benötigt man experimentelle Methoden, die sich in nichtstudentischen Bevöl-
kerungsstichproben anwenden lassen.
Experimente in Umfrageform und Online-Experimente als
Alternativen
Der Beitrag von Lenger und Wolf behandelt Laborexperimente mit Studierenden
als wären sie, wenn man experimentelle Methoden einsetzen möchte, aus Kosten-
gründen alternativlos. Im zweiten Teil des Kommentars sollen im Gegensatz dazu
Alternativen diskutiert werden.
Die Kosten von Laborexperimenten mit Studierenden sind nicht unerheblich. Es
müssen vernetzte Computer angeschafft und unterhalten werden, geeignete Räume
ausgestattet und bereitgestellt, Personal für die Anwerbung von Teilnehmern,
Anmeldung, Durchführung und Auszahlung des Experiments beschäftigt werden
2
102 Felix Bader
https://doi.org/10.5771/0038-6073-2018-1-101
Generiert durch IP '172.22.53.54', am 26.07.2023, 15:30:10.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
und die Auszahlungen an die Teilnehmer selbst müssen finanziert werden.2 Um die
Teilnahme am Experiment für Studierende interessant zu machen und dafür zu sor-
gen, dass die Entscheidungen im Experiment ernst genommen werden, muss die
Auszahlung hoch genug sein, dass sie pro Stunde etwa dem erwarteten Lohn verfüg-
barer Erwerbstätigkeit entspricht. Gleichzeitig muss die Auszahlung pro Session
hoch genug sein, dass sich der Aufwand zum Labor zu kommen für die Teilnehmer
lohnt. Studierende sind recht günstige Teilnehmer, da sie bei geringem Durch-
schnittseinkommen einen niedrigen Reservationslohn haben und sich ohnehin oft
an der Universität und damit in der Nähe des Labors aufhalten.
Um die Verallgemeinerbarkeit von Ergebnissen aus Experimenten mit Studierenden
zu untersuchen, werden teilweise gezielt Personen als Teilnehmer gewählt, bei
denen aufgrund gänzlich anderer Alltagserfahrungen davon ausgegangen werden
kann, dass sie sich anders als Studierende verhalten. Neben Verhaltensexperimente
mit indigenen oder anderen Personen aus nicht-westlichen Kulturen (Henrich
2001) gibt es solche mit Tieren, Kindern, älteren Menschen und speziellen Berufs-
gruppen wie Investmentbankern (für einen Überblick s. Fréchette 2016). Andersen
et al. (2010) laden sogar zufällig aus den Registerdaten gezogene Dänen in ein
Experiment ein, das in Besprechungsräumen von Hotels in verschiedenen Orten in
Dänemark durchgeführt wurde. Bei solchen Experimenten müssen, da ist Lenger
und Wolf zuzustimmen, deutlich höhere Auszahlungen vorgenommen und/oder
höherer organisatorischer Aufwand betrieben werden.
Für viele Experimente ist es hingegen gar nicht erforderlich, dass sich die Teilneh-
mer physisch in einem Raum befinden. Interviewer könnten mit Tablets zu den
Teilnehmern nach Hause kommen und diese über das Internet interagieren lassen.
Die Umgebung während der Teilnahme wäre dann zwar heterogener, die Anonymi-
tät unter den Teilnehmern jedoch höher. Für einfache Entscheidungssituationen, zu
denen neben Diktatorspiel und Ultimatumspiel unter anderem das Vertrauensspiel,
Gefangenendilemma und einfache Public Goods Games gehören, ist es nicht ein-
mal erforderlich, dass die Teilnehmer sich in Echtzeit miteinander austauschen. Die
Entscheidungen der Teilnehmer können wie in Umfragen persönlich, telefonisch
oder postalisch an geeigneten Bevölkerungsstichproben erhoben werden, um sie
anschließend mit den Entscheidungen der Gegenspieler zusammenzufügen, die
Auszahlung zu berechnen und den Teilnehmern zukommen zu lassen. Im Ultima-
tumspiel und dem Vertrauensspiel, in dem die Teilnehmer unterschiedliche Rollen
haben und es einen zweiten Akteur gibt, der auf die Entscheidung des ersten
reagiert sowie anderen einfachen interaktiven Entscheidungssituationen, lässt sich
die Strategiemethode (Rauhut/Winter 2010) anwenden. Dabei geben die zweiten
Akteure eine Antwort für jede mögliche Entscheidung des ersten Akteurs an. Je
2 Die Kosten für die Entwicklung der Software können wir bei diesem Vergleich vernachlässigen,
da vergleichbarer Aufwand bei anderen Formen von Experimenten ebenfalls getrieben werden
muss.
Motivationsheterogenität in Laborexperimenten mit Studierenden 103
https://doi.org/10.5771/0038-6073-2018-1-101
Generiert durch IP '172.22.53.54', am 26.07.2023, 15:30:10.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
nach tatsächlicher Entscheidung des ersten Akteurs kommt die komplementäre
Entscheidung des zweiten Akteurs zur Anwendung. Das ermöglicht nicht nur eine
zeitversetzte Teilnahme, sondern erhöht auch die vom zweiten Akteur erhobene
Information massiv. Die Durchführung eines solchen Experiments in Umfrageform
bringt natürlich Kosten mit sich, ist jedoch zumindest bei lokalen Stichproben oder
postalischer Erhebung nicht unbedingt teurer als die entsprechende Zahl Studieren-
der im Labor teilnehmen zu lassen. Um nichtstudentische Zielpersonen zur Teil-
nahme zu motivieren sind vielleicht höhere Geldbeträge erforderlich, die Auszah-
lung muss jedoch nicht für den Weg zum Labor entschädigen, da die Teilnahme ja
zu Hause erfolgen kann. Auf diese Weise führten beispielsweise Falk und Zehnder
(2013) ein Experiment mit dem Vertrauensspiel an einer Bevölkerungsstichprobe
der Stadt Zürich durch.
Fehr et al. (2002) führten ein Vertrauensspiel-Experiment mit einer deutschland-
weiten Stichprobe in Kooperation mit dem SOEP durch. Ein großer Vorteil dieses
Vorgehens ist, dass bei der Analyse Daten aus der Umfrage zugespielt werden kön-
nen, um möglicherweise die Entscheidungen im Experiment erklären zu können.
Es ist so nicht immer erforderlich, eine eigene Erhebung zu starten. Experimentelle
Module mit Entscheidungssituationen können auch in laufende Umfragen inte-
griert werden.
Eine weitere Alternative zu studentischen Laborexperimenten bieten Online-Expe-
rimente. Auch hier ist die Kontrolle über die Umgebung während der Teilnahme
nicht wie im Labor gegeben und die Distanz zwischen den Teilnehmern größer,
aber bisherige Studien finden kaum Anzeichen dafür, dass Teilnehmer sich in
Online-Experimenten systematisch anders als in Laborexperimenten verhalten
(Hergueux/Jacquemet 2015, Bader et al. 2018). Prinzipiell sind in Online-Experi-
menten computergestützte Echtzeit-Interaktionen wie in Laborexperimenten mög-
lich. Das wurde auch in einigen Studien mit Online-Warteräumen umgesetzt (z.B.
Suri/Watts 2011, Balietti et al. 2016, Anderson et al. 2017). Allerdings kommt es
aufgrund von Teilnahmeabbruch und Entscheidungsverzögerung, die bei Online-
Interaktionen im Gegensatz zu physischer Laborpräsenz geringere psychische Kos-
ten verursachen, zu Wartezeit, die wiederum die Wahrscheinlichkeit (weiterer) Teil-
nahmeabbrüche erhöht. Daher werden Online-Experimente mit einfachen Ent-
scheidungssituationen meist nicht mit Echtzeit-Interaktion, sondern wie oben
beschrieben mit nachträglichem Zusammenfügen der ggf. in Strategietabellen erho-
benen Entscheidungen durchgeführt. Gegenüber Paper-and-Pencil-Experimenten
im Labor oder in Umfrageform bieten computergestützte und damit auch Online-
Experimente eine Reihe von Vorteilen. So sind Zufallsaufteilung und die Darstel-
lung von Informationen flexibler, es lässt sich messen oder steuern, welche Informa-
tionen wie lange angezeigt werden, und die Software kann in Echtzeit auf Eingaben
reagieren und gezielt Feedback geben.
104 Felix Bader
https://doi.org/10.5771/0038-6073-2018-1-101
Generiert durch IP '172.22.53.54', am 26.07.2023, 15:30:10.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Teilnehmer für Online-Experimente lassen sich auf sogenannten Crowdsourcing-
Plattformen finden. Die größte dieser Plattformen ist Amazon Mechanical Turk.
Hier können sich Interessierte als ,Worker‘ registrieren und von ,Requestern‘ einge-
stellte Arbeitsaufträge gegen Bezahlung erledigen. Typische Arbeitsaufträge sind die
Kategorisierung von Bild- oder Videodokumenten oder die Transkription von
Audiodokumenten, die nicht vollständig automatisiert erfolgen können. Daneben
gibt es aber auch Aufträge aus der Marktforschung und der Wissenschaft, insbeson-
dere der Psychologie und teilweise den Wirtschaftswissenschaften, vereinzelt auch
aus der Soziologie (Keuschnigg et al. 2016, Bader et al. 2018).3 Die Kosten für die
Gewinnung von Teilnehmern auf Mechanical Turk sind sehr gering, da dort übli-
cherweise sehr geringe Löhne gezahlt werden, so dass schon für die Einhaltung des
US-Mindestlohns appelliert werden musste (Williamson 2016). Der Hauptvorteil
für das vorliegende ema ist jedoch, dass hier internationale, nichtstudentische
Teilnehmer gewonnen werden können, um experimentelle Befunde auf breiterer
Datenbasis replizieren zu können. Diese sind im Gegensatz zu studentischen Teil-
nehmern in erster Linie monetär motiviert, da es sich bei Mechanical Turk um
einen Arbeitsmarkt und nicht um einen Teilnehmerpool handelt (Horton et al.
2011).
Neben Crowdsourcing erlauben online durchgeführte Experimente auch andere
Personengruppen zu erreichen, da mittlerweile über 80% der Bevölkerung Deutsch-
lands das Internet nutzen (Initiative D21 2018). Hervorzuheben sind vor allem
Online Access Panels. Hier sind die Teilnehmer allerdings wieder Personen, die frei-
willig an Studien teilnehmen, also vermutlich nichtmonetär und heterogen moti-
viert sind. Sie können jedoch wie bei forsa mit Hilfe von Zufallsstichproben aus der
(mit dem Internet verbundenen) Bevölkerung rekrutiert werden und so einen weit-
gehend ,repräsentativen‘ Querschnitt der Bevölkerung darstellen. Die Kosten für
die Entschädigung der Teilnehmer sind relativ gering, da sie grundsätzlich bereits
zur Teilnahme an Studien motiviert sind und nicht zum Labor reisen müssen, aber
die Gebühr für das Institut, welches das Panel zur Verfügung stellt, ist mit einzube-
rechnen. Ein großer Vorteil ist die Qualität der Stichprobe, die wenn auch nicht
rein zufällig und unverzerrt, so doch nach vielfältigen Kriterien zusammengestellt
werden kann. Dieses Potential wird schon vielfach für Umfragen (z.B. durch das
Online-Modul der German Longitudinal Election Study), jedoch bisher kaum für
Experimente genutzt. Eine Ausnahme ist Bader et al. (2018).
Insgesamt möchte dieser Kommentar dazu aufrufen, experimentelle Möglichkeiten
jenseits des studentischen Laborexperiments auszuschöpfen. Je nach Fragestellung
lassen sich oft Alternativen zum Laborexperiment finden, mit denen sich hetero-
gene Teilnehmer aus anderen Teilen der Gesellschaft erreichen lassen, die jeweils
ihre Alltagserfahrungen mit ins Experiment bringen. Mit diesen Methoden lässt
3Bader und Keuschnigg (2018) geben genauere Empfehlungen zur Umsetzung von Experimen-
ten auf Mechanical Turk.
Motivationsheterogenität in Laborexperimenten mit Studierenden 105
https://doi.org/10.5771/0038-6073-2018-1-101
Generiert durch IP '172.22.53.54', am 26.07.2023, 15:30:10.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
sich klären, ob und inwieweit Ergebnisse von Laborexperimenten mit Studierenden
verallgemeinert werden können. Möglicherweise stellt sich dabei heraus, dass man-
che oder sogar alle Ergebnisse aus Experimenten mit Studierenden verallgemeinert
werden können. Strategische Entscheidungen sind vermutlich weniger stark verzerrt
als moralische und die Richtungen von Treatmenteffekten eher zu verallgemeinern
als die genauen Erwartungswerte des Verhaltens, wie unsere Arbeit nahelegt (Bader
et al. 2018). Gegebenenfalls lassen sich, wenn die Verteilungen genau genug
bekannt sind, systematische Verzerrungen korrigieren, um Ergebnisse doch genera-
lisieren zu können. Lenger und Wolf nennen an dieser Stelle Gewichtung. Doch
selbst wenn sich zeigt, dass sich die Ergebnisse zwischen Experimenten mit Studie-
renden und mit anderen Teilen der Bevölkerung zu stark in nicht prognostizierbarer
Weise unterscheiden, brächte die Erschließung experimenteller Alternativen, die
sich breiter anwenden lassen, eine wesentliche Erweiterung des Methodenspektrums
um Experimente, die der Kritik eingeschränkter externer Validität weniger stark
ausgesetzt sind.
Literaturverzeichnis
Andersen, Steffen / Harrison, Glenn W. / Lauc, Morten I. / Rutström, E. Elisabet (2010): Prefe-
rence Heterogeneity in Experiments: Comparing the Field and Laboratory. Journal of Economic
Behavior & Organization 73, S. 209-224.
Anderson, Brilé / Bernauer, omas / Balietti, Stefano (2017): Effects of Fairness Principles on
Willingness to Pay for Climate Change Mitigation. Climatic Change 142, S.447-461.
Bader, Felix / Baumeiser, Bastian / Berger, Roger / Keuschnigg, Marc (2018): On the Transporta-
bility of Laboratory Results. Unveröffentlichtes Manuskript, Institute for Analytical Sociology,
Schweden.
Bader, Felix / Keuschnigg, Marc (2018): Conducting Large-Scale Online Experiments on a
Crowdsourcing Platform. SAGE Research Methods Cases.
Balietti, Stefano / Goldstone, Robert L. / Helbing Dirk (2016): Peer Review and Competition in
the Art Exhibition Game. Proceedings of the National Academy of Sciences 113, S.8414-8419.
Falk, Armin / Zehnder, Christian (2013): A City-Wide Experiment on Trust Discrimination.
Journal of Public Economics 100, S.15-27.
Fehr, Ernst / Fischbacher, Urs / von Rosenbladt, Bernhard / Schupp, Jürgen und Wagner, Gert G.
(2002): A Nation-Wide Laboratory: Examining Trust and Trustworthiness by Integrating
Behavioral Experiments into Representative Surveys. Schmollers Jahrbuch 122, S. 519-542.
Fréchette, Guillaume R. (2016): Experimental Economics Across Subject Populations, in: John
H. Kagel und Alvin E. Roth (Hg.): e Handbook of Experimental Economics, Vol. 2. Princeton,
NJ, S. 435-480.
Henrich, Joseph / Boyd, Richard / Bowles, Samuel / Camerer, Colin F. / Fehr, Ernst / Gintis,
Herbert / McElreath, Richard (2001): In Search of Homo Economicus: Behavioral Experi-
ments in 15 Small-Scale Societies. American Economic Review 91, S.73-78.
Hergueux, Jérôme / Jacquemet, Nicolas (2015): Social Preferences in the Online Laboratory: A
Randomized Experiment. Experimental Economics 18, S. 251-283.
106 Felix Bader
https://doi.org/10.5771/0038-6073-2018-1-101
Generiert durch IP '172.22.53.54', am 26.07.2023, 15:30:10.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
Horton, John J. / Rand, David G. / Zeckhauser, Richard J. (2011): e Online Laboratory: Con-
ducting Experiments in a Real Labor Market, in: Experimental Economics 14, S. 399-425.
Initiative D21 (2018): D21-Digital-Index 2017/2018, Berlin. Online verfügbar unter https://
initiatived21.de/app/uploads/2018/01/d21-digital-index_2017_2018.pdf [23.02.2018].
Keuschnigg, Marc / Bader, Felix / Bracher, Johannes (2016): Using Crowdsourced Online Experi-
ments to Study Context-Dependency of Behavior. Social Science Research 59, S. 68-82.
Lenger, Alexander und Stephan Wolf (2018): Experimente in der Soziologie? Über die systemati-
sche Verzerrung von Experimentergebnissen aufgrund strategisch agierender studentischer Teil-
nehmertypen. Soziale Welt 1/18.
Pearl, Judea / Bareinboim, Elias (2014): External Validity: From Do-Calculus to Transportability
Across Populations. Statistical Science 29, S. 579-595.
Rauhut, Heiko / Winter, Fabian (2010): A Sociological Perspective Measuring Social Norms by
Means of Strategy Method Experiments. Social Science Research 39, S. 1181-1194.
Suri, Siddharth / Watts, Duncan J. (2011): Cooperation and Contagion in Web-Based, Networ-
ked Public Goods Experiments. PLoS ONE 6, e16836.
Williamson, Vanessa (2016): On the Ethics of Crowdsourced Research. Political Science & Politics
49, S. 77-81.
Motivationsheterogenität in Laborexperimenten mit Studierenden 107
https://doi.org/10.5771/0038-6073-2018-1-101
Generiert durch IP '172.22.53.54', am 26.07.2023, 15:30:10.
Das Erstellen und Weitergeben von Kopien dieses PDFs ist nicht zulässig.
... This fundamental problem naturally also applies to the experimental study presented here. With respect to external validity, two concerns regarding the sample of participants are commonly criticized: its lack of representativeness and, at the same time, the heterogeneity in specific motives for actual behavior shown by, usually, students in the laboratory context (for an indepth discussion of not only these issues, see Lenger and Wolf 2018;Bader 2018 andDiekmann 2018). Regarding potential self-selection effects that stem from an established and managed participant pool, in the sense that these participants are even not representative of the student population, we would like to argue that this critique does not apply to our sample. ...
... Nevertheless, we do not doubt that the levels of voting for a more equal wealth allocation and cooperativeness would differ if the sample had been a representative one. But, given that the relevance of two broad groups of motives (self-interest-guided vs. justice concerns) can be assumed for a student and a representative sample alike, we anticipated an analogue pattern of the directions of effects for the latter, as long as the relative weighting of these motives did not differ too much (in line with Bader 2018). To specify the generalizability of our findings, it would be, of course, necessary to conduct the respective field study with more representative or more specific samples. ...
Article
Full-text available
We investigated the relationship between democratically determined economic inequality and cooperation in a two-stage experimental design. Although the relationship between inequality and cooperation has been studied extensively, experimental results in this area are contradictory and find inequality to have either a positive, negative, or no effect on cooperation. Our participants were randomly assigned to one of three societal classes (upper class, middle class, lower class) in a simulated small-scale society, and they subsequently voted to implement a societal system in which wealth was distributed either relatively equally or relatively unequally. We found lower levels of cooperation (measured as the invested amount in a public-good game) among societies that previously opted for the unequal distribution, but did not observe a general effect of a participant’s personal vote on cooperative behavior. Instead, middle-class and lower-class participants in unequal societies cooperated less than their counterparts in the equal societies, causing the observed differences on the societal level. These findings suggest that democratically induced policies that ultimately lead to greater equality of wealth are potentially able to have positive consequences on the readiness to cooperate on the production of public goods.
Article
An increasing number of sociologists suggest that laboratory and field experiments should play a larger role in sociological research. Until now, experiments do not form part of the methodological core of empirical social research but are rather met with a certain degree of scepticism. This article discusses social factors which systematically distort experimental laboratory results. Our analysis is based on findings from our own experiment on distributional preferences (n=213) combined with semi-structured interviews with participants (n=39). Initially, the interviews were realized to give insights into the reasoning of participants. Among other issues, we asked subjects about their previous experience with experiments and their motivation behind participating. The results of these qualitative interviews point towards a problem which so far is neglected in research: While the 'homo oecono-micus' type of participants-motivated mainly by monetary reward-is anticipated in the literature and also found in our study, our results show that (at least) two additional types of subjects can be identified. First, there is the 'interested researcher' who already gained some experience with experiments and whose desire to participate in experimental studies is driven by intellectual curiosity. Second, there is the 'critical expert' who uses experiments to critically reflect on her own behavior in specific situations. Given that experiments usually employ student participants recruited at universities, these results are relevant for experimental social research and need to be taken into consideration in future experiment-based research.
Article
This article examines the ethics of crowdsourcing in social science research, with reference to my own experience using Amazon’s Mechanical Turk. As these types of research tools become more common in scholarly work, we must acknowledge that many participants are not one-time respondents or even hobbyists. Many people work long hours completing surveys and other tasks for very low wages, relying on those incomes to meet their basic needs. I present my own experience of interviewing Mechanical Turk participants about their sources of income, and I offer recommendations to individual researchers, social science departments, and journal editors regarding the more ethical use of crowdsourcing.
Article
Online labor markets have great potential as platforms for conducting experiments, as they provide immediate access to a large and diverse subject pool and allow researchers to conduct randomized controlled trials. We argue that online experiments can be just as valid – both internally and externally – as laboratory and field experiments, while requiring far less money and time to design and to conduct. In this paper, we first describe the benefits of conducting experiments in online labor markets; we then use one such market to replicate three classic experiments and confirm their results. We confirm that subjects (1) reverse decisions in response to how a decision-problem is framed, (2) have pro-social preferences (value payoffs to others positively), and (3) respond to priming by altering their choices. We also conduct a labor supply field experiment in which we confirm that workers have upward sloping labor supply curves. In addition to reporting these results, we discuss the unique threats to validity in an online setting and propose methods for coping with these threats. We also discuss the external validity of results from online domains and explain why online results can have external validity equal to or even better than that of traditional methods, depending on the research question. We conclude with our views on the potential role that online experiments can play within the social sciences, and then recommend software development priorities and best practices.