ChapterPDF Available

Artefaktprobleme experimenteller Ökonomik

Authors:
14:19, 13.01.03, Kritz.doc
Artefaktprobleme experimenteller
Ökonomik
Jürgen Kriz
*
1. Problemstellung
Wissenschaft ist heute fester Bestandteil unserer Kultur. Gleichwohl
hat sie erst eine recht kurze Entwicklungsgeschichte. Was wir unter
„Wissenschaft“ verstehen, begann vor rund vier Jahrhunderten damit,
in bestimmter methodisch-systematischer Weise Fragen „an die Na-
tur“ zu stellen. Während es mindestens drei Jahrtausende lang zuvor
primär darum ging, die Welt hermeneutisch zu verstehen und ihre
Ordnung sinnhaft (vor religiösen Hintergründen) auszulegen, waren
die Motive des neuen Wissenschaftsprogramms davon bestimmt, die
Funktionsweise der Welt (durchaus auch im wörtlichen Sinne) zu be-
greifen, um mit diesem Wissen selbst etwas zu machen, etwas zu
schaffen oder Bestehendes zu verändern. Es entstand die experimen-
telle Methodik, die mit dem daraus gewonnenen Wissen und der da-
mit verbundenen praktischen Handlungskompetenz den oft zitierten
„Siegeszug“ der Naturwissenschaften und Technik begründete.
In den Industrienationen – die nicht zuletzt mithilfe dieser Wis-
sens- und Handlungskompetenzen und der damit einhergehenden
Machtpotenziale ihren kognitiv-ideologischen Einflussbereich auch
geographisch ausweiten konnten – gehört diese Zugangsweise inzwi-
schen geradezu zum Alltagsverständnis von „Wissenschaft“. Vielfach
*
Prof. Dr. Jürgen Kriz, FB Humanwissenschaften, Universität Osnabrück, D-
49069 Osnabrück • juergen.kriz@uni-osnabrueck.de
270 Jürgen Kriz
14:19, 13.01.03, Kritz.doc
ist das Konzept des Experiments aus den Naturwissenschaften Inbe-
griff dafür, was als Kern von „Wissenschaftlichkeit“ schlechthin ange-
sehen wird.
Es ist daher nicht verwunderlich, dass solche Disziplinen, die sich
erst vergleichsweise spät als „Wissenschaften“ etablierten und deren
Zugänge zur Welt zunächst primär anders orientiert waren – beispiels-
weise die Sozialwissenschaften – zunehmend experimentelle Vor-
gehensweisen in ihre Forschungstätigkeiten integrieren. Dagegen ist
sicher nichts einzuwenden, besonders wenn theoretische Vorstellun-
gen damit empirisiert werden und/oder bereits bestehende empirische
Konzepte und Zusammenhangsannahmen gegenüber Alternativen
testbar gemacht werden. Allerdings lässt gerade die oben skizzierte
scheinbare Selbstverständlichkeit und Alltäglichkeit einer experimen-
tellen Zugangsweise eine gewisse Sorglosigkeit bei der Übertragung
naturwissenschaftlicher Methodologie auf andere Wissenschaftsbe-
reiche aufkommen. Dies birgt die Gefahr, dass Forschungsartefakte
entstehen könnten. Im Kontext meines Beitrags werde ich diese Arte-
fakt-Probleme auf einen Bereich zentrieren.
Es ist zu bedenken, dass sich gerade in den letzten drei Jahrzehnten
– ausgelöst durch die „Theorie nichtlinearer Systeme“, die in vielen
Diskursen mit populäreren (Unter)-Konzepten wie „Chaostheorie“,
„Emergente Strukturen“, „Fraktale Geometrie“ etc. auftaucht – be-
deutsame Veränderungen im Verständnis der Natur und, wichtiger
noch, im Verständnis unserer Verständnisfähigkeit vollzogen haben.
Einige Rückwirkungen dieser Veränderungen auf die Methodologie
des Experiments selbst werden zunächst aufgezeigt (Abschnitt 2).
Die Diskussion wird dabei auf unterschiedliche Einzelaspekte der
Thematik „Idealisierungen“ fokussiert. Es handelt sich um eine sehr
grundsätzliche Perspektive auf das experimentelle Geschehen – auch
wenn im Rahmen dieses Beitrags nur eine Skizze und nicht eine elabo-
rierte Entfaltung der Argumente und Zusammenhänge geleistet wer-
den kann. Gleichwohl kann diese skizzenartige Erörterung vielleicht
dazu beitragen, die kritische Diskussion um die experimentelle Vor-
gehensweise in der Ökonomik mit weiteren Perspektiven zu versehen.
Um die diskutierten Probleme zu konkretisieren, werden im 3. Ab-
schnitt einige Aspekte am Beispiel der Messung subjektiver Wahr-
scheinlichkeiten im Rahmen der Entscheidungstheorie erörtert. Dies
Artefaktprobleme experimenteller Ökonomik 271
14:19, 13.01.03, Kritz.doc
einerseits, weil die inhaltliche Rahmenthematik, nämlich Entschei-
dungen unter Unsicherheit, unmittelbaren Bezug zu den in diesem
Band behandelten Fragen von Reziprozität und Fairness in der Öko-
nomik hat. Wichtiger ist aber andererseits, dass die diskutierten
Aspekte bezüglich der Artefaktanfälligkeit bei der Konzeption sol-
cher Experimente Fragen aufwerfen, denen sich analog auch die expe-
rimentelle Ökonomik zu stellen hat.
2. Artefakte und Idealisierungen
Jede Raum-Zeit-Konstellation ist einmalig – dies schon aufgrund der
unendlich großen Zahl möglicher Parameter, welche zur Beschreibung
jeder Situation herangezogen werden könnten. Die Dynamik der
Welt, aber auch nur eines kleinen Ausschnittes als Teilsystem daraus,
ist daher unendlich komplex.
1
Diese Weltsicht – obwohl ich überzeugt
bin, dass sie sich als grundlegende erkenntnistheoretische Basis eignet
– ist allerdings pragmatisch unbrauchbar: In einer Abfolge aus Einma-
ligkeiten gibt es keine Gleichheiten, ergo auch nichts Abzählbares,
nichts Vorhersagbares etc. Daher müssen wir Unterräume durch Re-
duktion auf eine endliche (oft recht kleine) Anzahl von Parametern
konstruieren. Nicht die Einmaligkeit jedes „Morgen“ in diesem Uni-
versum ist dann gefragt und von Bedeutung, sondern Gleichheiten
dieser Phänomene, die dann zu nur wenigen Klassen (Kategorien) zu-
sammenfassbar sind.
Dieses Programm der Komplexitätsreduktion über die Konstruk-
tion von Äquivalenzklassen ist Grundlage der Ordnungsstrukturen
des Lebens schlechthin (vgl. Cramer 1988). In verstärktem Maße gilt
dies für die kognitive Aneignung der Welt durch den Menschen – und
speziell für sein wissenschaftliches Tun. Aus der unendlichen Kom-
plexität der Einmaligkeiten werden somit Aspekte abstrahiert – dies
ist gleichzeitig ein Schritt von der Empirie zur Theorie und beinhaltet
eine Idealisierung. So gesehen hat es Wissenschaft immer mit „Kunst-
1
Formal: Im unendlichen Phasenraum gibt es keine poicarèschen Wieder-
kehrpunkte: Die Trajektorie der Gesamtdynamik schneidet sich nicht selbst.
272 Jürgen Kriz
14:19, 13.01.03, Kritz.doc
produkten zu tun.
2
Diese müssen natürlich, damit die erbrachten
Ergebnisse und Erkenntnisse auf erfolgreiches Handeln rückwirken
können (also Theorie wieder in Empirie und Praxis zurückfließt), in
ihren wesentlichen Parametern die entsprechende Realität beschreiben.
Wo dies misslingt, spricht man von Forschungsartefakten oft
einfach auch nur von Artefakten. Die Ergebnisse gelten dabei dann
nur für einen sehr kleinen Bereich, unter sehr speziellen Bedingungen
Einschränkungen, die vom Forscher vielfach selbst so gar nicht ge-
sehen werden. Häufig wird für die intendierten und real getroffenen
theoretischen Aussagen hingegen eine viel weitere Gültigkeit unter-
stellt und beansprucht. Entsprechende Prognosen und Handlungen
würden dann allerdings in diesen weiteren Bereichen aufgrund solcher
Forschungsartefakte scheitern (vgl. Kriz 1981, 1988).
Idealisierungen sind somit einerseits notwendig, weil sie die prag-
matisch erforderliche Komplexitätsreduktion leisten. Sie sind anderer-
seits problematisch, weil sie stets aufs Neue auf ihre Gültigkeitsberei-
che hinterfragt werden müssen. Der ständigen kritischen Anfrage
steht aber oft entgegen, dass Idealisierungen im Laufe der Zeit zu
Selbstverständlichkeiten werden: Die Pflicht, sich die Kontexte
immer wieder verständlich zu machen, besonders bei Erweiterungen
der Wissens- und Handlungsräume, wird zugunsten der Annahme
vernachlässigt, diese Verständlichkeit sei einfach vorhanden oder er-
gebe sich von selbst. Es erscheint daher für die Erörterung von For-
schungsartefakten im vorliegenden Beitrag interessant und ergiebig zu
sein, einige zentrale Aspekte auf das Problem der Idealisierungen zu
zentrieren.
2.1. Zum Problem der wahren Parameter
Die Grundstruktur eines Experimentes aus klassischer Sicht im Sin-
ne der o.a. Alltagsselbstverständlichkeit lässt sich wie folgt darstellen:
2
Also genaugenommen immer mit Artefakten in manchen Terminologien
werden alle von Menschen erzeugten Produkte als Artefakte einer nicht
menschlich beeinflussten Natur gegenüber gestellt. Hier soll allerdings, wie in
methodischen Kontexten durchaus üblich, Artefakt enger verstanden werden:
als unliebsame bis fehlerhafte Einschränkung der Gültigkeit von Ergebnissen.
Artefaktprobleme experimenteller Ökonomik 273
14:19, 13.01.03, Kritz.doc
x S y
Dabei ist
S: das zu untersuchende System (z.B. Spiralfeder, irgendeine
Black Box mit unbekannten Schaltungen, Mensch);
x: (Vektor aus) Eingangszustände(n), (z.B. Zuggewichte, ange-
legte Spannungen, spieltheoretisch konstruierte Entscheidungs-
aufgaben);
y: (Vektor aus) Ausgangszustände(n), (z.B. Federlängen, Wi-
derstände, getroffene Wahl bzw. geäußerte Präferenz).
Je nach Disziplin und Diskurskontext finden sich, besonders für x
und y, noch zahlreiche andere Bezeichnungen, z.B. Input-/Output-
Variable, unabhängige/abhängige Variable etc. Ja, das Schema ist so
alltäglich geworden, dass man es sogar ganz allgemein als Ursache-
Wirkungs-Relation verstehen kann (jedenfalls im „üblichen Sinn,
s.u.).
Die Funktion(sweise) von S das ist der tiefere Sinn dieser Her-
angehensweise erhofft man nun aus den beobachteten Kontingen-
zen zwischen x und y abstrahieren zu können. Man postuliert eine
sog. Wirkungsfunktion, f, derart, dass y = f(x), und versucht, f zu be-
stimmen (ggf. unter modelltheoretischen Restriktionen).
Natürlich ist f, selbst in einfachen Zusammenhängen, in der Regel
eine Idealisierung. Das heißt, üblicherweise wird man immer Diskre-
panzen zwischen den beobachteten y und den gemäß f(x) prognosti-
zierten finden. Selbst mit höchstem physikalischen Aufwand werden
sich keine reinen Messreihen ergeben, die das einfache Fallgesetz
wiedergeben. Und noch weniger ergeben die Daten irgendwelche
Funktionen in den Sozialwissenschaften. Diese Diskrepanz besser:
das Prinzip der Idealisierung ist bereits Teil der experimentellen
Logik, der man terminologisch durch die Unterscheidung in wahre
Parameter und empirische Realisationen Rechnung trägt. Diese
Realisationen sind dabei stets von Messungenauigkeiten und in f un-
spezifizierten weiteren Einflüssen auf S mitbestimmt.
3
Die reale,
3
Die mit den entsprechenden mathematischen Fehlermodellen behandelt wer-
den.
274 Jürgen Kriz
14:19, 13.01.03, Kritz.doc
empirische Erfahrung wird somit gegenüber der idealisierten Theorie
geradezu als nachrangig behandelt.
Dieses streng logisch nicht beweis- und ableitbare aber pragmatisch
überaus erfolgreiche Idealisierungs-Prinzip, das mit dem Experiment
ver-bunden ist, stellt aber keinen Nachteil, sondern geradezu eine
Stärke der naturwissenschaftlichen Methodik dar: Denn dieser Per-
spektivenwechsel erlaubte die konstruktive Entdeckung (oder: ent-
deckende Konstruktion) relativ einfacher Naturgesetze (f) in einem
Meer fehlerbehafteter Daten (statt der Alternative, völlige ex-post-
facto Fehlerfreiheit durch komplizierte f herstellen zu wollen
4
).
Allerdings erfordert diese Einsicht, die metaphorische Sprechweise
von den wahren Werten und den Realisationen nicht allzu reali-
stisch und ontologisch zu deuten. So glaubt (hoffentlich) niemand, in
den Sozialwissenschaften lineare Regressionen oder orthogonale
Faktoren zu finden, sondern es geht, umgekehrt, darum, wie man
ggf. mit diesen stark vereinfachenden Idealisierungen bei der erklä-
renden Rekonstruktion der Daten gehen kann. Ebenso muss man sich
aber davor hüten, z.B. konkrete psychisch-pathologische Prozesse als
Realisationen wahrer, zugrundeliegender Krankheitskategorien, oder
aber konkrete Entscheidungen von Menschen in Experimenten als
Realisationen von Ungleichheitsaversionen oder spezifischen Prä-
ferenzstrukturen ontologisierend zu missdeuten. Es handelt sich um
nicht mehr (aber auch nicht weniger!) als sprachlich-semantische
Anker für die f in der o.a. Gleichung, die ihrerseits die Kontingenzen
zwischen x und y beschreiben. Die entscheidende Frage ist daher
nicht, ob es diese Ungleichheitsaversionen oder Präferenzstruktu-
ren wirklich gibt: Sie gibt es so viel oder so wenig wirklich, wie
es lineare Regressionen in der Realität gibt. Sondern die wichtigen
Fragen sind, wie gut diese einerseits mit den anderen theoretischen
Konzepten der Wirtschaftswissenschaften korrespondieren (d.h. sich
einpassen und/oder fruchtbare Kritik entfalten) und andererseits, wie
4
Denn natürlich lässt sich jede reale, und damit endliche, Datenreihe der Größe
N beispielsweise durch ein Polynom n-ten Grades fehlerfrei reproduzieren.
Artefaktprobleme experimenteller Ökonomik 275
14:19, 13.01.03, Kritz.doc
weit diese für andere Sets aus x und y haltbar und invariant sind bzw.
was ihre Varianz ausmacht.
5
Durch diese Ausführungen wird implizit nochmals betont, was
auch explizit vorrangige wissenschaftstheoretische Auffassung ist:
nämlich dass es sich einerseits bei der entdeckenden Konstruktion der
f um ein komplexes (und keineswegs algorithmisiertes) Wechselspiel
von induktiven und deduktiven Prozessen handelt, bei der die f als
Idealisierungen keineswegs aus den x und y folgen (reines Daten-
sammeln also recht sinnlos ist). Und dass andererseits mit den x und
y auch nicht die Wahrheit der f im Hinblick auf die Wirklichkeit
von S getestet werden kann. Es sind ausschließlich relative Aussagen
möglich, schon weil wir nur solche x-Fragen stellen können, die
unsere Theorien und unser Wissen ermöglichen. Die f sagen daher
mindestens so viel über uns selbst, unsere Wissensgrenzen und Her-
angehensweisen, wie über das S aus. Wissenschaftlicher Fortschritt
besteht bereits vielfach darin, dass wir durch neue Befunde erkennen,
welche Fragen wir übersehen haben, und dann diese neuen x-Fragen
an S herantragen.
2.2. Zum Problem der Abgeschlossenheit
Weitaus problematischer als die Idealisierung der f als Basis für
wahre Werte gegenüber den faktisch beobachtbaren Realisationen
ist die Idealisierung des Fokus auf S und bestimmte x-Einflüsse durch
die Idee der Abgeschlossenheit. Damit ist nicht nur gemeint, dass all-
gemein mit den x als spezifischem Fragekontext des Experiments
alle wesentlichen Einflüsse (in diesem Kontext) erfasst sein sollen.
Damit ist vor allem auch gemeint, dass zwischen den y und den x
keine Rückkopplungen stattfinden sollen, dass die y also nicht auf die
x zurückwirken direkt, zeitverzögert, oder über viele Zwischen-
schritte.
5
Vereinfacht formuliert geht es um Fragen der Verallgemeinerbarkeit, der
Reliabilität und der Validität.
276 Jürgen Kriz
14:19, 13.01.03, Kritz.doc
Dass dieses Abgeschlossenheits-Postulat eine weitere Idealisierung
gegenüber der Realität darstellt, war eigentlich seit Anbeginn der For-
schung klar: Es dürfte kaum irgendwelche Phänomene y in der Welt
geben, die nicht mit anderen (und damit letztlich auch: mit den x) in
Wechselwirkung stehen. Man ging aber bis vor kurzem davon aus,
dass diese Idealisierung ähnlich behandelbar sei, wie die Idealisierung
der wahren Werte: Geringfügige Abweichungen von dieser An-
nahme wären vernachlässigbar (und/oder im Rahmen ein Fehlertheo-
rie behandelbar). So wirken im Sonnensystem mathematisch gut
behandelbar nicht nur Sonne-Erde- und ebenso behandelbar
Sonne-Venus (etc.) aufeinander, sondern eben auch Erde-Venus
(etc.). Berücksichtung des Letzteren führt allerdings zum berüch-
tigten Drei-Körper-Problem, das eben nicht mehr mathematisch
gut behandelbar ist (geschweige denn das mindestens 10-Körper-
Problem unseres realen Sonnensystems). Allerdings, so die Jahrhun-
derte lange hoffnungsvolle Unterstellung, müsste man die Rückwir-
kungen zwischen Erde und Venus wegen der Geringfügigkeit der
Massen im Vergleich zur Sonne vernachlässigen können.
Bereits 1890 konnte Poincaré zeigen, dass diese Annahme funda-
mental falsch ist: Wir können grundsätzlich nicht sagen, ob das Son-
nensystem stabil ist, d.h. ob die (minimalen) Rückkopplungen zwi-
schen Erde und Venus sich nicht so aufschaukeln, dass die Venus
plötzlich (relativ zu den üblichen Zeitskalen für astronomische Vor-
gänge) einen Haken schlägt und sich aus dem Sonnensystem entfernt,
oder auf die Erde stürzt. Pioncaré (und später andere Mathematiker)
stellten zwar mathematische Bedingungsräume für stabile und in-
stabile Lösungen auf. Gleichzeitig aber zeigten sie, dass eine Ent-
scheidung in der Realität prinzipiell unmöglich ist, denn andernfalls
müsste man die wahren Parameter genau kennen bzw. bestimmen.
Und im Gegensatz zur obigen Fehlertheorie geht es hier um unend-
liche Genauigkeit, die real natürlich nicht möglich ist. Dies verknüpft
übrigens unsere beiden hier genannten Idealisierungs-Probleme mit-
einander.
Trotz der Arbeit von Poincaré die zudem schon damals berühmt
war, weil er damit den ausgelobten Preis der schwedischen Akademie
der Wissenschaften gewann und weiteren ähnlichen Arbeiten, be-
sonders seiner Schüler Julia und Fatou (um 1920), brauchte es noch
Artefaktprobleme experimenteller Ökonomik 277
14:19, 13.01.03, Kritz.doc
fast ein Jahrhundert, bis man die praktische Brisanz dieser Arbeiten
begriff. Erst als ab Ende der 60er Jahre des 20. Jahrhunderts durch die
Computer die Chaosforschung begann, und man Poincaré faktisch
wiederentdeckte, wurde klar, dass auch allerkleinste Rückkopplungen
Vorhersagen faktisch unmöglich machen können (vgl. Kriz 1992,
1997).
Dies wird deutlich, wenn man unsere obige Grundstruktur dyna-
misiert und die Rückwirkungen von y auf x berücksichtigt, also in x
S y einführt: y
t
x
t+1 .
6
Betrachten wir beispielsweise die beson-
ders einfache und oft zitierte sog. Verhulst-Dynamik (bei der S dann
faktisch als Operator verstanden wird, der als f die x
t
und x
t+1
mitein-
ander verknüpft): x
t+1
= (a bx
t
) x
t .
Das Verhalten dieser Dynamik
ist wesentlich vom autokatalytischen Term a abhängig:
7
für 1 < a < 3
laufen die x auf einen festen Wert ((a-1)/b) zu (der Attraktor dieser
Dynamik), für 3 < a < ca. 3.5 laufen die x auf einen 2er-Zyklus zu
(also ein zyklischer Attraktor), dann, bei noch größeren a auf einen
4er-Zyklus, 8er-Zyklus etc.; ab a > 3.256
8
ist der Zyklus unendlich.
Faktisch bedeutet dies, dass die x nicht mehr vorhersagbar sind, weil
sie nicht (endlich) attrahieren. Sie sind aber auch nicht (langfristig)
berechenbar, weil die notwendige Genauigkeit exponentiell ansteigt
und damit schnell alle realisierbaren Möglichkeiten übersteigt. Setzt
man für a = 3.5, b = 0.05 und x
1
= 10, so kann man zwar die ersten
Schritte sogar im Kopf berechnen, doch kein Computer kann aus-
rechnen, was nach nur 100 Schritten herauskäme (die erforderliche
Genauigkeit wäre rund 10
30
Stellen). Dabei geht es nicht mehr um
Abweichungen, die im Rahmen irgendeiner Fehlertheorie behan-
delbar sind. Vielmehr schaukeln sich die notwendigen Rundungsfehler
ebenfalls auf und die Lösungen können faktisch den gesamten
Lösungsraum einnehmen. Man spricht hier von deterministischem
Chaos, weil x
t+1
selbstverständlich deterministisch aus x
t
hervorgeht,
6
Diese Argumente gelten ohne Verlust der Allgemeinheit auch dann, wenn nur
sehr geringe Anteile der Dynamik rückgekoppelt sind.
7
Dies gilt unter gewissen Einschränkungen, auf die hier nicht eingegangen
werden kann.
8
Das ist der Feigenbaumpunkt nicht zu verwechseln mit der Feigenbaum-
zahl, welche die Abstände der Periodenverdopplungen angibt (vgl. Kriz 1992).
278 Jürgen Kriz
14:19, 13.01.03, Kritz.doc
aber die Entwicklung eben doch aus den eben genannten Gründen
faktisch nicht berechenbar ist. Und genau wie Rundungsfehler wirken
sich allerkleinste Messfehler aus (im Beispiel: Abweichungen vom
Start-Wert 10).
9
Statt um die Näherung an irgendwelche wahren Parameter geht
es hier nun plötzlich um Fragen, ob und wann die Dynamik über-
haupt stabil ist, wann qualitative Sprünge zu erwarten sind etc. also
alles Fragen und Phänomene, die im Rahmen der Theorie nichtlinea-
rer dynamischer Systeme diskutiert werden. Mir ist nicht bekannt,
dass dies im Rahmen sozialwissenschaftlicher Experimente, ein-
schließlich experimenteller Ökonomik, angemessen berücksichtigt
würde. Zwar ließe sich einwenden, dass es im Rahmen vieler Experi-
mente, gerade auch der experimentellen Ökonomik, häufig nur um
eine Vorgabe von x gehe, auf welche Personen dann mit y regieren
es sich also gar nicht um Dynamiken handle, bei denen Fragen der
Isolierung, Rückkopplung, und damit Stabilität vs. Instabilität von
Entwicklungen aufkämen. Ein solches Gegenargument ist aber in
zweifacher Hinsicht kurzsichtig:
Erstens ging es oben darum, Probleme im Verhalten nichtlinearer
dynamischer Systeme zu zeigen; mit nur etwas Phantasie lässt sich
die Schnittstelle eines solchen Systems und der x auch verschie-
ben: Es handelt sich dann um interne Dynamiken von S und statt
der x werden als Inputgrößen die a verstanden, oder Variable, die
auf a wirken. Ein solches System könnte dann auch bei ggf. nur
einmaligem Input von einem stabilen Systemzustand in einen
instabilen kippen oder mit anderen qualitativen Sprüngen der y
aufwarten. Dies ist in der naturwissenschaftlichen Systemfor-
schung sogar typisch: Es geht dann um die Veränderung sog.
9
Ebenso wirken sich allerkleinste Ursachen aus: Wie bei einer Kugel auf der
Nadelspitze geht es hier um extrem instabile Gleichgewichtszustände (im
Gegensatz zum Attraktor als extrem stabiles Gleichgewicht). Das Phänomen
wird populär als Schmetterlings-Effekt bezeichnet: Der Flügelschlag eines
Schmetterlings in China könnte dann entscheiden, ob sich einige Zeit später
über dem Atlantik ein Hurrikan zusammenbraut oder nicht (bzw. in welche
Richtung die Kugel von der Nadel fällt).
Artefaktprobleme experimenteller Ökonomik 279
14:19, 13.01.03, Kritz.doc
Kontrollparameter, die je nach Zustand des Systems ganz unter-
schiedliche Wirkungen haben können.
Zweitens haben die Akteure in sozialen Systemen grundsätzlich ein
Erinnerungsvermögen und orientieren sich selbst historisch in Zu-
sammenhänge ein. Das Hervorbringen von y ist somit nicht grund-
sätzlich strikt von der Interpretation und damit der realen Wir-
kung der nächsten x
t+1
zu trennen. Dieser Aspekt wird bei der
Diskussion der folgenden Idealisierung noch deutlicher.
2.3. Zum Problem trivialer und nicht-trivialer Maschinen
Die dritte Idealisierung ist strukturell stark verwandt mit der zweiten
(und ließe sich mit dieser sogar zusammenfassen), betont aber inhalt-
lich und analytisch eine recht unterschiedliche Perspektive. Es geht
um die idealisierte Ausblendung von Lern-, Entwicklungs- und Ver-
änderungsdynamiken des S durch die x ein Aspekt, den Heinz v.
Foerster (z.B. 1988) mit der Unterscheidung in triviale und nicht-
triviale Maschinen prägnant gefasst hat.
Eine triviale Maschine entspricht unserer Grundstruktur, wobei
wegen des Charakters Maschine die beiden bisher diskutierten Idea-
lisierungen unproblematisch seien, d.h. wir lassen die Rückkopplun-
gen außer acht und die Maschine sorgt nur dafür, dass Ausgangszu-
stände den Eingangszuständen zugeordnet werden. Betrachtet man
jeweils nur 4 Ein- und Ausgangszustände (wobei auch mehrere Ein-
gänge denselben Ausgängen zugeordnet werden könnten), so gibt es
4
4
= 256 mögliche Zuordnungen oder unterschiedliche Wirkungs-
funktionen im o.a. Sinne. Es ist also vergleichsweise leicht, über Expe-
rimente und die Kontingenzen der x und y herauszufinden, welche
der 256 möglichen Maschinen hier vorliegt, d.h. das konkrete f zu be-
stimmen.
Eine nicht-triviale Maschine hingegen gibt nicht nur in Abhängig-
keit von x bestimmte y aus, sondern kann auch ihren inneren Zustand
ändern, d.h. sie reagiert dann mit einem veränderten f (d.h. im ein-
fachen Fall mit einer anderen Zuordnungstabelle). S ist jetzt also
durch unterschiedliche (innere) Zustände gekennzeichnet, womit
280 Jürgen Kriz
14:19, 13.01.03, Kritz.doc
wir die Grundfunktion abwandeln in x Zx y. Und zur Wir-
kungsfunktion y = f
z
(x, z) führen wir die Zustandsfunktion z´ = f
z
(x, z) ein.
V. Foerster hat nun gezeigt, dass es bei nur je 4 Input-/Output-
Größen 10
2466
mögliche Maschinen gibt, d.h. obwohl die Maschinen
synthetisch determiniert sind, bleiben sie analytisch unbestimmt und
im Verhalten daher unvorhersagbar.
Da Menschen sicher nicht als triviale Maschinen angesehen werden
können, wären sie somit unvorhersagbar wenn man sie nicht triviali-
siert. Dazu gibt es einerseits die kulturellen Trivialisierungs-Institu-
tionen: Elternhaus, Schule, Universität, die über externe Kontrolle
den Kontingenzraum beschneiden (Fritz lernt, auf die Frage was ist
3x3? nicht unvorhersagbar-kreativ etwa: grün! zu antworten son-
dern vorhersagbar: 9!). Interessanter sind aber die Eigen-Trivialisie-
rungen, die durch rekursive Operationen des Systems (als Teile von
Metasystemen) erzeugt werden. Hier läuft die Argumentation v.
Foersters mit der oben bereits geführten zusammen, denn die sich bei
ihm ergebenden Eigen-Werte, Eigen-Verhalten, Eigen-Zustände, Ei-
gen-Funktionen, entsprechen unseren oben thematisierten Attrak-
toren.
Bemerkenswert ist nun, dass die Ökonomik auch und gerade mit
ihren Experimenten indem sie auf den homo oeconomicus rekurriert,
unter der hier diskutierten Perspektive zunächst eine geschickte
Lösung des Problems der nicht-trivialen Maschinen versucht: Der
homo oeconomicus ist nämlich per se idealisierter Ausdruck der trivia-
len Maschine, denn er lernt nicht, verändert nicht seine inneren Zu-
stände, sondern verfügt mit seiner eigennützigen Rationalität über ein
universelles, zeitloses Verhaltensmodell. Und daher ist es auch ver-
ständlich und sogar ratsam, dass man bei empirisch gefundenen An-
omalien nicht sofort diese Idealisierung aufgibt, sondern zunächst
über transformierte Präferenzstrukturen und Nutzenfunktionen die
Trivialität im v. foersterschen Sinne zu retten versucht (neoklassi-
sche Reparaturwerkstatt).
Allerdings so zeigen ja auch viele Beiträge in diesem Band sind
erhebliche Zweifel angebracht, ob diese Lösungsversuche wirklich die
beste Strategie sind. Zum einen bleiben für viele Anomalien erheb-
liche Erklärungs- bzw. Rekonstruktionsdefizite bestehen. Zum ande-
Artefaktprobleme experimenteller Ökonomik 281
14:19, 13.01.03, Kritz.doc
ren zeigen die dann zwecks besserer Erklärung hervorgezauberten
Kontext- und Motivationstheorien aus psychologischer Sicht eine
große Naivität und Hemdsärmeligkeit, da nun über die inneren Zu-
stände psychologiert wird, ohne sich ernsthaft mit der Fülle psycho-
logischer Befunde und Theorien auseinander zu setzen.
Es ist daher zu fragen, ob man in den Experimenten und den ihnen
zugrunde liegenden theoretischen Konzeptionen nicht grundsätz-
licher und systematischer die Frage mitberücksichtigen sollte, ob sich
Sets von Eigen-Zuständen finden lassen, die für die Erklärungen der y
fruchtbarer und konsistenter herangezogen werden können. D.h. es
ginge dann darum, Sets von Bedingungen zu formulieren, unter denen
jeweils konsistent(er) bestimmte Zuordnungsfunktionen f gelten.
2.4. Zum Unterschied zwischen Reiz- und Rezeptionsstruktur
Den vierten Bereich idealisierter Annahmen in der experimentellen
Ökonomik möchte ich idealisierte Gleichsetzung von Reiz- und Re-
zeptionswelt nennen. Schon jenseits der Human- und Sozialwissen-
schaften ist es keineswegs trivial sicherzustellen, dass die vom Expe-
rimentator intendierten x tatsächlich auch die bedeutsame Verände-
rung für S bei der Hervorbringung von y sind. Beispielsweise wurde in
den 1960er Jahren die Entdeckung sog. Detektoren mit dem
Nobelpreis ausgezeichnet: Es geht dabei darum, dass bestimmte kor-
tikale Nervenzellen des visuellen Bereiches nur feuern, wenn sich eine
Kante im Gesichtsfeld bewegt, andere feuern hingegen auf Ecken etc.
Allerdings feuern die hochspezifischen optischen Detektoren auch
dann, wenn z.B. die Tür zum Labor zu heftig zugemacht wird. Die x-
y-Zuordnungen gelten somit so klar nur dann, wenn man den visuel-
len Bereich artifiziell herausschält und anderes experimentell konstant
hält bzw. theoretisch ignoriert.
Als zweites Beispiel seien die berühmten Konditionierungsexperi-
mente von Pawlow genannt, über die in allen Lehrbüchern berichtet
wird, dass die Speichelsekretion von Hunden beim Anblick von Fut-
ter auf das Läuten einer Glocke übertragen (konditioniert) wurde. Da
Pawlow seine Experimente sorgfältig dokumentiert hatte, wurden sie
282 Jürgen Kriz
14:19, 13.01.03, Kritz.doc
vor einigen Jahren von einem polnischen Wissenschaftler möglichst
genau repliziert allerdings entfernte er den Klöppel aus der Glocke,
so dass gar kein Ton zu hören war. Die Konditionierung klappte aber
genau so gut: Nur die Forscher glaubten somit, das x wäre der Ton
der Glocke in Wirklichkeit war es vermutlich das Schwenken, oder
weitere Aspekte der Gesamtsituation, welche für die Hunde die x
ausmachten.
In der experimentellen Ökonomik kommt nun aber erschwerend
hinzu, dass hier solche Systeme, nämlich Menschen, untersucht wer-
den, für die wesentlich ist, dass sie die Welt und damit auch die x
sinnhaft deuten. Menschen erzeugen nicht y relativ zu einer Reizwelt
sondern relativ zu einer Rezeptionswelt. Letztere ist in komplexer
Weise jedenfalls aber höchst selektiv, konstruktiv, kognitiv, lern-
und lebensgeschichtlich modifiziert mit der Reizwelt, zu der die x
gehören, verbunden. Bedeutsame Bereiche der Psychologie wie die
Gestalt-, Wahrnehmungs-, Sozial- und Entwicklungspsychologie
sind voll von Erkenntnissen darüber, wie wenig die bereitgestellten x
in der Regel jene Struktur ausmachen, auf welche mit y reagiert wird,
und wovon letztlich stattdessen die y bestimmt werden.
Diese Befunde sollte m.E. auch die experimentelle Ökonomik
ernster nehmen. Dabei kann es nicht darum gehen, mit den Psycholo-
gen um psychologische Modellbildungen zu wetteifern: Wirtschafts-
wissenschaft lässt sich, schon definitorisch, nicht auf Psychologie re-
duzieren weshalb der homo oeconomicus auch nicht als verkappte
realgesetzliche motivationspsychologische These verstanden werden
darf, sondern als theoretische Perspektive bzw. Programmatik für die
Rekonstruktion der y-Variabilitäten. Gleichwohl sollten im Rahmen
dieser Programmatik die Unterschiede zwischen Reiz- und Rezep-
tionswelten beachtet und die zur notwendigen Reduktion erforder-
lichen Idealisierungen kritisch hinterfragt und auf mögliche Erzeu-
gung von Artefakten überprüft werden. M.E. ist es gerade nicht damit
getan, beispielsweise money-value durch utility und objektive durch
subjektive Wahrscheinlichkeiten zu ersetzen und nach den Transfor-
mationsregeln bzw. funktionalen Zusammenhängen zu fragen. Die
Berücksichtung von Rezeptionswelten aufgrund psychologischer und
soziologischer Befunde könnte vielmehr genutzt werden, nach äqui-
valenzklassenartigen Sets zu suchen, innerhalb derer dann jeweils die
Artefaktprobleme experimenteller Ökonomik 283
14:19, 13.01.03, Kritz.doc
ökonomischen Regeln und Funktionen relativ konsistent Geltung be-
anspruchen können.
Wie bereits in der Einleitung begründet, werden im folgenden Ab-
schnitt einige der angesprochenen Artefaktprobleme exemplarisch am
Beispiel der subjektiven Wahrscheinlichkeiten konkretisiert.
3. Subjektive Wahrscheinlichkeiten
Sozialwissenschaftler interessiert zum einen normativ ausgerichtete
Entscheidungsmodelle, die angeben, wie sich ein rationaler Akteur
unter gegebener Information entscheiden sollte. Zum anderen inter-
essiert sie die Erstellung deskriptiv-rekonstruktiver Entscheidungs-
modelle, die angeben (erklären und prognostizieren) sollen, wie sich
Menschen unter gegebener Information denn tatsächlich entscheiden.
Für beide Modellarten aber insbesondere für die letzteren spielt
die Erfassung von sog. subjektiven Wahrscheinlichkeiten eine Rolle:
Aus unterschiedlichen Entscheidungsalternativen folgen jeweils be-
stimmte Konsequenzen, die jeweils einen bestimmten Wert bzw.
Nutzen haben und mit einer bestimmten Wahrscheinlichkeit auftre-
ten. Dabei sind für reales menschliches Verhalten allerdings meist
nicht objektive Wahrscheinlichkeiten von Bedeutung, die (sofern
sie existieren) dem Eintreten von Konsequenzen gemäß der Anwen-
dung mathematischer Wahrscheinlichkeitstheorie zukommen. Viel-
mehr geht es um subjektive Wahrscheinlichkeiten, die das Individuum
dem Eintreten dieser Konsequenzen zuschreibt. Es handelt sich also
um eine individuell-subjektive Komponente im Entscheidungsprozess
(wie auch der Nutzen im Gegensatz zum Wert). Auf der Basis
von Nutzen und subjektiven Wahrscheinlichkeiten kann man nun
versuchen, Modelle zur Beschreibung und Prognose von Entschei-
dungen zu entwerfen. Ein Beispiel hierfür ist das bekannte SEU-Mo-
dell (subjective expected utility), welches postuliert, dass der Mensch
sich für jene Möglichkeit aus einem Alternativen-Raum entscheidet,
bei der die Produktsumme aus Nutzen und subjektiven Wahrschein-
lichkeiten ein Maximum ist.
284 Jürgen Kriz
14:19, 13.01.03, Kritz.doc
Die Experimente, die in den 1940er und 1950er Jahren zur Erfas-
sung der subjektiven Wahrscheinlichkeit durchgeführt wurden, waren
alle einander ähnlich: Das Anrecht auf ein Spiel, bei dem der Geldbe-
trag X mit der objektiven Wahrscheinlichkeit P (oder kein Geld mit
der Wahrscheinlichkeit 1-P) gewonnen werden konnte, wurde
zwischen den Vpn versteigert. Unter der hinreichend sinnvollen An-
nahme, dass die Vpn gerade soviel bieten, dass sie nicht mit Verlust
aussteigen, aber wegen der Konkurrenzsituation auch nicht wesent-
lich weniger, lässt sich aus dem Höchstgebot Z die subjektive Wahr-
scheinlichkeit für einen Gewinn als Z/X abschätzen. Die Konfronta-
tion der Vpn mit P war jeweils trivial: entweder wurde P direkt vorge-
geben, oder es ging um die Wahrscheinlichkeit, dass eine bestimmte
Zahl gewürfelt wird, eine Kugel in ein bestimmtes Fach fällt, ein
Glücksrad auf weißen oder schwarzen Feldern stehen bleibt usw.
Unter diesen Bedingungen fand man eine recht brauchbare Überein-
stimmung zwischen subjektiven und objektiven Wahrscheinlichkei-
ten.
Etwa ab den 1960er Jahren aber wurden die Bedingungen in den
Experimenten komplizierter. So beschäftigten sich Forscher z.B. mit
folgendem Problem: Ausgegangen wird von einer Anzahl unabhängi-
ger und sich gegenseitig ausschließender Hypothesen über einen
Sachverhalt. Die Richtigkeit der einzelnen Hypothesen wird von
vornherein von einer Person jeweils mit einer bestimmten Wahr-
scheinlichkeit belegt. Daraufhin bekommt diese Person Information
(Daten) über diesen Sachverhalt allerdings in sequenziellen Teilpor-
tionen und damit unvollständig. Wie verändern sich dadurch die
Wahrscheinlichkeiten, welche die Personen der Richtigkeit dieser
Hypothesen jeweils geben?
Selbst im einfachsten Fall bei dem es nur zwei, zunächst gleich-
wahrscheinliche, symmetrische Hypothesen über das Mischungsver-
hältnis von schwarzen und weißen Kugeln in einer Urne gibt (z.B.
65% weiße und 35% schwarze Kugeln oder umgekehrt) ist die ob-
jektive Wahrscheinlichkeit für die Hypothese nach Berücksichtigung
der Information sehr viel komplexer, als in den oben genannten Ver-
suchsbedingungen.
Revidiert man die Anfangswahrscheinlichkeiten P(H
1
) bzw.
P(H
2
) aufgrund beobachteter Daten, D, kann man nämlich nach
Artefaktprobleme experimenteller Ökonomik 285
14:19, 13.01.03, Kritz.doc
Bayes Theorem den Quotienten aus beiden bedingten Hypothesen-
Wahrscheinlichkeiten nehmen, also:
Dies wird üblicherweise so geschrieben:
wobei L Likelihood-Quotient heißt. Im einfachsten Fall bei zwei
symmetrischen Hypothesen mit π bzw. 1- π mit a schwarzen und b
weißen Kugeln ist L (vgl. Kriz 1967, 1982):
In vielen Experimenten verglich man nun diese berechneten Wahr-
scheinlichkeiten mit den Wahrscheinlichkeitsangaben der Personen
und kam so u.a. zu der Aussage, dass sich die Vpn bei der Revision der
Anfangswahrscheinlichkeiten konservativ verhalten: Die objektiven
Endwahrscheinlichkeiten werden erheblich unterschätzt.
In einer anderen Art von Untersuchungen wurde der Prozess wie
folgt verändert: Mit der Information sind Kosten verbunden z.B.
kostet jede Entnahme einer Kugel aus der Urne einen bestimmten
Geldbetrag. Irgendwann verzichtet dann die VP auf weitere Informa-
tion (und Kosten) und entscheidet sich für eine der Hypothesen. Be-
stimmt man nun die objektive Wahrscheinlichkeit für die beobachte-
ten Daten (Information) unter der jeweiligen Hypothese, so lassen
sich daraus Aussagen über die Irrtumswahrscheinlichkeit bzw. das
Sicherheitsrisiko ableiten, mit dem Personen (in Abhängigkeit von
den Kosten) ihre Entscheidung fällen.
Beide Vorgehensweisen, die in zahlreichen Untersuchungen ver-
schiedener Forscher verwendet wurden, unterstellen implizit als
selbstverständlich, dass die subjektiven Wahrscheinlichkeiten bzw.
das Entscheidungsverhalten überhaupt in irgendeinem funktionalen
Zusammenhang mit den objektiven Wahrscheinlichkeiten stehen.
Denn würde das Verhalten z.B. von astrologischen Planeten-Konstel-
286 Jürgen Kriz
14:19, 13.01.03, Kritz.doc
lationen abhängen, hätten Aussagen wie Unterschätzung von Wahr-
scheinlichkeiten oder über Sicherheitsrisiko keinen Sinn. Der we-
sentliche Unterschied zwischen beiden Vorgehensweisen ist aber, dass
bei Nichtzutreffen dieser Annahme im ersten Fall nur die Ergebnisse
anders zu interpretieren sind (also eine rein inhaltliche Auswirkung).
Im zweiten Fall geht die Annahme dagegen unmittelbar in die Me-
thode mit ein, denn das Sicherheitsrisiko der Entscheidung lässt sich
nicht aus den objektiven Wahrscheinlichkeiten rückrechnen, wenn
die objektiven Wahrscheinlichkeiten nicht zumindest in Form einer
topologischen Beziehung (d.h. in nominaler oder ordinaler Metrik)
für die Entscheidung relevant sind. Dies ist ein Beispiel für die Wech-
selwirkung von Methode und Inhalt, wie sie typisch in Experimenten
zu finden ist (Kriz 1981, 1988).
Plausibel waren diese Annahmen über einen funktionalen Zusam-
menhang solange, wie die objektiven Wahrscheinlichkeiten in den zu-
erst geschilderten Experimenten so trivial unmittelbar mit der Ver-
suchsanordnung verknüpft waren, und somit auch dem statistischen
Laien aufgrund reiner Anschauung und seiner Alltagserfahrung die
Proportion der Gewinnchancen evident sein musste. Dabei handelt es
sich aber unter dem Gesichtspunkt, dass die Frage der Bestimmung
von subjektiven Wahrscheinlichkeiten darauf abzielt, ein typisches
(d.h. alltagsrelevantes) Entscheidungsverhalten von Menschen näher
zu erfassen, um eine sehr gekünstelte Laborsituation. Die späteren
Experimente hingegen näherten sich relevanten Fragestellungen
schon viel stärker an, allerdings war bei ihnen die Evidenz der objekti-
ven Wahrscheinlichkeit nicht mehr gegeben. Man kann daher auch
nicht mehr einfach erwarten, dass irgendein in den zunächst erwähn-
ten Experimenten gefundener Zusammenhang zwischen subjektiven
und objektiven Wahrscheinlichkeiten auch dann noch gilt, wenn die
objektive Wahrscheinlichkeit für Laien nicht mehr so trivial zu er-
mitteln ist, d.h. wenn sich die objektive Wahrscheinlichkeit selbst aus
mehreren Komponenten zusammensetzt.
Zudem zeigt sich, dass bei Gültigkeit der objektiven Wahrschein-
lichkeiten für den o.g. Bereich einige kaum zu erwartende Überlegun-
gen und Verhaltensweisen der Vpn resultieren müssten: Schon in der
obigen Gleichung bei symmetrischen Hypothesen ist L von der Diffe-
renz zwischen den b weißen und a schwarzen Kugeln abhängig, wie
Artefaktprobleme experimenteller Ökonomik 287
14:19, 13.01.03, Kritz.doc
der Exponent zeigt. Auch für nicht-symmetrische Hypothesen
konnte gezeigt werden (Kriz 1967, 1982), dass hier ein Entschei-
dungsverhalten im Sinne der waldschen Sequenzanalyse (Wald, 1947)
unterstellt wird, bei welcher die Entscheidungsbereiche für H
1
bzw.
H
2
zu einer Indifferenzgeraden
parallel verlaufen (wobei mit α und ß die Irrtumswahrscheinlichkeiten
im Sinne üblicher statistischer Inferenz bezeichnet sind).
Die Zweifel an solchem implizit postuliertem Entscheidungsver-
halten wurden durch Experimente untermauert. So wurden z.B. aus
einem von 2 gleichen Beuteln (den die Vpn frei wählen konnten),
nacheinander blaue und gelbe Spielsteine gezogen. Die Vpn mussten
sagen, ob es sich um den Beutel mit 70% gelben und 30% blauen oder
um jenen mit umgekehrtem Mischungsverhältnis handelte. Die Steine
waren aber so manipuliert, dass der Experimentator die Reihenfolge
bestimmen und somit die Sequenzen und Stichprobengröße variieren
konnte (Kriz 1967, 1982). In anderen Experimenten hatten Vpn aus
den Unterschieden am Anteil defekter Glühbirnen aus jeweils zwei
Kontrollstichproben Schlüsse auf die unterschiedliche Qualität der
Gesamtlieferungen zu ziehen. Auch hier wurden bei den gewählten
Stichproben alle Parameter für die objektive Wahrscheinlichkeit
systematisch variiert (Kriz 1968a, b, 1982).
Insgesamt zeigte sich, dass viele der Parameter, welche die objek-
tive Wahrscheinlichkeit beeinflussen, subjektiv ziemlich irrelevant
sind. Im Gegensatz dazu ist allerdings die Proportion der Abwei-
chungen vom Mischungsverhältnis (z.B. gelb/blau oder heil/defekt)
in der Stichprobe in Relation zur Grundgesamtheit sehr entscheidend:
So wird bei einem Grundverhältnis von 7:3 eine Stichprobe von 12:8
für etwa gleichwahrscheinlich gehalten, wie eine von 120:80. Und dass
5 von 100 Glühbirnen defekt sind (bei 3% Vorgabe) hält man für
ähnlich wahrscheinlich wie das Verhältnis 50 von 1000.
288 Jürgen Kriz
14:19, 13.01.03, Kritz.doc
Interessanterweise ließen sich die individuellen subjektiven Wahr-
scheinlichen sehr gut als Entscheidungshäufigkeit für eine der Alter-
nativen in der Gesamt-Vpn-Gruppe abbilden. Mit anderen Worten,
die abgegebenen Wahrscheinlichkeitsschätzungen eigneten sich aus-
gezeichnet als Prädiktor für die relative Häufigkeit, mit der sich die
Vpn für eine der Alternativen entschieden, wenn sie dazu aufgefordert
wurden eine Übereinstimmung zwischen unterschiedlichem metho-
dischen Vorgehen, das eher überraschend und keineswegs selbstver-
ständlich ist.
Aufgrund dieser Ergebnisse wurde argumentiert, dass es keine all-
gemeingültige Funktion zwischen objektiven und subjektiven Wahr-
scheinlichkeiten gibt, da jede beliebige Funktion als Artefakt der spe-
ziellen Untersuchungsbedingungen erzeugt werden kann. Zur De-
monstration wurden die Bedingungen genannt, unter denen sich bei-
spielsweise eine Paradox-Funktion ergeben müsste, d.h., eine mono-
ton fallende Beziehung zwischen objektiven und subjektiven Wahr-
scheinlichkeiten (als Kennzeichen für die paradoxe Aussage: je größer
die objektiven Wahrscheinlichkeiten desto geringer die subjektiven
Wahrscheinlichkeiten und umgekehrt). Die Ergebnisse entsprechen-
der Experimente stimmten tatsächlich mit diesen Vorhersagen über-
ein.
Zur Einschätzung der Bedeutsamkeit dieser Experimente ist die
Frage entscheidend, wie weit man diese Probleme verallgemeinern
kann, d.h. wie berechtigt grundsätzliche Zweifel an der Zweckmäßig-
keit der Messung von subjektiven über objektive Wahrscheinlichkei-
ten sind. Es handelt sich um eine Frage, die auch für die Anomalien
in der experimentellen Ökonomik von hoher Bedeutung ist, und die
daher hier diskutiert werden soll.
So hat nämlich Rapoport (1968) argumentiert, dass üblicherweise
beim Vergleich von subjektiven und objektiven Skalen zwei Messun-
gen verglichen werden. Z.B. bekommt eine VP bei der Gewichts-
schätzung einen Körper in die Hand. Ihre Schätzung ist die subjektiv
determinierte Größe des Gewichts, die mit der allgemein anerkann-
ten objektiv determinierten Größe verglichen werden kann. Der
analoge Vorgang bei der Wahrscheinlichkeitsschätzung wäre nun, den
Vpn die Möglichkeit zu geben, die relative Häufigkeit (z.B. durch eine
Folge gleichartiger Experimente) zu erfassen. In den Experimenten
Artefaktprobleme experimenteller Ökonomik 289
14:19, 13.01.03, Kritz.doc
von Kriz aber hätten die Vpn keine Gelegenheit gehabt, solche Häu-
figkeiten zu beobachten, und man könne daher nicht davon sprechen,
dass Messungen miteinander verglichen werden. Man müsse so
Rapoport diese Experimente eher mit der Aufgabe vergleichen, das
Gewicht eines Körpers zu schätzen, den man zwar sehen kann, aber
nicht halten darf: In einem solchen Fall kann das objektive Gewicht
durch Multiplikation von Volumen und Dichte erhalten werden. Da
die Vpn die Dichte aber nicht sehen und bei unregelmäßigen Körpern
das Volumen nicht leicht schätzen können, werden sie möglicherweise
weniger zuverlässige Indikatoren für das Gewicht heranziehen, z.B.
die Größe einer einzelnen Dimension. Damit sei aber nicht das
Nichtvorhandensein einer funktionalen Beziehung zwischen subjekti-
vem und objektivem Gewicht demonstriert. Denn auch wenn die
Schätzungen nur von einer Dimension und nicht vom objektiven Ge-
wicht abhängen, so liegt das lediglich daran, dass die Vpn nicht alle
notwendigen Informationen zur Bestimmung des Gewichts bekom-
men bzw. verarbeiten konnten. Das Nichtvorhandensein der funktio-
nalen Beziehung könnte dann selbst ein Artefakt der Bedingung sein,
dass die Vpn zwar die Information bekamen, aber die Körper nicht
halten durften.
Gegen diese Einwände wurde aber argumentiert (Kriz 1968b), dass
der Vergleich mit der Gewichtsschätzung unzutreffend sei: Gewicht
ist im Alltagsleben objektiv (Waage) wie subjektiv (Schwere-Wahr-
nehmung beim Halten) eine 1-parametrige Variable. Wenn die Vpn
nun gezwungen werden, das Gewicht im Umweg über mehrere andere
Parameter zu schätzen, so kann aus dem Misserfolg dieser Schätzung
zwar nicht geschlossen werden, dass es keine funktionale Beziehung
zwischen objektivem und subjektivem Gewicht gibt dies aber eben
nur deshalb, weil Gewicht normalerweise nicht durch einen solchen
Umweg erfasst werden muss.
Die entscheidende Frage bei den subjektiven Wahrscheinlichkeiten
ist somit, ob der Mensch die objektiven Wahrscheinlichkeiten irgend-
wie direkt erfassen kann (wie das Gewicht beim Heben) oder aber
typischerweise gezwungen ist, die Information für seine Entschei-
dungen aus verschiedenen Parametern (Stichprobengröße, Mi-
schungsverhältnis etc.) zu kombinieren.
290 Jürgen Kriz
14:19, 13.01.03, Kritz.doc
Der analoge Vorgang zum Heben ist das Beobachten von Häufig-
keiten. Diese Möglichkeiten hatten die Vpn in den zuerst geschilder-
ten Experimenten: Sie wussten aus Erfahrung (oder konnten leicht
aus anderen Erfahrungen generalisieren), dass beispielsweise beim
Würfeln jede Zahl etwa gleich häufig vorkommt. Bei den anderen Ex-
perimenten hingegen und auch bei den meisten Alltagsentscheidun-
gen fehlt jede Chance, die zu berücksichtigenden Wahrscheinlich-
keiten als relative Häufigkeiten zu beobachten. Insofern ist das Versa-
gen der Vpn, die komplexe Zusammensetzung der objektiven Wahr-
scheinlichkeit aus mehreren Parametern zu erfassen, typisch und rele-
vant für Alltagssituationen, und nicht so sehr (wie bei einem Gewicht,
das man nicht halten darf) Ergebnis einer artifiziellen Situation. In-
sofern scheint es auch gerechtfertigt zu sagen, dass es keine allge-
meingültige Funktion zwischen subjektiven und objektiven Wahr-
scheinlichkeiten gibt.
Ausgehend von diesem Aspekt der typischen Situation wurde für
die konkreten Experimente in Entscheidungssituationen jener Para-
meter näher analysiert, der statt der objektiven Wahrscheinlichkeit die
subjektiven Wahrscheinlichkeiten und die Entscheidungen weitge-
hend determinierte, nämlich die Prozentsatzdifferenz beider Stich-
proben. So wurde u.a. gezeigt, dass dieser Parameter nicht nur sinn-
voll ist, da die meiste Variation von Stichproben im Alltag tatsächlich
über diese Größe laufen, sondern auch mit anderen psycho-physi-
schen Erkenntnissen über menschliche Wahrnehmung übereinstimmt.
Die Vpn verhalten sich demnach so, dass sie erfolgreiche Verhaltens-
weisen aus der bekannten Alltagswelt in eine neue Situation übertra-
gen.
Mir scheint diese Frage auch für die Beurteilung hinsichtlich mög-
licher Artefakte in der experimentellen Ökonomik sehr geeignet zu
sein. Es ist zu diskutieren, wie weit die Kontexte für die Ermittlung
von Fairnesspräferenzen, Ungleichheitsaversionen etc. tatsächlich
typisch für Entscheidungs- und Verhandlungskontexte sind, oder wie
weit ggf. wesentliche andere Parameter, welche die Personen bestim-
men, ausgeklammert wurden oder aber gar (ohne im Modell berück-
sichtigt zu sein) zum Tragen kommen. Es handelt sich letztlich
wieder um eine Frage der Angemessenheit der getroffenen Idealisie-
rungen im Sinne des ersten Abschnitts.
Artefaktprobleme experimenteller Ökonomik 291
14:19, 13.01.03, Kritz.doc
In diesem Zusammenhang sei abschließend darauf verwiesen, dass
knapp ein Jahrzehnt nach den o.a. Experimenten die Thematik der
Forschungsartefakte in Entscheidungssituationen durch zahlreiche
Untersuchungen wieder aufgegriffen wurden. Besonders die Arbeiten
und Übersichtswerke von Kahneman und Tversky wiesen die Abhän-
gigkeit typischer Entscheidungs-, Wahl- und (Ver-)Handlungspro-
zesse von zahlreichen Kontextvariablen nach, welche die experimen-
tellen Situationen (und sicher auch die realen Situationen) für die Vpn
eben unterschiedlich definieren.
10
Formal und mathematisch äqui-
valente experimentelle Bedingungen erweisen sich demnach in Ab-
hängigkeit von der Art der Präsentation bzw. der konkreten Erhe-
bungsmethode für die Personen keineswegs als äquivalent. Zahlreiche
Befunde mit oft sehr intern-konsistenten aber gegenüber der
mathematisch-formalen Normativität extrem inkonsistenten Er-
gebnissen wurden erbracht und teilweise in eigenständigen Modellie-
rungen berücksichtigt. Ein Beispiel ist etwa die Prospect Theory
(Kahneman/Tversky 1979), welche u.a. die Sonderstellung berück-
sichtigt, mit welcher Menschen häufig eine sichere Entscheidungs-
alternative vorziehen. Dies gilt selbst in solchen sequenziellen Ent-
scheidungssituationen, in denen für die sichere Alternative letztlich
und insgesamt nur eine recht geringe Wahrscheinlichkeit besteht.
11
Viele der diskutierten situativen Kontexte scheinen mir den Situa-
tionen in der experimentellen Ökonomik recht ähnlich zu sein. Wenn
man dem zustimmt, liegt die Folgerung nahe, diese Befunde verstärkt
in die Diskussion der experimentellen Ökonomik einzubeziehen.
10
Als einflußreichen Klassiker s. Kahneman et al. (1982); Übersicht und
neuere Original-Nachdrucke in Kahneman/Tversky (2000); für eine deutsch-
sprachige Übersicht s. Jungermann et al. (1998).
11
Wenn man beispielsweise zunächst 2 Münzen wirft und nur dann, wenn beide
Zahl zeigen (P = 0.25), das folgende Spiel machen darf: A: 30 $ sicher, oder B:
mit 80% Chance 45 $ zu erhalten (und mit P = 0.2 nichts). Die meisten
Personen bevorzugen hier Variante A, obwohl bei dem formal äquivalenten
Spiel: A: 25% Chance 30 $ zu erhalten (und mit P = 0.75 nichts) oder B: 20%
Chance für 45 $ (und mit P = 0.80 nichts), die meisten Personen Variante B
bevorzugen!
292 Jürgen Kriz
14:19, 13.01.03, Kritz.doc
Literatur
Cramer, Friedrich (1988): Chaos und Ordnung. Stuttgart: DVA.
Foerster, Heinz v. (1988): Abbau und Aufbau. In: Simon, F.B. (Hg.):
Lebende Systeme. Berlin: Springer, S. 19-33.
Jungermann, Helmut, Pfister, Hans-Rüdiger und Fischer, Katrin (1998):
Die Psychologie der Entscheidung. Heidelberg: Spektrum.
Kahneman, Daniel, Slovic, Paul und Tversky, Amos (Hg.) (1982): Judge-
ment and uncertainty. Heuristics and biases. New York: Cambridge
University Press.
Kahneman, Daniel und Tversky, Amos (1979): Prospect Theory. Econo-
metrica 47 (2), S. 263-291.
Kahneman, Daniel und Tversky, Amos (2000): Choices, Values and Frames.
New York: Cambridge University Press.
Kriz, Jürgen (1967): Der Likelihood-Quotient zur Erfassung eines subjekti-
ven Signifikanzniveaus. Res. Mem. No. 9, Institute for Advanced
Studies, Wien.
Kriz, Jürgen (1968a): Über die Unabhängigkeit zwischen subjektiven und
objektiven Wahrscheinlichkeiten. Res. Mem. No. 17, Institute for
Advanced Studies, Wien.
Kriz, Jürgen (1968b): Subjektive Signifikanz im zwei-Stichprobenvergleich
für Alternativmerkmale. Zeitschrift für Psychologie 174, S. 231-244.
Kriz, Jürgen (1981): Methodenkritik empirischer Sozialforschung. Eine Pro-
blemanalyse sozialwissenschaftlicher Forschungspraxis. Stuttgart:
Teubner.
Kriz, Jürgen (1982): Subjektive Wahrscheinlichkeiten und Entscheidungen.
Zur Problematik von Methodenartefakten in der Entscheidungstheo-
rie. Frankfurt: Fischer.
Kriz, Jürgen (1988): Facts and Artefacts in Social Science. An epistemological
and methodological analysis of social science research techniques.
Hamburg/New York: McGraw-Hill.
Kriz, Jürgen (1992): Chaos und Struktur. München/Berlin: Quintessenz.
Kriz, Jürgen (1997): Systemtheorie. Wien: Facultas.
Rapoport, Anatol (1968): Comments on „Über die Unabhängigkeit zwi-
schen subjektiven und objektiven Wahrscheinlichkeiten by J. Kriz.
In: Kriz, Jürgen: Über die Unabhängigkeit zwischen subjektiven und
objektiven Wahrscheinlichkeiten. Res. Mem. No. 17, Institute for
Advanced Studies, Wien.
Wald, Abraham (1947): Sequential Analysis. New York: Wiley.
... Die Ergebnisse aus derartigen Experimenten werden allerdings hinsichtlich ihrer externen Validität kritisch beurteilt (Schram 2005;Weimann 2003). Ebenso wird die Gefahr der Messung von Artefakten diskutiert (Kriz 2003; für die experimentelle Psychologie Dörner 1989). In diesem Zusammenhang wird gelegentlich auf "massive Verfremdungseffekte" (Güth und Kliemt 2003, S. 332) infolge des "Manna-Charakters" von Entscheidungen in der experimentellen Ökonomie hingewiesen (Güth und Kliemt 2003, S. 330ff;Berger 2013a, S. 69f.), da in ökonomischen Laborexperimenten neben der Honorierung der bloßen Teilnahme (show-up fee) auch ein Geldbetrag zur Verfügung gestellt wird, anhand dessen die Entscheidungen der Probanden beobachtet werden (z. ...
Article
Full-text available
In an anonymous experiment with induced fairness norms, physical exercises (squat jumps with arm-swings) are used as payment units in order to avoid windfall gains. We vary fairness norms, authority norms and social control in three experiments and find evidence that endogenous factors are having an effect even without windfall gains. Authority norms and social control result in less norm violations, but they do not result in a collective higher payment in the cost situation we created. We believe payments above the fairness norm to be a sequential cash flow with a random probability of termination after each payment.
Article
Full-text available
Vorbemerkung: Eine umfassende Erörterung der Frage, wie das Studium der Psychologie im Hinblick auf eine psychotherapeutische Ausbildung und Tätigkeit zu gestalten ist, erfordert sowohl die Berücksichtigung grundsätzlicher Aspekte der Ausrichtung als auch detaillierter Überlegungen zu einzelnen Fächern bzw. Inhalten. Beides scheint mir in einem Beitrag vorgegebener Länge nicht seriös leistbar. In Kenntnis vieler guter Detailvorschläge der anderen Manuskripte, werden in diesem Beitrag eher grundsätzliche Fragen kritisch aufgeworfen.
Article
Full-text available
Article
Discusses the cognitive and the psychophysical determinants of choice in risky and riskless contexts. The psychophysics of value induce risk aversion in the domain of gains and risk seeking in the domain of losses. The psychophysics of chance induce overweighting of sure things and of improbable events, relative to events of moderate probability. Decision problems can be described or framed in multiple ways that give rise to different preferences, contrary to the invariance criterion of rational choice. The process of mental accounting, in which people organize the outcomes of transactions, explains some anomalies of consumer behavior. In particular, the acceptability of an option can depend on whether a negative outcome is evaluated as a cost or as an uncompensated loss. The relationships between decision values and experience values and between hedonic experience and objective states are discussed. (27 ref)
Comments on „Über die Unabhängigkeit zwi-schen subjektiven und objektiven Wahrscheinlichkeiten“ by J. Kriz In: Kriz, Jürgen: Über die Unabhängigkeit zwischen subjektiven und objektiven Wahrscheinlichkeiten Sequential Analysis
  • Rapoport
Rapoport, Anatol (1968): Comments on „Über die Unabhängigkeit zwi-schen subjektiven und objektiven Wahrscheinlichkeiten“ by J. Kriz. In: Kriz, Jürgen: Über die Unabhängigkeit zwischen subjektiven und objektiven Wahrscheinlichkeiten. Res. Mem. No. 17, Institute for Advanced Studies, Wien. Wald, Abraham (1947): Sequential Analysis. New York: Wiley.
Comments on Über die Unabhängigkeit zwischen subjektiven und objektiven Wahrscheinlichkeiten Jürgen: Über die Unabhängigkeit zwischen subjektiven und objektiven Wahrscheinlichkeiten
  • Anatol Rapoport
Rapoport, Anatol (1968): Comments on " Über die Unabhängigkeit zwischen subjektiven und objektiven Wahrscheinlichkeiten " by J. Kriz. In: Kriz, Jürgen: Über die Unabhängigkeit zwischen subjektiven und objektiven Wahrscheinlichkeiten. Res. Mem. No. 17, Institute for Advanced Studies, Wien.
  • Jungermann
  • Helmut
  • Hans-Rüdiger Und Pfister
  • Fischer
Jungermann, Helmut, Pfister, Hans-Rüdiger und Fischer, Katrin (1998): Die Psychologie der Entscheidung. Heidelberg: Spektrum.
Der Likelihood-Quotient zur Erfassung eines subjektiven Signifikanzniveaus
  • Jürgen Kriz
Kriz, Jürgen (1967): Der Likelihood-Quotient zur Erfassung eines subjektiven Signifikanzniveaus. Res. Mem. No. 9, Institute for Advanced Studies, Wien.