BookPDF Available

Rechtliche Implikationen Profiling-basierter Preispersonalisierung

Authors:
Munich Studies on Innovation and Competition 20
Rechtliche
Implikationen
Profiling-basierter
Preispersonalisierung
Klaus Wiedemann
Munich Studies on Innovation and Competition
Band 20
Reihe herausgegeben von
JosefDrexl, Munich,Deutschland
RetoM.Hilty, Munich,Deutschland
The Munich Studies on Innovation and Competition present fundamental research
on legal systems that have been created with the objective of promoting and
safeguarding innovation and competition as the most important factors for economic
growth and prosperity. Accordingly, this series will include monographic works in
English in the different elds of intellectual property and competition law such as
patent, trademark and copyright law, as well as unfair competition and antitrust law.
Rather than describing what the law is, the series strives to contribute to the
scholarship on how these legal systems should develop so as to promote innovation
and competition. Therefore, its outlook is both international, by not focussing on
any specic national legal system, and interdisciplinary. In particular, studies are
encouraged that also incorporate the methods and ndings of other disciplines such
as economics, sociology and anthropology.
KlausWiedemann
Rechtliche Implikationen
Proling-basierter
Preispersonalisierung
ISSN 2199-7462 ISSN 2199-7470 (electronic)
Munich Studies on Innovation and Competition
ISBN 978-3-662-67451-2 ISBN 978-3-662-67452-9 (eBook)
https://doi.org/10.1007/978-3-662-67452-9
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliograe;
detaillierte bibliograsche Daten sind im Internet über https://portal.dnb.de abrufbar.
© Der/die Herausgeber bzw. der/die Autor(en) 2023
Open Access Dieses Buch wird unter der Creative Commons Namensnennung 4.0 International Lizenz
(http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Ver viel-
fältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern
Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative
Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Buch enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten
Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das
betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende
Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten
Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in
diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung
zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die
Rechte des jeweiligen Zeicheninhabers sind zu beachten.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in
diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch
die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des
Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geograsche Zuordnungen
und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.
Planung/Lektorat: Brigitte Reschke
Springer ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von
Springer Nature.
Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
KlausWiedemann
Max-Planck-Institut für Innovation und Wettbewerb
München, Deutschland
Open Access funding provided by the Max Planck Society and the Max Planck Institute for Innovation
and Competition.
Dieses Buch ist eine Open-Access-Publikation.
V
Vorwort
Die vorliegende Arbeit wurde im Sommersemester 2022 von der Juristischen Fakul-
tät der Ludwig-Maximilians-Universität München als Dissertation angenommen.
Die mündliche Doktorprüfung fand am 25. Oktober 2022in München statt. Die
Arbeit wurde für die Veröffentlichung auf den Stand März 2023 gebracht.
Zunächst danke ich herzlich meinem Doktorvater, Herrn Prof. Dr. Josef Drexl,
LL.M. (UCBerkeley), Direktor am Max-Planck-Institut für Innovation und Wett-
bewerb in München, für die Betreuung dieser Arbeit und sein in mich gesetztes
Vertrauen. Die einzigartigen Rahmenbedingungen an unserem Institut und die mir
gewährten Freiheiten und wissenschaftlichen Entfaltungsmöglichkeiten weiß ich
sehr zu schätzen. Herrn Prof. Dr. Matthias Leistner, LL.M. (Cambridge) danke ich
für die äußerst zügige Erstellung des Zweitgutachtens und die darin enthaltenen
wertvollen Anmerkungen, die ich gerne noch für die Drucklegung berücksichtigt
habe. Auch Herrn Prof. Dr. Dr. h.c. Reto M.Hilty und Herrn Prof. Dietmar Harhoff,
Ph.D., bin ich mit Blick auf den regen und konstruktiven wissenschaftlichen Aus-
tausch der letzten Jahre zu Dank verpichtet. Dem Institut danke ich zudem für die
großzügige nanzielle Unterstützung dieser Veröffentlichung. Es ist mir eine große
Ehre und Freude, dass es sich bei meiner Arbeit um die erste deutschsprachige Dis-
sertationsschrift in der Reihe Munich Studies on Innovation and Competition
handelt.
Unser MPI ist geprägt von einer herzlichen und kollegialen Atmosphäre. Dies ist
nicht nur in wissenschaftlicher, sondern auch in persönlicher Hinsicht ungemein
bereichernd. Einige Personen haben mich während der Erstellung dieser Arbeit be-
gleitet und jeweils auf ihre Weise wesentlich zu ihrem erfolgreichen Abschluss bei-
getragen. Sie alle zu nennen, würde an dieser Stelle zu weit führen. Ausdrücklich
danken möchte ich aber Dr. Eva-Marina Bastian, Dr. Sebastian Benz, Dr. Marco
Botta, LL.M. (Leiden), Dr. Luc Desaunettes-Barbero, LL.M. (College of Europe),
Prof. Dr. Michèle Finck, LL.M. (EUI), Dr. Marius Fischer, Dr. Franziska Greiner-
Wittner, Dr. Laura Jones, Dr. Daria Kim, LL.M. (MIPLC), Dr. Jan Lersch, Dr. Ri-
carda Lotte, Dr. Florian Paschold, LL.M. (München), Dr. Moritz Sutterer, LL.M. (Mün-
chen), Seyhan Uğurlu, LL.M. (MIPLC) und Dr. Alina Wernick, LL.M. (Helsinki).
In ihrer Funktion als Betreuerin bzw. Betreuer am Institut haben mich Dr. Gintarė
VI
Surblytė-Namavičienė, LL.M. (München) und Dr. Axel Walz engagiert und tat-
kräftig unterstützt, wofür ich ihnen sehr dankbar bin. Ein besonderer Dank gilt Prof.
Dr. Dr. Mark-Oliver Mackenrodt, LL.M. (NYU), der stets ein offenes Ohr für mich
hatte und mir auf freundschaftliche und kollegiale Weise eine enorme Hilfe war.
Zudem danke ich den Mitarbeiterinnen und Mitarbeitern unserer Bibliothek für
ihren stets engagierten und gewissenhaften Einsatz, der meine Arbeit am Institut
wesentlich erleichtert hat.
Meinen lieben Eltern danke ich herzlich für ihre immerwährende und liebevolle
Unterstützung. Der behütete Rahmen, den sie mir Zeit meines Lebens geschaffen
haben, hat es mir ermöglicht, meinen eigenen Weg zu gehen. Dafür bin ich ihnen
sehr dankbar. Meiner Frau Seraphina Wiedemann möchte ich in zweierlei Hinsicht
danken: Zunächst danke ich ihr für ihre gewissenhaften und überaus hilfreichen
Korrekturarbeiten sowie die zahlreichen konstruktiven Gespräche, die wir über
meine Arbeit geführt haben. Zudem danke ich ihr von Herzen für ihre geduldige und
liebevolle Unterstützung, auf die ich mich immer verlassen konnte und kann. Nach
Fertigstellung meiner Dissertationsschrift wurde unser Sohn Julius geboren und er-
füllt uns seitdem mit dem größten Glück. Ich wünsche ihm, dass er sich sein fröh-
liches und neugieriges Wesen Zeit seines Lebens bewahrt. Ihm widme ich
diese Arbeit.
München, Deutschland KlausWiedemann
April 2023
Vorwort
VII
1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I. Untersuchungsgegenstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
II. Gang der Untersuchung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
III. Methodik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Teil I Proling und automatisierte Entscheidungen
2 Profiling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
I. Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1. Proling im Sinne der Datenschutz-Grundverordnung . . . . . . . . . . 9
a. Datenschutzrechtliche Denition . . . . . . . . . . . . . . . . . . . . . . . . . 9
b. Mögliche Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
c. Einsatzgebiete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
d. Fallbeispiel: Google/CNIL 2019 . . . . . . . . . . . . . . . . . . . . . . . . . 13
2. Scoring als Unterfall des Prolings . . . . . . . . . . . . . . . . . . . . . . . . . 15
II. Technische und methodische Hintergründe . . . . . . . . . . . . . . . . . . . . . 20
1. Knowledge Discovery in Databases . . . . . . . . . . . . . . . . . . . . . . . . . 20
2. Data Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
a. Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
b. Association Rules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3. Anwendung auf konkrete Personen . . . . . . . . . . . . . . . . . . . . . . . . . 28
4. Einuss der Verwender und Entwickler . . . . . . . . . . . . . . . . . . . . . . 29
III. Berechnung und Zuweisung von Wahrscheinlichkeitswerten . . . . . . . 30
1. Berechnung von Informationen und Zuweisung an den
Einzelnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2. Strukturell bedingte Fehlerquote . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3. Kritische Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Inhaltsverzeichnis
VIII
3 Profiling und automatisierte Entscheidungen: Ein 3-stufiges
Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
I. Vorüberlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1. Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2. Terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
II. Erste Stufe: Datensammlung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1. Abstrakte Vergleichsdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
a. Vorüberlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
b. Anonyme, anonymisierte und personenbezogene Daten . . . . . . . 41
c. Technische und rechtliche Probleme der Anonymisierung . . . . . . 42
2. Personenbezogene Daten des Betroffenen . . . . . . . . . . . . . . . . . . . . 44
III. Zweite und dritte Stufe: Proling und Entscheidungsndung
sowie -ausführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
IV. Herleitung, Eigenschaften und Nutzen des Modells . . . . . . . . . . . . . . . 47
1. Dogmatische Herleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2. Eigenschaften und Nutzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4 Regulierung von Profiling und automatisierten
Einzelentscheidungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
I. Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
II. Regulierung von Proling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
1. Rechtsgrundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
a. Einwilligung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
b. Vertragliche oder vorvertragliche Notwendigkeit . . . . . . . . . . . . . 55
c. Allgemeine Interessenabwägungsklausel . . . . . . . . . . . . . . . . . . . 57
2. Erwägungsgründe und Datenschutzgrundsätze . . . . . . . . . . . . . . . . 58
III. Verbot automatisierter Einzelentscheidungen . . . . . . . . . . . . . . . . . . . . 60
1. Anwendungsbereich und Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . 60
a. Regelungsabsicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
b. Schutz durch menschliche Entscheider . . . . . . . . . . . . . . . . . . . . 62
c. Verhältnis von Proling zu automatisierten
Einzelentscheidungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
d. Rechtliche Wirkung oder ähnliche erhebliche
Beeinträchtigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2. Ausnahmen, Schutzmechanismen und norminterne Logik . . . . . . . 66
a. Interessenausgleich durch Verfahren . . . . . . . . . . . . . . . . . . . . . . 66
b. Rolle der Transparenzpichten . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
c. Angemessene Maßnahmen als Schutzmechanismus . . . . . . . . . . 73
d. Besonderer Schutz sensibler Daten . . . . . . . . . . . . . . . . . . . . . . . 74
5 Zusammenfassung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Inhaltsverzeichnis
IX
Teil II Proling, Preisdiskriminierung und Preispersonalisierung
6 Preisdiskriminierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
I. Überblick und Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
1. Annäherung an den Begriff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2. Konkretisierung der Denition von Stigler . . . . . . . . . . . . . . . . . . . 84
3. Value-based Pricing und risk-based Pricing . . . . . . . . . . . . . . . . . . . 88
II. Voraussetzungen für Preisdiskriminierung . . . . . . . . . . . . . . . . . . . . . . 89
1. Gewisser Grad an Marktmacht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
2. Verhinderung von Arbitrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3. Kenntnis des Reservationspreises . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
III. Arten von Preisdiskriminierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
1. Preisdiskriminierung 1. Grades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
a. Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
b. Datenschutzrechtliche Relevanz . . . . . . . . . . . . . . . . . . . . . . . . . . 95
2. Preisdiskriminierung 2. Grades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
a. Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
b. Datenschutzrechtliche Relevanz . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3. Preisdiskriminierung 3. Grades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
a. Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
b. Datenschutzrechtliche Relevanz . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4. Gemeinsamkeiten, Unterschiede und datenschutzrechtliche
Überlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7 Preispersonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
I. Vorüberlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
1. Preispersonalisierung als Unterfall von Preisdiskriminierung . . . . . 107
2. Rahmenbedingungen im Online-Handel . . . . . . . . . . . . . . . . . . . . . 108
3. Weiteres Vorgehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
II. Personalisierte Preise in der Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
1. Preisdiskriminierung und Online-Preispersonalisierung . . . . . . . . . 112
2. Konzeptionelle Überschneidungen mit Proling i. S. d. Art. 4
Nr. 4 DSGVO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3. Anwendbarkeit des 3-stugen Modells . . . . . . . . . . . . . . . . . . . . . . 114
III. Ablauf der Preissetzung nach dem 3-stugen Modell . . . . . . . . . . . . 115
1. Datenbeschaffung (Stufe 1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
2. Datenauswertung: Bestimmung des Reservationspreises
(Stufe 2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3. Entscheidungsndung und -ausführung: Tatsächliches
Einfordern personalisierter Preise (Stufe 3) . . . . . . . . . . . . . . . . . . . 119
a. Art und Grenzen der Preiskommunikation . . . . . . . . . . . . . . . . . . 120
aa. Problem der zuverlässigen Kunden-Identizierung . . . . . . . . 120
bb. Verschleierung oder Rechtfertigung der Diskriminierung . . . 122
b. Preishöhe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Inhaltsverzeichnis
X
aa. Monopolsituation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
bb. Koordinierungssituation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
cc. Tacit Collusion als Folge algorithmenbasierter
Preissetzungsmethoden? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4. Fallbeispiel: Netix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
5. Wertende Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
IV. Personalisierte Preise in der Praxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
1. Abgrenzung mittelbarer von unmittelbarer
Preispersonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
2. Ausgewählte Einzelfälle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
a. Amazon.com . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
b. Staples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
3. Behördlich durchgeführte bzw. veranlasste Studien . . . . . . . . . . . . . 145
a. Competition and Markets Authority (2017) . . . . . . . . . . . . . . . . . 145
b. Studie im Auftrag der Europäischen Kommission (2018) . . . . . . 148
c. Studie im Auftrag des Sachverständigenrats für
Verbraucherfragen (2016) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
aa. Untersuchte Variablen und Methode . . . . . . . . . . . . . . . . . . . . 152
bb. Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
cc. Wertende Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . 155
d. Studie im Auftrag des Bundesministeriums der Justiz
und für Verbraucherschutz (2021) . . . . . . . . . . . . . . . . . . . . . . . . 155
aa. Forschungsfragen und Methode . . . . . . . . . . . . . . . . . . . . . . . 155
bb. Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
4. Wissenschaftliche Studien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
a. Hannak etal. (2014) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
aa. Abstraktes Ausmaß der Preispersonalisierung . . . . . . . . . . . . 161
bb. Gründe für Preispersonalisierung . . . . . . . . . . . . . . . . . . . . . . 164
cc. Wertende Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . 166
b. Mikians etal. (2012) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
aa. Überblick über die Versuchsanordnung . . . . . . . . . . . . . . . . . . 169
bb. Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
cc. Wertende Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . 173
c. Mikians etal. (Fortsetzung 2013) . . . . . . . . . . . . . . . . . . . . . . . . . 174
aa. Methodik und Forschungsfragen . . . . . . . . . . . . . . . . . . . . . . . 174
bb. Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
cc. Wertende Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . 177
5. Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
a. Allgemeine Überlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
b. Technische und methodische Herausforderungen . . . . . . . . . . . . 179
c. Unmittelbare Preispersonalisierung methodisch greifbar . . . . . . . 181
d. Mittelbare Preispersonalisierung methodisch kaum greifbar . . . . 182
e. Nur grobe Formen nachweisbar . . . . . . . . . . . . . . . . . . . . . . . . . . 183
f. Erklärung anhand des 3-stugen Modells . . . . . . . . . . . . . . . . . . . 185
g. Wertende Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Inhaltsverzeichnis
XI
8 Weiterführende Überlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
I. Preispersonalisierung heute und in Zukunft . . . . . . . . . . . . . . . . . . . . . 193
II. Ungleichbehandlung durch Gruppenbildung . . . . . . . . . . . . . . . . . . . . 195
Teil III Diskriminierung geschützter Gruppen durch
Preispersonalisierung
9 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
I. Normative Implikationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
1. Unmittelbare Diskriminierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
2. Mittelbare Diskriminierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
3. Praktische Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
II. Rechtliche Implikationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
10 Relevante Rechtsregime . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
I. Datenschutzrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
1. Datenschutz-Grundverordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
2. ePrivacy-Richtlinie und Telekommunikation-Telemedien-
Datenschutz- Gesetz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
a. Regelungsgehalt der ePrivacy-Richtlinie . . . . . . . . . . . . . . . . . . . 210
b. Umsetzung von Art. 5 III ePrivacy-Richtlinie . . . . . . . . . . . . . . . 211
c. § 15 III TMG a. F. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
d. § 25 TTDSG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
e. Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
3. ePrivacy-Verordnung (Entwurf) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
II. Verbraucherschutzrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
1. AGB-Richtlinie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
2. Gesetz gegen den unlauteren Wettbewerb . . . . . . . . . . . . . . . . . . . . 218
3. Preisangabenverordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
III. Antidiskriminierungsrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
IV. Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
11 Rechtliche Analyse anhand des 3-stufigen Modells . . . . . . . . . . . . . . . . 223
I. Erste Stufe: Datenbeschaffung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
1. Datenschutzrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
a. Personenbezug . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
aa. Vorüberlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
bb. Rechtliche Qualikation technischer kundenbezogener
Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
cc. Breyer-Urteil: Identizierbarkeit durch Dritte . . . . . . . . . . . . 230
dd. Weiterführende Überlegungen . . . . . . . . . . . . . . . . . . . . . . . . 232
ee. Abgrenzung von der rechtlichen Bewertung
personalisierter Werbung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
ff. Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Inhaltsverzeichnis
XII
b. Rechtsgrundlage für die Datenverarbeitung . . . . . . . . . . . . . . . . . 236
aa. Einwilligung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
bb. Vertragliche oder vorvertragliche Notwendigkeit . . . . . . . . . . 246
cc. Allgemeine Interessenabwägungsklausel . . . . . . . . . . . . . . . . 249
c. Transparenzpichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
2. Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
II. Zweite Stufe: Datenauswertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
1. Datenschutzrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
a. Allgemeine Vorgaben (ErwG. 71 DSGVO) . . . . . . . . . . . . . . . . . 259
b. Diskriminierungsverbot (ErwG. 71 DSGVO) . . . . . . . . . . . . . . . 261
aa. Dogmatische Einordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
bb. Konkretisierung der Datenschutzgrundsätze . . . . . . . . . . . . . . 264
2. Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
III. Dritte Stufe: Entscheidungsndung und -ausführung . . . . . . . . . . . . . . 267
1. Datenschutzrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
a. Anwendbarkeit (Art. 22 I DSGVO) . . . . . . . . . . . . . . . . . . . . . . . 267
aa. Automatisierte Einzelentscheidung . . . . . . . . . . . . . . . . . . . . . 267
bb. Erhebliche Beeinträchtigung . . . . . . . . . . . . . . . . . . . . . . . . . . 268
cc. Diskriminierungsschutz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
b. Ausnahmen (Art. 22 II DSGVO) . . . . . . . . . . . . . . . . . . . . . . . . . 271
aa. Erforderlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
bb. Öffnungsklausel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
cc. Ausdrückliche Einwilligung . . . . . . . . . . . . . . . . . . . . . . . . . . 273
dd. Art. 22 IV DSGVO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
c. Rechtsfolgen und praktische Überlegungen . . . . . . . . . . . . . . . . . 275
d. Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
2. Lauterkeitsrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
a. Per se-Verbot (§ 3 III UWG i. V. m. Anhang Nr. 18) . . . . . . . . . . 277
b. Preisbezogene Irreführung (§ 5 I UWG) . . . . . . . . . . . . . . . . . . . 279
aa. Täuschung über den Preis oder Art und Weise der
Preisberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
bb. Irreführung über das Vorhandensein eines besonderen
Preisvorteils . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
c. Transparenzpichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
aa. Irreführung durch Unterlassen (§ 5a I UWG) . . . . . . . . . . . . 284
bb. Informationspicht („New Deal for Consumers“ 2019) . . . . 286
d. Verbrauchergeneralklausel (§ 3 II UWG) . . . . . . . . . . . . . . . . . . 287
e. Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
3. Antidiskriminierungsrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
a. Zivilrechtliches Gleichbehandlungsgebot . . . . . . . . . . . . . . . . . . 291
b. Anwendung auf Preispersonalisierung . . . . . . . . . . . . . . . . . . . . 292
Inhaltsverzeichnis
XIII
c. Rechtfertigung oder Tatbestandsausschluss . . . . . . . . . . . . . . . . . 293
aa. Unmittelbare Benachteiligung (§ 3 I S. 1 AGG) . . . . . . . . . . . 293
bb. Mittelbare Benachteiligung (§ 3 II AGG) . . . . . . . . . . . . . . . . 295
d. Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
IV. Zusammenfassende Überlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
12 Abschließende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
I. Zusammenfassung der wesentlichen Ergebnisse . . . . . . . . . . . . . . . . . 301
II. Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
III. Zusammenfassung der wesentlichen Ergebnisse mithilfe
von Thesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
Literatur ....................................................... 309
Inhaltsverzeichnis
XV
Über den Autor
Klaus Wiedemann; Studium der Rechtswissenschaften an den Universitäten
Würzburg und Heidelberg sowie am Trinity College Dublin (Irland); 2013 Erste
juristische Prüfung (Heidelberg); Juristischer Vorbereitungsdienst am Landgericht
Mosbach, u.a. mit Stationen bei Linklaters LLP (Frankfurt a.M.) und an der Uni-
versity of Oxford, Institute of European and Comparative Law (Großbritannien);
2015 Zweite juristische Staatsprüfung (Stuttgart); Wissenschaftlicher Mitarbeiter
am Max-Planck-Institut für Innovation und Wettbewerb (München); seit 2022
Wissenschaftlicher Referent ebenda; 2023 Promotion an der Ludwig-Maximilians-
Universität München.
1
Kapitel 1: Einleitung
I.Untersuchungsgegenstand
Die vorliegende Arbeit untersucht, wie datenbasiertes Proling und automatisierte
Entscheidungen funktionieren, funktional miteinander zusammenhängen und regu-
liert sind (Teil I). Im Anschluss analysiert sie, welche Möglichkeiten der Nutzung
von Proling bestehen, um im Online-Handel Preise zu personalisieren (Teil II).
Aufbauend auf den so gefundenen Erkenntnissen behandelt die Arbeit schließlich
die Frage, ob das geltende materielle Recht ausreichende Schutzmechanismen vor
Diskriminierung bereithält, die aus der Zugehörigkeit zu geschützten Gruppen re-
sultiert und in ihrer systematischen preislichen Schlechterstellung zum Ausdruck
kommt (TeilIII). Die Arbeit ist modular aufgebaut. Der erste Teil erarbeitet eine
Grundlage für die weiteren Untersuchungen. Der zweite und dritte Teil bauen auf
dem jeweils vorhergehenden auf. Preispersonalisierung stellt nur einen von zahl-
reichen denkbaren Anwendungsfällen der im ersten Teil entwickelten Grundlagen
dar. Bei der Analyse des bestehenden Diskriminierungsschutzes handelt es sich,
daran anknüpfend, um die Behandlung einer speziellen rechtlichen Fragestellung.
Bei Proling geht es im Wesentlichen um die Bewertung der persönlichen
Aspekte einer natürlichen Person mithilfe einer automatisierten Verarbeitung
personenbezogener Daten (Art.4 Nr.4 Datenschutz-Grundverordnung1). Es handelt
sich um ein technisches Erkenntnisverfahren, welches sich statistischer Methoden
und der automatisierten Bildung künstlicher Vergleichsgruppen bedient, um Ana-
lysen und Vorhersagen über natürliche Personen oder Personengruppen zu erstellen.
1 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum
Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenver-
kehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung) (ABl. L 119
vom 4.5.2016, S.1ff.). Die Datenschutz-Grundverordnung (im Folgenden „DSGVO“) wurde nach
ihrem Inkrafttreten dreimal berichtigt, zuletzt am 4.3.2021 (ABl. L 314 vom 22.11.2016, S.72,
ABl. L127 vom 23.5.2018, S.2ff. sowie ABl. L 74 vom 4.3.2021, S.35).
© Der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9_1
2
Gegenstand dieser Bewertungen ist stets ein Mensch. Voraussetzung für Proling ist
immer der Zugriff auf Daten, die größtenteils personenbezogen sind. Die wirtschaft-
liche Bedeutung dieser Technik, etwa in den Bereichen Werbewirtschaft und
Kredit-Scoring, kann kaum überschätzt werden. Proling bendet sich damit an
einer fragilen Schnittstelle von persönlichkeitsrechtlichen und wirtschaftlichen In-
teressen. Da die Digitalwirtschaft von zunehmender Individualisierung und dem
Einsatz automatisierter Entscheidungsndungsprozesse geprägt ist, ist die Frage
des richtigen Umgangs mit Proling auch von gesellschaftlicher Relevanz.
Preispersonalisierung bedeutet, stark verkürzt formuliert, dass der Preis für ein
Gut oder eine Dienstleistung an die individuelle Zahlungsbereitschaft des einzelnen
Kunden angepasst wird. Die Arbeit behandelt (ausschließlich) den Online-Handel
mit Gütern und Dienstleistungen zwischen Unternehmern und Endverbrauchern.
Typische Anwendungsfälle sind beispielsweise der Verkauf von Verbrauchsgütern
und das Anbieten von Flugbuchungen. Preispersonalisierung ist begrifich strikt zu
unterscheiden von dynamischer Preissetzung. Diese ist kein Ausdruck von Persona-
lisierung, sondern von Angebot und Nachfrage. Diese Abgrenzung ist für die vor-
liegende Untersuchung von essenzieller Bedeutung. Nur Personalisierung löst
datenschutzrechtliche (und einige andere) Schutzmechanismen aus. Zudem wird sie
von Kunden deutlich negativer rezipiert als dynamisch begründete Preisschwan-
kungen. Die Diskriminierung geschützter Gruppen durch personalisierte Preise ist
gegenwärtig ein wohl eher theoretisches Problem. Der Nachweis, dass Preise über-
haupt personalisiert werden, ist nur mit großem technischem Aufwand möglich.
Umso schwieriger ist der Nachweis einer Diskriminierung geschützter Gruppen
durch personalisierte Preise. Abwegig ist eine solche aber nicht: Die– vor allem in
den USA– bereits vor längerer Zeit erkannte Problematik des sog. Redlinings2 kann
in abgewandelter Form auch im Kontext von personalisierten Preisen wieder Reali-
tät werden. Die im dritten Teil dieser Arbeit diskutierte Frage, ob das geltende Recht
diesem Szenario gewachsen ist, ist damit nicht nur eine akademische.
Die Untersuchung wählt zunächst einen datenschutzrechtlichen Blickwinkel und
erweitert diesen Schritt für Schritt um Erkenntnisse aus dem technischen, öko-
nomischen und empirischen Bereich. Der datenschutzrechtliche Ansatz wird im
dritten Teil der Untersuchung umfassend um verbraucherschutz- und antidis-
kriminierungsrechtliche Erwägungen ergänzt. Auf spezisch kartellrechtliche
Fragestellungen geht die Analyse dort nur am Rande ein. Preisdiskriminierung und
Personalised Pricing3 werden auch im kartellrechtlichen Schrifttum– vorallem im
Kontext des Missbrauchstatbestands, Art. 102 AEUV bzw. § 19f. GWB – dis-
2 Redlining bedeutet, dass mithilfe eines symbolischen Rotstifts auf einer Stadtkarte ein Gebiet
markiert wird, in dem Kunden wohnen, die aus Sicht etwa einer Bank pauschal als ökonomisch
unattraktiv eingestuft werden. Damit gehen Benachteiligungen einher, z.B. bei der Vergabe von
Krediten. Diese Praxis ist höchst umstritten, da die betroffenen Kunden oftmals geschützten Grup-
pen– etwa einer bestimmten Ethnie– angehören.
3 Die Begriffe Personalised Pricing und Preispersonalisierung werden im Folgenden synonym
verwendet.
Kapitel 1: Einleitung
3
kutiert.4 Der dritte Teil dieser Arbeit untersucht rechtliche Schutzmechanismen, die
bestimmte Gruppen vor unzulässiger Diskriminierung bewahren sollen. Auf dieses
spezische Problem ist das Kartellrecht aber nicht zugeschnitten. Im Gegensatz
zum Datenschutz- und Antidiskriminierungsrecht schützt es den freien und unver-
fälschten Wettbewerb. Es ist nicht ausgeschlossen, dass es zukünftig– etwa unter
Rückgriff auf die Konstellation des Ausbeutungsmissbrauchs– im Kontext von per-
sonalisierten Preisen auch im Hinblick auf den Schutz von Endverbrauchern Be-
deutung erlangen wird. Dieser Schutz vor Missbrauch einer marktbeherrschenden
Stellung wäre aber gänzlich unabhängig und losgelöst von einem Schutz vor Dis-
kriminierung aufgrund der Zugehörigkeit zu einer geschützten Gruppe. Unabhängig
davon haben datenschutz-, verbraucherschutz- und lauterkeitsrechtliche Lösungen
den Vorteil, dass sie in den hier diskutierten Konstellationen einen bedeutend brei-
teren und grundsätzlich stets eröffneten Anwendungsbereich aufweisen: Sie er-
fordern keinen Nachweis einer marktbeherrschenden Stellung und keine vertieften
ökonomischen Analysen.5
II.Gang der Untersuchung
Abgesehen von der Einleitung und den abschließenden Bemerkungen gliedert die
Arbeit sich in drei Teile. Der erste widmet sich zunächst einer datenschutzrecht-
lichen und technischen Annäherung an den Begriff Proling, aufbauend auf der
Legaldenition des Art.4 Nr.4 DSGVO.Ausgehend davon wird ein 3-stuges Mo-
dell entwickelt, auf das im Laufe der Untersuchung immer wieder Bezug genommen
wird und dieser als Grundlage dient. Dieses Modell bildet ab, wie automatisierte
datenbasierte Entscheidungsndungsprozesse in tatsächlicher Hinsicht ablaufen:
Auf Stufe 1 ndet die Sammlung personenbezogener Daten sowie abstrakter Ver-
gleichsdaten statt, auf Stufe 2 das Auswerten der Daten (das eigentliche Proling),
auf Stufe 3 das Treffen und Ausführen von Entscheidungen, aufbauend auf den Er-
kenntnissen des Prolings. An dieser Stelle ndet eine erste Auseinandersetzung mit
den datenschutzrechtlichen Rahmenbedingungen statt. Das 3-stuge Modell kann
als Blaupause für weitere Forschung dienen. Es ist nicht auf den Anwendungsfall
„Preispersonalisierung“ beschränkt, sondern stets anwendbar, wenn datenbasiertes
Proling zum Treffen und Ausführen von automatisierten Entscheidungen heran-
gezogen wird. Es erlaubt die Analyse von Abläufen, ihre rechtliche Bewertung und
die Zuordnung von Verantwortlichkeiten. Der letztgenannte Aspekt entfaltet seinen
4 Vgl. dazu statt vieler Muraca/Maggiolino, ECLR 40 (2019), 483ff. passim; Townley/Morrison/
Yeung, YEL 36 (2017), 683ff. passim und Botta/Wiedemann, Eur. J.Law. Econ. 50 (2020), 381,
389–394 m.w.N.
5 Siehe zu den ökonomischen Auswirkungen personalisierter Preise und den Hürden der kartell-
rechtlichen Rechtsdurchsetzung Botta/Wiedemann, Eur. J. Law. Econ. 50 (2020), 381, 386–388
und 393f.
II.Gang der Untersuchung
4
Nutzen vor allem dann, wenn verschiedene Akteure arbeitsteilig zusammenwirken
und die verschiedenen Stufen von verschiedenen Personen verantwortet werden.6
Der zweite Teil der Arbeit widmet sich im Schwerpunkt der Preispersonalisierung
und ihrer Umsetzung in Theorie und Praxis. Dafür ist zunächst eine Auseinander-
setzung mit dem ökonomischen Begriff Preisdiskriminierung notwendig. Persona-
lisierte Preise stellen nach hier vertretener Ansicht einen Unterfall von Preisdis-
kriminierung 3. Grades dar. Eine wesentliche Erkenntnis dieses Teils liegt darin,
dass Proling und Preispersonalisierung auf derselben konzeptionellen Heran-
gehensweise basieren. Das 3-stuge Modell dient hier als Grundlage, um zu eruie-
ren, wie Preispersonalisierung in der Theorie ablaufen könnte und welchen Hinder-
nissen Anbieter ausgesetzt sind. Diese Erwägungen werden ergänzt durch eine
umfassende Analyse von empirischen Studien, die sich mit dem Vorkommen von
Preispersonalisierung in der Praxis befasst haben, sowie ausgewählten Einzelfällen.
Dabei zeigt sich, dass personalisierte Preise heutzutage ein ausgesprochen seltenes
Phänomen zu sein scheinen– im starken Gegensatz zu dynamisch und anderweitig
begründeten Preisschwankungen und Individualisierungen.
Der dritte Teil der Arbeit führt tatsächliche, rechtliche und normative Er-
wägungen zusammen. Er stellt die Frage, ob das geltende materielle Recht in der
Lage ist, eine durch Preispersonalisierung herbeigeführte Diskriminierung rechtlich
geschützter Gruppen zu verhindern. Hintergrund dieser Fragestellung ist die Über-
legung, dass Proling-basierte Preispersonalisierung auf dem Prinzip der Gruppen-
bildung aufbaut. Dem systematischen Bilden und Andersbehandeln einzelner
Gruppen wohnt die Gefahr inne, solche Gruppen zu benachteiligen, die aus recht-
lichen– letztlich moralischen– Gründen nicht benachteiligt werden dürfen. Das
Recht begegnet dem Problem der ungewollten Diskriminierung im Privatrechtsver-
kehr mit zwei Mechanismen: Indem es Informationspichten auferlegt und indem
es bestimmte (diskriminierende) Handlungen verbietet. Einschlägige Schutz-
mechanismen nden sich im Datenschutzrecht, im Lauterkeitsrecht und im Antidis-
kriminierungsrecht. Ihr Zusammenspiel auf den drei Stufen des Modells wird ana-
lysiert und bewertet. Diese rechtliche Analyse bezieht sich stets auf das spezische
Problem der Gruppendiskriminierung. Dennoch sind einige ihrer Ausführungen
auch auf andere Fallkonstellationen übertragbar.
III.Methodik
Die hier untersuchten rechtlichen Fragestellungen können nicht losgelöst von prak-
tischen Erwägungen und Erkenntnissen aus anderen Disziplinen beantwortet wer-
den. Deshalb kommen nicht nur die klassischen juristischen Auslegungsmethoden
6 Typisches Beispiel hierfür ist das Kredit-Scoring: Auskunfteien erstellen mit den Mitteln des
Prolings Score-Werte, die Auskunft über die individuelle Kreditwürdigkeit geben (Stufe 2 des
Modells). Diese werden anschließend von Kreditinstituten als Entscheidungsgrundlage für die
Vergabe von Krediten herangezogen (Stufe 3).
Kapitel 1: Einleitung
5
sowie die Auswertung von Rechtsprechung und Behördenpraxis zum Tragen. Das
hier entwickelte 3-stuge Modell stellt einen eigenen methodischen Ansatz dar. Es
ist strukturell an eine datenschutzrechtliche Denkweise angelehnt und erlaubt die
zielgerichtete Verknüpfung von wirtschaftlichen bzw. technischen Abläufen mit
einer rechtlichen Bewertung. Der Begriff Preispersonalisierung als Unterfall von
Preisdiskriminierung ist ein genuin ökonomischer. Um ihn einer rechtlichen Be-
wertung überhaupt zugänglich zu machen, ist eine Auseinandersetzung mit den
ökonomischen Begrifichkeiten und den damit einhergehenden Wirkweisen zwin-
gend. Die Untersuchung des praktischen Vorkommens von Preispersonalisierung
basiert auf der Auswertung verschiedener empirischer Studien. Ihre Analyse ist
unter zwei Gesichtspunkten hilfreich: Sie hilft zunächst, zu verstehen, wie häug
und mit welchen ökonomischen Auswirkungen Preispersonalisierung tatsächlich
vorkommt. Zudem verdeutlicht sie, wie schwierig– teilweise unmöglich– die Ab-
grenzung von personalisierten und dynamischen Preisen ist. Im Kontext von Preis-
personalisierung greift die Arbeit zudem auf Erkenntnisse aus dem Marketing und
der Verhaltensökonomie zurück.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 Inter-
national Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die
Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und
Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nen-
nen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vor-
genommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der
genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes er-
gibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht
und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben
aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers
einzuholen.
III.Methodik
Teil I
Proling und automatisierte
Entscheidungen
9
Kapitel 2: Proling
I.Denition
1. Proling im Sinne der Datenschutz-Grundverordnung
a. Datenschutzrechtliche Denition
Vor Inkrafttreten der Datenschutz-Grundverordnung bestand im europäischen
Rechtsraum keine rechtlich verbindliche Denition des Begriffs Proling. Er wurde
weder in der Datenschutz-Richtlinie 94/46/EG1 noch in den verschiedenen Fassun-
gen des Bundesdatenschutzgesetzes2 verwendet. Auch ansonsten besteht keine fest
etablierte Denition. In der vorliegenden Arbeit wird als Ausgangspunkt der Unter-
suchungen auf die Legaldenition in Art.4 Nr.4 DSGVO zurückgegriffen, um den
Begriff im Kontext der Verordnung zu konkretisieren.
Proling ist demnach „jede Art der automatisierten Verarbeitung personenbezo-
gener Daten, die darin besteht, dass diese personenbezogenen Daten verwendet
werden, um bestimmte persönliche Aspekte, die sich auf eine natürliche Person be-
ziehen, zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, wirtschaft-
liche Lage, Gesundheit, persönliche Vorlieben, Interessen, Zuverlässigkeit, Verhal-
ten, Aufenthaltsort oder Ortswechsel dieser natürlichen Person zu analysieren oder
1 Richtlinie 95/46/EG des Europäischen Parlaments und des Rates vom 24. Oktober 1995 zum
Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Daten-
verkehr (ABl. L 281 vom 23.11.1995, S.31ff.) (im Folgenden „DSRL“).
2 Im Folgenden bezeichnet „BDSG n.F.“ das Bundesdatenschutzgesetz vom 30.6.2017, BGBl.
2017 I, S.2097, zuletzt geändert durch Art.12 Zweites Datenschutz-Anpassungs- und Umset-
zungsgesetz EU vom 20.11.2019 (BGBl. 2019 I, S.1626). „BDSG a.F.“ bezeichnet das Bundesda-
tenschutzgesetz in der Fassung der Bekanntmachung vom 14.1.2003, BGBl. 2003 I, S.66, zuletzt
geändert durch Art.10 II Gesetz zur Neuregelung des Schutzes von Geheimnissen bei der Mitwir-
kung Dritter an der Berufsausübung schweigepichtiger Personen vom 30.10.2017 (BGBl. 2017 I,
S.3618).
© Der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9_2
10
vorherzusagen“. Diese Legaldenition entspricht dem typischen Begriffsverständ-
nis von Proling im privatwirtschaftlichen Bereich im Verhältnis zwischen Unter-
nehmern und (einzelnen) Verbrauchern. Sie zeigt zudem große Ähnlichkeit mit der
Formulierung, die das Ministerkomitee im Anhang einer Empfehlung3 zur Ausle-
gung der Europäischen Datenschutzkonvention von 1981 (bekannt als „Konvention
108“)4 an die Mitgliedstaaten des Europarats verwendet hat. Proling wird dort
beschrieben als „ein Verfahren der automatisierten Verarbeitung von Daten, das
darin besteht, einer natürlichen Person ein ‚Prol‘ zuzuordnen, um insbesondere
Entscheidungen in Bezug auf ihre Person zu treffen oder um ihre persönlichen Vor-
lieben, Verhaltensweisen und Einstellungen zu analysieren oder vorherzusagen“.5
Proling ist demnach ein Verfahren, in dem personenbezogene Daten i. S. v.
Art.4 Nr.1 DSGVO automatisiert verarbeitet werden, um persönliche Aspekte einer
natürlichen Person zu bewerten. Nur eine automatisierte Verarbeitung personenbe-
zogener Daten kann unter diese Legaldenition subsumiert werden, obwohl der
sachliche Anwendungsbereich der Datenschutz-Grundverordnung auch bei der nicht
automatisierten Verarbeitung personenbezogener Daten eröffnet ist, sofern diese
gem. Art.2 I DSGVO „in einem Dateisystem gespeichert sind oder gespeichert wer-
den sollen.“ Eine rein manuelle Verknüpfung der Daten zwecks Bewertung persön-
licher Aspekte stellt also noch kein Proling im Sinne der Verordnung dar.6
b. Mögliche Ergebnisse
Die Spannbreite der so generierbaren Erkenntnisse und Beurteilungen ist äußerst
weit, wie die nicht abschließende7 („insbesondere“) Auistung von Regelbeispie-
len zeigt. Der Wortlaut von Art.4 Nr.4 DSGVO deutet darauf hin, dass eine derar-
tige Bewertung persönlicher Aspekte entweder einen aktuellen Status beschreibt
(„analysieren“) oder eine in die Zukunft gerichtete Vorhersage trifft („vorherzusa-
gen“). Die Legaldenition der Datenschutz-Grundverordnung stellt von ihrem
3 Empfehlung CM/Rec(2010)13 des Ministerkomitees an die Mitgliedstaaten über den Schutz des
Menschen bei der automatischen Verarbeitung personenbezogener Daten im Zusammenhang mit
Proling.
4 Übereinkommen zum Schutz des Menschen bei der automatischen Verarbeitung personenbezoge-
ner Daten (Konvention Nr.108) vom 28.1.1981, BGBl. 1985 II, S.539. Das Ministerkomitee des
Europarats hat 2018 eine modernisierte Fassung dieses Übereinkommens angenommen („Konven-
tion 108+“). Diese muss noch von einer ausreichenden Zahl an Staaten ratiziert werden, bevor sie
in Kraft tritt. Vgl. Simitis/Hornung/Spiecker gen. Döhmann, in: dies. (Hrsg.), Datenschutzrecht,
2019, Einl. Rn.111–115.
5 Nichtamtliche Übersetzung aus dem Französischen, abrufbar unter https://search.coe.int/cm/Pa-
ges/result_details.aspx?ObjectId=09000016805cdd0a (zuletzt aufgerufen am 31.3.2023).
6 Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.4 Nr.4 Rn.5 DSGVO.
7 Ders., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art. 4 Nr. 4 Rn. 7 DSGVO; Schafand/Holthaus, in: Schafand/Wiltfang (Hrsg.),
Datenschutz- Grundverordnung, EL 2/2023, Art.4 Rn.125.
Kapitel 2: Proling
11
Wortlaut her– im Gegensatz zu der Denition des Ministerkomitees– bloß auf das
eigentliche Erstellen der Bewertung ab, nicht aber auf die darauf basierenden, nach-
folgenden Entscheidungen. Inhaltlich macht dies auf den ersten Blick keinen Unter-
schied, da Proling i.S.d. Art.4 Nr.4 DSGVO keinen Selbstzweck darstellt, son-
dern vielmehr regelmäßig gerade mit dem Blick auf nachfolgende Entscheidungen
durchgeführt wird. Zu beachten ist jedoch die explizite Regulierung automatisierter
Einzelentscheidungen in Art.22 DSGVO, welche eine (rechtliche und tatsächliche)
Unterscheidung zwischen Proling einerseits und der auf Proling basierenden
Entscheidungsndung im Einzelfall (und ihrer Ausführung) andererseits nahelegt.8
Bereits die große Bandbreite an Regelbeispielen des Art.4 Nr.4 DSGVO zeigt,
dass der Begriff Proling die Bewertung inhaltlich ganz verschiedener und unter-
schiedlich komplexer persönlicher Aspekte umfassen soll.9 Der Anwendungsbe-
reich der Legaldenition ist damit bewusst weit gewählt. Angesichts der genannten,
teilweise sehr speziellen Aspekte („Aufenthaltsort“, „Ortswechsel“) wird deutlich,
dass nicht nur die Erstellung von umfassenden, detaillierten Persönlichkeitsprolen
unter diesen Begriff subsumiert werden kann. Auch simpler gehaltene Bewertungen
können das Ergebnis von Proling sein.10 Es ist wichtig, bereits an dieser Stelle
festzuhalten, dass der Wortlaut des Art.4 Nr.4 DSGVO deutlich macht, dass Pro-
ling (auch bei den vermeintlich völlig objektiven persönlichen Aspekten „Aufent-
haltsort [und] Ortswechsel“) nicht dazu verwendet wird, persönliche Aspekte
schlicht objektiv festzustellen. Es ist charakteristisch für Proling im Sinne der
Datenschutz- Grundverordnung, dass eine Bewertung generiert wird. Dies geschieht
entweder dergestalt, dass bekannte persönliche Aspekte analysiert werden („um As-
pekte (…) zu analysieren“) oder dass sie vorhergesagt werden („um Aspekte (…)
vorherzusagen“). Es geht damit sowohl um eine analytische Bewertung der Gegen-
wart als auch um das Treffen von Vorhersagen über persönliche Aspekte mit Blick
auf die Zukunft. In beiden Konstellationen wird versucht, vom Bekannten auf das
Unbekannte zu schließen.
Moderne Smartphones sind beispielsweise häug mit einer Vielzahl von Senso-
ren ausgestattet und damit in der Lage, ganz verschiedene Arten von Daten zu erhe-
ben. In aller Regel sind in ihnen GPS-Tracker, Beschleunigungsmesser, Umge-
bungslichtmesser, Kompasse, Gyroskope und weitere Sensoren enthalten, die es
erlauben, Informationen über den Nutzer und seine Umwelt aufzuzeichnen.11 Die
Sammlung und Auswertung von mittels Smartphones gesammelten Daten haben
eine bedeutende Rolle bei der Entwicklung der datengetriebenen Wirtschaft ge-
spielt und zahlreiche Innovationen ermöglicht.12 Auch andere Produkte des Internet
of Things („Internet der Dinge“)– also solcher Alltagsgegenstände, die mit Senso-
8 Siehe dazu unten Kap. 4, III.
9 Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.4 Nr.4 Rn.7 DSGVO.
10 Vgl. Greenstein, Our Humanity exposed, 2017, S.42f.
11 Peppet, Tex. L. Rev. 93 (2014), 85, 114f.; Tene/Polonetsky, Nw. J.Tech. & Intell. Prop. 11
(2013), 239, 247.
12 Tene/Polonetsky, Nw. J.Tech. & Intell. Prop. 11 (2013), 239, 247.
I.Denition
12
ren ausgestattet sind und das Sammeln großer Mengen personenbezogener Daten
ermöglichen– erlauben generell eine umfassende Prolbildung Einzelner, vor al-
lem durch das Zusammenführen von Daten aus verschiedenen Quellen (sog. Data
Fusion).13 Das bloße Sammeln der Daten als solches stellt aber noch kein Proling
dar, da damit keine Bewertung einhergeht. Vielmehr handelt es sich um ein zunächst
wertneutrales Erfassen von Informationen. Allerdings erlauben diese Sensordaten
es auch– vor allem in ihrer Kombination bzw. durch das Zusammenführen mit Da-
ten aus anderen Quellen –, eine Bewertung einer Person in Form einer Analyse bzw.
einer Vorhersage zu erstellen.14 Es ist mit den heutigen Mitteln der automatisierten
Datenverarbeitung z.B. durchaus möglich, durch Auswertung der Sensoren auf de-
mograsche Eigenschaften des Handynutzers (wie z.B.Geschlecht, Ehestand, Al-
ter etc.)15 oder auf seine Gesundheit, sein allgemeines Wohlbenden und weitere
persönliche Aspekte zu schließen.16 Erwägungsgrund 30 der Datenschutz- Grund-
verordnung führt zutreffend beispielhaft aus, dass auch IP-Adressen, Cookies und
Funkfrequenzkennzeichnungen in Verbindung mit weiteren Informationen zur Bil-
dung von Prolen herangezogen werden können.17
Ausgehend von den genannten Beispielen bezieht sich Proling zum einen auf
Eigenschaften, auf die der Betroffene keinen oder nur bedingten Einuss hat, wie
z.B. die „Gesundheit, persönliche Vorlieben [und] Interessen“. Zugleich wird das
bewusst steuerbare „Verhalten“ des Betroffenen genannt, wobei „Aufenthaltsort
[und] Ortswechsel“ als Beispiele für ein solches Verhalten verstanden werden können.
c. Einsatzgebiete
Proling kommt beispielsweise zur Anwendung, wenn Anbieter von Online-Shops
das Verhalten ihrer Nutzer erfassen und anhand der gesammelten Daten automati-
siert individuelle Kundenprole erstellen.18 Ausgehend von diesen Prolen gestal-
ten sie die weitere Interaktion mit den Betroffenen aus, idealerweise genau
abgestimmt auf die jeweils erkannten Vorlieben, Eigenschaften und Verhaltensmus-
ter.19 Proling kann damit als Teilaspekt des sog. Customer Relationship Manage-
13 Ezrachi/Stucke, Virtual Competition, 2016, S.20.
14 Peppet, Tex. L.Rev. 93 (2014), 85, 115f.
15 Zhong/Tan/Mo u.a., Pervasive and Mobile Computing 9 (2013), 823, 834.
16 Peppet, Tex. L.Rev. 93 (2014), 85, 115f.
17 Hintergrund dieses Erwägungsgrundes ist aber primär die Frage, ob derlei Daten personenbezo-
gen sind i.S.d. Art.4 Nr.1 DSGVO. Über die rechtliche Zulässigkeit von Prolbildungen trifft er
keine Aussage, vgl. Gola, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesda-
tenschutzgesetz, 32022, Art.4 Rn.44 DSGVO.
18 Kerr, in: Hildebrandt/Vries (Hrsg.), Privacy, Due Process and the Computational Turn, 2013,
S.91, 98.
19 Vgl. Ernst, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32021, Art.4 Rn.39 DSGVO und Erwägungsgrund 23 S.2 DSGVO; Kerr, in: Hildebrandt/Vries
(Hrsg.), Privacy, Due Process and the Computational Turn, 2013, S.91, 98; King/Forder, Compu-
ter Law & Security Review 32 (2016), 696, 700f.; Räuchle, Online-Proling, 2006, S.11f.
Kapitel 2: Proling
13
ments eingesetzt werden und der Optimierung des Verhältnisses zwischen Unter-
nehmer und Kunden dienen.20 Das übergeordnete Ziel ist dabei häug der Verkauf
von Gütern oder Dienstleistungen.21 Trotz der dem E-Commerce innewohnenden
Anonymität können Kunden auf diese Weise individuell angesprochen und so an
das Unternehmen gebunden werden.22 Auch dann, wenn einem Nutzer auf der
Homepage eines Online-Händlers oder per E-Mail individualisierte Kaufempfeh-
lungen präsentiert werden, die sich an der jeweiligen Kaufhistorie orientieren, liegt
Proling vor: Anhand automatisierter Verarbeitung der vorliegenden Informationen
über getätigte Käufe wurde ein mögliches Interesse an bestimmten Produkten er-
kannt und für eine Werbeansprache genutzt (sog. Online Behavioural Advertise-
ment).23 Ähnlich verhält es sich bei Streamingdiensten für Musik und Videos im
Internet. Deren Kunden erhalten, ausgehend von ihrem bisherigen Nutzungsverhal-
ten, als Teil der Dienstleistung individualisierte Empfehlungen, z.B. für den Abruf
bestimmter Filme oder Musikstücke.24 Die Vorlieben ihrer Nutzer zutreffend vor-
herzusagen, ist für die Anbieter solcher Streamingdienste ein wichtiger Teil ihres
Geschäftsmodells.25 Proling kommt im privatwirtschaftlichen Bereich auch für
Zwecke der Risikominimierung zum Einsatz und hilft beispielsweise beim Aufde-
cken von Betrugsversuchen und der Verikation der Identität von Kunden.26 Es wird
von zahlreichen Unternehmen aus verschiedenen Bereichen eingesetzt, vor allem
von den Betreibern von Suchmaschinen und sozialen Netzwerken, Online- Händlern,
Werbeunternehmen und Telefonanbietern.27
d. Fallbeispiel: Google/CNIL 2019
Ein anschauliches Beispiel für Proling und die zugrunde liegenden Methoden ent-
halten die Feststellungen, die die französische Datenschutzbehörde CNIL (Com-
mission Nationale de lInformatique et des Libertés) im Rahmen eines Bußgeldver-
fahrens gegen Google getroffen hat. Die CNIL hat im Januar 2019 gegen die Google
LLC (mit Sitz in Mountain View, Kalifornien, USA) ein Bußgeld in Höhe von
50 Mio. € wegen Verstößen gegen verschiedene Vorschriften der Datenschutz-
20 Räuchle, Online-Proling, 2006, S.11f.
21 Kerr, in: Hildebrandt/Vries (Hrsg.), Privacy, Due Process and the Computational Turn, 2013,
S.91, 101.
22 Räuchle, Online-Proling, 2006, S.12.
23 Amazon hat diese Form der Werbung in den USA bereits in den Anfangsjahren des Internethan-
dels etabliert, vgl. Härting, CR 30 (2014), 528, 529 und Tene/Polonetsky, Nw. J.Tech. & Intell.
Prop. 11 (2013), 239, 249.
24 Härting, CR 30 (2014), 528, 529.
25 Vgl. dazu z.B. Ohm, UCLA L.R.57 (2010), 1701, 1720.
26 King/Forder, Computer Law & Security Review 32 (2016), 696, 700.
27 Dies., Computer Law & Security Review 32 (2016), 696, 698. Diese nennen zudem noch „Data
Broker“ als besonders wichtige Marktteilnehmer. In Deutschland dürfte diese Form des kommer-
ziellen Datenhandels allerdings bedeutend weniger verbreitet sein als in den USA.
I.Denition
14
Grundverordnung verhängt.28 Die CNIL warf Google vor, gegen die Transparenz-
pichten der Art.12ff. DSGVO verstoßen und personenbezogene Daten mangels
wirksamer Einwilligung i.S.d. Art.6 I S.1 lit. a DSGVO ohne Rechtsgrundlage
verarbeitet zu haben. Streitgegenstand war die datenschutzrechtliche Bewertung
von personalisierter Werbung denjenigen Kunden gegenüber, welche im Kontext
der Inbetriebnahme eines Smartphones mit Android-Betriebssystem einen Google-
Acount anlegen.
Mit Blick auf die Transparenzpichten des Art.12 I DSGVO führt die CNIL aus,
dass Google Nutzerdaten aus gänzlich verschiedenen Quellen sammelt, zusammen-
führt und auswertet, um die so gewonnenen Erkenntnisse für spätere Entscheidun-
gen zu nutzen. Dabei werden Daten erhoben, welche sich auf die Nutzung des
Smartphones selbst, auf die Nutzung von Google-eigenen Diensten (etwa YouTube
und GMail) und auf die Nutzung von Webseiten Dritter beziehen, welche wiederum
über Plug-ins (wie etwa Google Analytics) mit Google verbunden sind und dorthin
Daten übermitteln.29 Die Behörde unterscheidet drei Kategorien von Daten.
Die erste Kategorie bezieht sich auf Daten, die der Nutzer selber bereitgestellt
hat. Gemeint sind damit beispielsweise der Name des Nutzers, sein Passwort, seine
Telefonnummmer, seine E-Mail-Adresse, die von ihm empfangenen Dateien (Fo-
tos, Videos etc.) und die von ihm gewählte Zahlungsweise.30 Die zweite Kategorie
enthält Daten, die bei Aktivitäten des Nutzers generiert und gesammelt werden und
über diese Auskunft geben. Beispielhaft genannt sind die dem Nutzer im Laufe der
Zeit zugewiesenen IP-Adressen, ihm zugewiesene eindeutige Kennziffern, seine
Nutzung von WLAN-Anschlüssen, die mit Bluetooth-Geräten getätigten Verbin-
dungen, sein Aufenthaltsort, technische Daten des Endgeräts (inklusive Daten, die
von Sensoren erhoben werden, wie etwa der im Smartphone enthaltene Beschleuni-
gungsmesser), die von ihm aufgerufenen Videos, von ihm getätigte Suchanfragen,
von ihm getätigte Einkäufe und von ihm genutzte Applikationen.31 Die dritte Kate-
gorie bezieht sich auf Daten, welche sich infolge von Berechnungen bzw. Schluss-
folgerungen ergeben, welche auf Daten aus den ersten beiden Kategorien aufbau-
en.32 Was die Nutzung von Daten aus der dritten Kategorie angeht, differenziert die
CNIL unter Bezugnahme auf die Verarbeitungszwecke, die in der von Google ver-
wendeten Datenschutzerklärung aufgelistet sind. Sie geht zum einen davon aus,
dass Google die Analysen durchführt, um personalisierte Werbung für Dritte anbie-
ten zu können. Zugleich werden die Analyseergebnisse aber auch herangezogen,
um Suchergebnisse, Inhalte und Empfehlungen für die Nutzer zu personalisieren.33
Sie macht damit deutlich, dass verschiedene Zwecke verfolgt werden: Eine indi-
rekte Kommerzialisierung der Daten (durch Verkauf der Werbeplätze an Dritte) ei-
28 Deliberation of the Restricted Committee SAN-2019-001 of 21 January 2019 pronouncing a -
nancial sanction against GOOGLE LLC (im Folgenden „Beschluss CNIL“).
29 Beschluss CNIL, S.15 Rn.106.
30 Beschluss CNIL, S.15 Rn.108.
31 Beschluss CNIL, S.15 Rn.108.
32 Beschluss CNIL, S.15f. Rn.108.
33 Beschluss CNIL, S.15f. Rn.108.
Kapitel 2: Proling
15
nerseits, eine Verbesserung der eigenen Dienste andererseits. Die Behörde führt aus,
dass die von Google ausgewerteten Daten intime, präzise Rückschlüsse auf das Pri-
vatleben der Betroffenen erlauben, wie etwa auf ihren Geschmack, ihre Lebens-
weise, ihre Meinungen und ihre sozialen Kontakte.34 Wertend fasst sie dies wie folgt
zusammen: „The result of the combination of this data as a whole greatly reinforces
the extensive and intrusive nature of the processing in question.“35
Die Daten der dritten Kategorie sind das typische Ergebnis von Proling: Perso-
nenbezogene36 Daten werden analysiert, um aus ihnen eine Beurteilung der persön-
lichen Aspekte einer natürlichen Person, in diesem Fall des Android-Nutzers, zu
generieren. Das so geschaffene, „neue“ Wissen wird genutzt, um den Betroffenen
personalisiert anzusprechen, sei es mittels Werbung oder mittels personalisierter
Dienstleistungserbringung. Der hier diskutierte Google-Fall macht deutlich, wie di-
vers das Ausgangsmaterial des Prolings im Online-Bereich sein kann: Die heran-
gezogenen Daten stammen aus verschiedenen Quellen und beziehen sich auf ganz
unterschiedliche Lebensbereiche der Nutzer. Und auch die so generierten Ergeb-
nisse sind denkbar breit: Personalisierte Werbung bezieht sich auf Produkte und
Dienstleistungen aus den unterschiedlichsten Bereichen. Das (erkennbar erfolgrei-
che) Geschäftsmodell von Google ist es u.a., Nutzern die Werbung von passenden
Werbetreibenden anzuzeigen. Dies funktioniert wiederum nur, weil Google in der
Lage ist, personalisierte Dienste verschiedener Art anzubieten. Erst eine ausdiffe-
renzierte Zuordnung, aufbauend auf den Erkenntnissen des Prolings, macht dies
möglich.
2. Scoring als Unterfall des Prolings
Im Zusammenhang mit dem Begriff Proling tritt häug der des Scorings auf. Auch
für diesen gibt es in Wissenschaft und Praxis keine einheitliche Denition.37 Typi-
scherweise wird der Begriff Scoring – ausgehend von seinem Ursprung im
Englischen– verwendet, wenn das Ergebnis eines Proling-Verfahrens in stark ver-
einfachter und abstrahierter Form als bloßer Zahlenwert dargestellt wird.38 Auch die
automatisierte Einordnung des Betroffenen in eine bestimmte Risikogruppe kann
eine Form des Scorings darstellen. Zudem kommt dieser Begriff in der Regel eher
dann zum Einsatz, wenn es um die Vorhersage des (bewusst steuerbaren) Verhaltens
34 Beschluss CNIL, S.16 Rn.109.
35 Beschluss CNIL, S.16 Rn.109.
36 Da die Daten in diesem Fall stets einem konkreten Nutzer-Prol zugewiesen wurden, steht ihr
Personenbezug i.S.d. Art.4 Nr.1 DSGVO außer Frage. Er wurde weder von Google noch von der
CNIL angezweifelt.
37 Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein (ULD), Scoringsysteme zur
Beurteilung der Kreditwürdigkeit, 2005, S.10.
38 Schafand/Holthaus, in: Schafand/Wiltfang (Hrsg.), Datenschutz-Grundverordnung, EL
2/2023, Art.4 Rn.125.
I.Denition
16
eines Menschen geht und nicht um seine (nicht oder nur bedingt beeinussbaren)
persönlichen Eigenschaften.39 Eine trennscharfe Abgrenzung der beiden Begriffe
kann im Rahmen dieser Arbeit dahingestellt bleiben, da Scoring im privatwirt-
schaftlichen Bereich nach hiesiger Denition immer einen Unterfall des Prolings
darstellt.40
Je nach Sektor, Verwendungszweck, Verwender etc. kommen verschiedene Arten
von Scoring-Modellen zum Einsatz.41 In den USA ist Scoring aufgrund der traditi-
onell deutlich laxeren Datenschutzgesetzgebung42 etablierter und institutionalisier-
ter als in Deutschland. Data Broker und weitere privatwirtschaftliche Unternehmen
treiben dort mit personenbezogenen Daten und Verbraucherprolen Handel und
bieten darauf bezogene Dienstleistungen in den verschiedensten Bereichen an.43
Manche Data Broker verkaufen z.B.Score-Werte, die Auskunft darüber geben, wie
wahrscheinlich es ist, dass bestimmte Kunden eines Unternehmens auf Werbean-
sprachen reagieren.44 Andere Scores geben Auskunft darüber, wie wahrscheinlich es
ist, dass eine Briefzustellung an eine bestimmte Adresse fehlschlägt, andere darü-
ber, wie stark der Einuss einer bestimmten Person auf andere Menschen in den
39 Vgl. Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein (ULD), Scoringsysteme
zur Beurteilung der Kreditwürdigkeit, 2005, S.10–12.
40 So auch Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.22 Rn.22 DSGVO; Härting, ITRB 2016, 209; Schafand/Holthaus, in:
Schafand/Wiltfang (Hrsg.), Datenschutz-Grundverordnung, EL 2/2023, Art. 4 Rn.125; Schild,
in: Wolff/Brink (Hrsg.), Beck’scher Online-Kommentar Datenschutzrecht, 43. Edition (Stand:
1.2.2023), Art.4 Rn.64 DSGVO.
41 Vgl. Hurley/Adebayo, Yale J.L. & Tech. 18 (2016), 148, 155.
42 Die USA kennen kein allgemeines Datenschutzrecht auf Bundesebene. Es gibt allerdings eine
sektorspezische Datenschutzregulierung, die durchaus sehr detailliert sein kann und von den zu-
ständigen Behörden– etwa der Federal Trade Commission– konsequent durchgesetzt wird. Zu-
dem kommen bei Sachverhalten, welche nach europäischem Verständnis datenschutzrechtlich re-
levant sind, teilweise verbraucherschutzrechtliche Generalklauseln zur Anwendung. Vgl. dazu
Schwartz, Harv. L.Rev. 126 (2013), 1966, 1973–1979.
Wenn es um die Erstellung von Berichten über bzw. die Bewertung von Verbrauchern zu be-
stimmten kommerziellen Zwecken anhand personenbezogener Daten geht, ist ggf. der Fair Credit
Reporting Act einschlägig. Dieser trifft einige Vorgaben, welche Consumer Reporting Agencies und
z.B. auch ihre Kunden, wie etwa Banken, befolgen müssen. Sobald dieses Bundesgesetz anwend-
bar ist, erwachsen den Beteiligten z.B.Informations- und Auskunftspichten zugunsten der Betrof-
fenen sowie die Picht, angemessene Maßnahme zu ergreifen, um die Richtigkeit der weitergege-
benen Informationen sicherzustellen. Die Frage, ob der Fair Credit Reporting Act im Einzelfall
anwendbar ist, ist aufgrund der damit einhergehenden Pichten für die betroffenen Unternehmen
sehr bedeutsam und häuger Gegenstand behördlicher und gerichtlicher Auseinandersetzung. Vgl.
dazu instruktiv Federal Trade Commission, Big Data– A Tool for Inclusion or Exclusion?, 2016,
S.13ff.; Hurley/Adebayo, Yale J.L. & Tech. 18 (2016), 148, 184ff.; Unabhängiges Landeszentrum
für Datenschutz Schleswig-Holstein (ULD), Scoringsysteme zur Beurteilung der Kreditwürdigkeit,
2005, S.148ff.
43 Federal Trade Commission, Data Brokers – A Call for Transparency and Accountability,
2014 passim.
44 Dass., Data Brokers– A Call for Transparency and Accountability, 2014, S.31.
Kapitel 2: Proling
17
sozialen Medien ist, wie z.B. auf Facebook oder Twitter.45 Auch ist es nicht unüb-
lich, dass Unternehmen Einstellungs- oder anderweitige Personalentscheidungen
u. a. auf Beurteilungen stützen, welche von externen „employment background
screening companies“ erstellt wurden, welche eine individualisierte Bewertung
über gegenwärtige oder potenzielle Arbeitnehmer erstellen. Für diesen Zweck zie-
hen sie personenbezogene Daten über den jeweiligen Betroffenen heran, die
z.B.Auskunft über frühere Arbeitsverhältnisse, die Kredithistorie des Betroffenen
oder zahlreiche weitere Faktoren geben.46 Allerdings ist unklar, in welchem Ausmaß
solche weitreichenden Datenverarbeitungen in den USA auch in Zukunft zulässig
sein werden. Verschiedene US-Bundesstaaten haben mittlerweile Datenschutzge-
setze erlassen (bzw. in Planung), deren Schutzniveau sich dem der Datenschutz-
Grundverordnung annähert.47 Nicht zuletzt aufgrund der dadurch drohenden
Rechtsfragmentierung wird in den USA mittlerweile auch eine Datenschutzregulie-
rung auf Bundesebene diskutiert.48
Einer der Hauptanwendungsfälle von Scoring ist das sog. Kredit-Scoring.49 Es
handelt sich dabei um die Berechnung eines individuellen Wahrscheinlichkeits-
werts, der Auskunft über die Bonität eines potenziellen Kreditnehmers geben soll.
Stellt ein Interessent eine Kreditanfrage bei einer Bank, entscheidet diese darüber in
aller Regel vor allem anhand eines Score-Wertes, der Auskunft über das im
konkreten Fall erwartete Zahlungsverhalten gibt.50 Dieser wird entweder von der
Bank selbst anhand unternehmensinterner Daten berechnet, oder er wird von einer
Auskunftei (wie z.B. der Schufa in Deutschland oder Equifax in den USA) bezo-
45 Dass., Data Brokers– A Call for Transparency and Accountability, 2014, S.31. Im zweiten Fall
geht es den Unternehmen darum, ihre Produkte vornehmlich bei solchen Personen zu bewerben,
bei denen die Wahrscheinlichkeit hoch ist, dass diese das jeweilige Produkt an möglichst viele
Menschen in ihrem digitalen Einussbereich weiterempfehlen.
46 In den USA ist es rechtlich grundsätzlich zulässig, auch solche Daten in die Bewertung einie-
ßen zu lassen, die augenscheinlich keinen oder nur einen indirekten Bezug zur getroffenen Bewer-
tung haben. Dazu gehören z.B. Daten, die über den Betroffenen aus sozialen Netzwerken, wie
z.B. Facebook, gewonnen wurden. Einige Arten von Informationen, wie z.B. solche über eine
Insolvenz des Betroffenen, dürfen hingegen nach Ablauf bestimmter Zeiträume nicht mehr zur
Erstellung des sog. Consumer Reports herangezogen werden. Vgl. dazu Hurley/Adebayo, Yale
J.L. & Tech. 18 (2016), 148, 189f.
47 Dazu zählen beispielsweise Virginia und Colorado. Sie folgen damit dem Vorbild Kaliforniens,
das 2018 mit dem California Consumer Privacy Act eine Vorreiterrolle eingenommen hatte. Sein
Schutzniveau wurde 2020 durch den California Privacy Rights Act weiter angehoben. Vgl. dazu
Spies, ZD-Aktuell 2021; ders., ZD-Aktuell 2020 und ders., ZD-Aktuell 2023 sowie die Übersicht
bei ders., MMR 2023, 69, 72.
48 Vgl. etwa Collum, Wash. U.Jurisprudence Rev. 13 (2021), 433ff.; Nahra, Seton Hall L.Rev. 51
(2021), 1549ff.; Weber, Corp. & Bus. L.J. 2 (2021), 188ff. und Spies, MMR 2023, 69 (zum Vor-
schlag eines American Data Privacy and Protection Act auf Bundesebene).
49 Ehmann, in: Simitis (Hrsg.), Bundesdatenschutzgesetz, 82014, §28b Rn.42.
50 Citron/Pasquale, Wash. L.Rev. 89 (2014), 1, 8–10.
I.Denition
18
gen, welche über umfassende Datensätze verfügt.51 Score-Werte sind häug in
Echtzeit verfügbar und können beispielsweise auch während einer über das Internet
getätigten Kreditanfrage bei den Auskunfteien abgefragt werden.
Die Nutzung von Scoring-Verfahren ist in der Kreditwirtschaft fest etabliert. Ihr Ein-
satz kann für seine Verwender zu einer deutlichen Zeit- und Kostenersparnis führen.52
Eine aussagekräftige und zutreffende Berechnung des Score-Werts unterstellt, können
Kreditantragsteller durch die automatisierte Vorauswahl ggf. vor Überschuldung ge-
schützt werden, da ein Kredit nur bei ausreichender Bonität gewährt wird.53 Dement-
sprechend ist bei Verbraucherdarlehensverträgen gem. §505a I S.1 BGB die Prüfung
der Kreditwürdigkeit des Antragstellers zwingend vorgeschrieben. Gem. §505a I S.2
BGB darf der Kredit nur gewährt werden, wenn diese ergeben hat, „dass bei einem
Allgemein-Verbraucherdarlehensvertrag keine erheblichen Zweifel daran bestehen und
dass es bei einem Immobiliar- Verbraucherdarlehensvertrag wahrscheinlich ist, dass der
Darlehensnehmer seinen Verpichtungen (…) vertragsgemäß nachkommen wird.“ In
§505b I, II S.1, III S.1 BGB wird explizit auf die Einbeziehung von Auskunfteien ab-
gestellt.54 Beim Kredit- Scoring geht es typischerweise aber nicht mehr nur primär da-
rum, ob dem Antragsteller ein Kredit gewährt wird. Scoring-Verfahren kommen viel-
mehr zum Einsatz, um die Konditionen des jeweiligen Kredits (Zinshöhe, Laufzeit,
Anforderung von Sicherheiten etc.) dergestalt festzulegen, dass die Bank einen mög-
lichst hohen Gewinn generiert.55 In diesem Kontext treffen Score-Werte also auch kom-
51 Dementsprechend wird unterschieden zwischen internem Scoring (durchgeführt vom Unterneh-
men selbst) und externem Scoring (Score-Werte werden von spezialisierten Auskunfteien bezo-
gen). Auch Mischformen sind geläug (Giesswein, Die Verfassungsmäßigkeit des Scoringverfah-
rens der Schufa, 2012, S. 25; vgl. auch Gola/Klug/Körffer, in: Gola/Schomerus (Hrsg.),
Bundesdatenschutzgesetz, 122015, §28b Rn.4 noch zum BDSG a.F.). In den USA sammeln sog.
Consumer Reporting Agencies (CRAs) die für die Erstellung des Score-Wertes notwendigen Daten
und treten als Auskunftei am Markt auf. Die Berechnung des konkreten Score-Wertes im Einzelfall
wird typischerweise von externen Anbietern ausgeführt (in der Regel von dem Unternehmen
FICO). Diese sammeln typischerweise selber keine Daten, sondern legen ihren Berechnungen die
von den CRAs gesammelten zugrunde (Hurley/Adebayo, Yale J.L. & Tech. 18 (2016), 148, 154f.).
52 BGH, NJW 1978, 2151, 2152.
53 Vgl. schon BGH, NJW 1978, 2151, 2152 und Taeger, ZRP 2016, 72, 73. Simitis merkt aber in
Bezug auf das Kredit-Scoring der Schufa zutreffend an, dass die Kreditvergabe dadurch nicht zu
einer „karitative[n] Leistung“ der Banken werde. Es diene in erster Linie ihren wirtschaftlichen
Interessen (Simitis, JZ 43 (1986), 188). Sehr kritisch auch Simon, der darauf hinweist, dass
Scoring- Verfahren dazu führen, dass von nanzschwachen Kreditnehmern überproportional hohe
Zinsen verlangt werden. Allgemeinwohlinteressen würden gerade nicht gefördert (Simon, CR
1988, 637, 644).
54 Dies gilt für beide genannten Arten von Verbraucherdarlehen. Dies ergibt sich bei Allgemein-
Verbraucherdarlehensverträgen direkt aus §505b I BGB.Bei Immobiliar- Verbraucherdarlehensverträgen
ergibt sich dies aus §505b III S.1 BGB: Mit den dort genannten „externen Quellen“ sind insbesondere
Auskunfteien gemeint, vgl. BT-Drucksache 18/5922, S.99. Zu den §§505aff. BGB vgl. auch instruktiv
Buck-Heeb, BKR 2023, 137ff. passim.
55 Citron/Pasquale, Wash. L.Rev. 89 (2014), 1, 10; Marron, Economy and Society 36 (2007), 103,
121f.; Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein (ULD), Scoringsysteme
zur Beurteilung der Kreditwürdigkeit, 2005, S.19 und 49. Das jeweilige individuelle Ausfallrisiko
spielt bei diesem sog. „Prot-Scoring“ häug nur eine untergeordnete Rolle.
Kapitel 2: Proling
19
plexere Aussagen, die über reine Zahlenwerte hinausgehen. In dieser speziellen Form
gewinnt der Einsatz von Proling für die Betroffenen eine ganz andere Qualität als bei-
spielsweise im Bereich der maßgeschneiderten Werbung, da die Entscheidung über die
Vergabe eines Kredites häug äußerst weitreichende Auswirkungen hat, so z.B., wenn
es um eine Existenzgründung oder um die Finanzierung einer Wohnimmobilie geht.56
Proling bzw. Scoring ndet in ähnlicher Form (und mit ähnlich weitreichenden
Folgen) bei der Berechnung von Versicherungsrisiken und bei der Bewertung der
Arbeitsleistung von potenziellen bzw. gegenwärtigen Arbeitnehmern statt.57 Teil-
weise entscheiden Unternehmen auch über den Ausspruch einer Kündigung u.a.
mithilfe solcher datengestützten Analysen.58 Auch Vermieter können bestimmte Sco-
ring-Verfahren nutzen, anhand derer die Seriosität von Mietinteressenten bestimmt
wird. In diese Bewertung ießt nicht etwa nur die Zahlungsfähig- bzw. -willigkeit
des Mieters ein. Auch die Wahrscheinlichkeit, dass er Schäden am Mietobjekt verur-
sacht oder sich einer Kündigung widersetzt, wird dabei berücksichtigt.59 Scoring
kommt auch zum Einsatz, wenn einem (potenziellen) Käufer am Ende eines On-
line-Kaufvorganges nach Eingabe seines Namens und seiner Adressdaten in Abhän-
gigkeit vom Ergebnis einer in Echtzeit durchgeführten Bonitätsprüfung verschiedene
Bezahlmöglichkeiten angeboten werden (z.B. nur Vorkasse bei niedriger, Lieferung
auf Rechnung bei hoher Bonität).60
Trotz ihres hohen Abstraktionsgrads und der damit einhergehenden Vereinfachung
wird Score-Werten häug eine große Bedeutung zugesprochen, wenn es darum geht,
bestimmte, teilweise hochkomplexe Entscheidungen zu treffen. Dies mag daran liegen,
dass die Verwendung von Score-Werten die Erstellung von Ranglisten erleichtert und
damit das Fällen von Entscheidungen (vermeintlich) objektiviert.61 Auch die hohe Ver-
breitung von Distanzgeschäften mag hierbei eine Rolle spielen: Der institutionalisierte
Einsatz von einfachen und schnell verfügbaren individualisierten Bewertungen kann
dazu dienen, das hohe Maß an Anonymität im Internet aus Sicht beispielsweise von
Online-Händlern zumindest teilweise zu kompensieren.62
56 Citron/Pasquale, Wash. L.Rev. 89 (2014), 1, 8.
57 Sprague, Rich. J.L. & Tech. 21 (2014), 1, 31; Weichert, ZRP 2014, 168.
58 Sprague, Rich. J.L. & Tech. 21 (2014), 1, 31.
59 Ehmann, in: Simitis (Hrsg.), Bundesdatenschutzgesetz, 82014, §28b Rn.42.
60 Born, ZD 2015, 66, 67; Deuster, PinG 4 (2016), 75; Unabhängiges Landeszentrum für Datenschutz
Schleswig-Holstein (ULD), Scoringsysteme zur Beurteilung der Kreditwürdigkeit, 2005, S.19.
61 Vgl. Weichert, ZD 2013, 251, 255.
62 Möller/Florax, MMR 2002, 806. Vgl. auch Weichert, ZRP 2014, 168, 169.
I.Denition
20
II.Technische und methodische Hintergründe
Proling erlaubt es, persönliche (menschliche) Aspekte i.S.v. Art.4 Nr.4 DSGVO
zu einem gewissen Ausmaß zu analysieren und vorherzusagen. Der weit verbreitete
Einsatz dieser Verfahren in der Privatwirtschaft zeigt, dass die durch Proling gene-
rierten Ergebnisse zumindest so aussagekräftig sind, dass es sich im Ergebnis lohnt,
auf sie zurückzugreifen. Im Folgenden wird Proling in seinen technischen Kontext
eingeordnet und analysiert, welche Ideen und Konzepte dahinterstehen.
Proling wird zu ganz verschiedenen Zwecken und in ganz verschiedenen Bereichen
eingesetzt. Die Verfahren, die dabei zum Einsatz kommen, weisen recht große methodi-
sche Unterschiede auf. Trotz dieser Unterschiede kann bereits an dieser Stelle festgehal-
ten werden, dass vergleichbare interne Abläufe und weitere strukturelle Ähnlichkeiten
und Gemeinsamkeiten erkennbar sind. Die Legaldenition von Proling in Art.4 Nr.4
DSGVO wurde insoweit technologieneutral formuliert: Die Art und Weise, mit der „per-
sönliche Aspekte“ im Rahmen von Proling bewertet werden, wird nicht näher deniert;
vor allem wird nicht auf bestimmte Methoden abgestellt.63 Die Norm verwendet stattdes-
sen den neutralen Begriff der „automatisierten Verarbeitung personenbezogener Daten“
und verweist damit auf in Art.4 Nr.1 und 2 DSGVO legaldenierte, allgemeine Termini.
Die Datenschutz- Grundverordnung beschreibt Proling somit von seinem Zweck her,
also mit dem Blick auf die Erkenntnisse, die die Verwender der Verfahren zu nden
suchen.64
1. Knowledge Discovery inDatabases
Proling basiert auf der Vorstellung, dass sich die Eigenschaften und das Verhalten
eines Menschen dadurch berechnen und vorhersagen lassen, dass gewisse über ihn
bekannte persönliche Aspekte mit den Eigenschaften und dem (früheren) Verhalten
anderer Menschen in Bezug gesetzt und mit diesen verglichen werden.65 Es wird
dabei unterstellt, dass Menschen, die sich ähnlich sind, sich in der Regel auch ähn-
lich verhalten und ggf. auch mit Blick auf andere Eigenschaften einander ähnlich
sind. Dies lässt bereits ahnen, dass zur Durchführung von Proling-Verfahren zu-
nächst eine gewisse, große Menge an Vergleichsdaten vorhanden sein muss, welche
Auskunft über Eigenschaften und Verhalten von realen Menschen und weitere Zu-
sammenhänge aus der Vergangenheit geben. Zu denken ist hier beispielsweise an
63 Erwägungsgrund 15 DSGVO führt diesbezüglich aus, dass technologieneutraler Schutz auch
notwendig ist, um Umgehungen zu vermeiden.
64 Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art. 4 Nr. 4 Rn. 6 DSGVO; Martini, in: Paal/Pauly (Hrsg.), Datenschutz-
Grundverordnung/Bundesdatenschutzgesetz, 32021, Art.22 Rn21a DSGVO.
65 Vgl. Härting, CR 30 (2014), 528, 529; Unabhängiges Landeszentrum für Datenschutz Schleswig-
Holstein (ULD), Scoringsysteme zur Beurteilung der Kreditwürdigkeit, 2005, S.10.
Kapitel 2: Proling
21
Daten über das Kaufverhalten von Kunden eines Supermarktes, über die Vertrags-
treue von Kreditnehmern und über das Konsumverhalten der Nutzer von Streaming-
diensten.
Das Generieren von (zumindest potenziell) nutzbringendem Wissen und das
Aufnden von neuen Informationen und Erkenntnissen in unverarbeiteten Daten
mit dem Ziel, anhand des Gefundenen Entscheidungen zu fällen, wird generell als
Knowledge Discovery in Databases (KDD) beschrieben.66 Bei diesem Prozess wer-
den verschiedene Arbeitsschritte durchlaufen. Fayyad et. al. unterteilen KDD bei-
spielsweise in fünf Abschnitte: Auswahl der zu verarbeitenden Daten aus einem
gegebenen Datenbestand, Vorverarbeitung der Daten, Umwandlung der Daten,
Data Mining und (menschliche) Interpretation der gefundenen Ergebnisse.67 KDD
wird eingesetzt, um das so gefundene Wissen nutzbringend einzusetzen. In der Re-
gel geht es dabei um das Fällen von Entscheidungen oder um Risikomanagement.68
Proling nach dem Verständnis der Datenschutz-Grundverordnung stellt also auch
einen Fall des KDD dar: Im Rahmen von Proling werden nämlich ebenso vorhan-
dene Daten herangezogen und mit dem Ziel verarbeitet, nützliche Erkenntnisse zu
generieren, die bei der Interaktion mit dem Betroffenen verwendet werden sollen.69
Grundvoraussetzung für den Einsatz von Proling-Verfahren ist zunächst die
Möglichkeit des Zugriffs auf große Datenbestände in Datenbanken oder sog. Data
Warehouses.70 Es ist wichtig, dass ein möglichst großer Satz an auswertbaren Daten
vorliegt, welche zutreffend vor allem über Eigenschaften und Verhalten von natürli-
chen Personen, aber auch über weitere damit zusammenhängende relevante Infor-
mationen Auskunft geben. Die Identität derjenigen, deren Daten ausgewertet wer-
den, ist an dieser Stelle des Verfahrens grundsätzlich irrelevant.71 Ausgehend von
dem 5-stugen Modell von Fayyad et. al. ndet danach eine Vorverarbeitung und
66 Custers, in: Custers/Calders/Schermer u.a. (Hrsg.), Discrimination and Privacy in the Informa-
tion Society, 2013, S.3, 7; Colonna, Legal Implications of Data Mining, 2016, S.49; National
Research Council, Protecting individual Privacy in the Struggle against Terrorists, 2008, S.188.
Vgl. auch die Denition bei Fayyad/Piatetsky-Shapiro/Smyth, AI Magazine 17 (1996), 37, 40f.:
„KDD is the nontrivial process of identifying valid, novel, potentially useful, and ultimately under-
standable patterns in data“.
67 Fayyad/Piatetsky-Shapiro/Smyth, AI Magazine 17 (1996), 37, 41. Einige gehen davon aus, dass
Fayyad selber KDD als Verfahren etabliert hat, vgl. Zarsky, Yale J.L. & Tech. 5 (2002–2003), 1, 7.
68 Colonna, Legal Implications of Data Mining, 2016, S.71 und 103.
69 Vgl. Schermer, Computer Law & Security Review 27 (2011), 45.
70 Data Warehouses sind spezielle Datenbanken, die aus verschiedenen Quellen gerade für den
Zweck der Auswertung der darin enthaltenen Daten zusammengestellt wurden. Die darin enthalte-
nen Daten sind von hoher Qualität und systematisch geordnet. Es geht dabei nur um das Sammeln
und Speichern der Daten im Vorfeld von Data Mining, noch nicht aber um ihre eigentliche Aus-
wertung. Data Mining kann anhand von Daten aus einem Data Warehouse, aber auch anhand von
Daten aus anderen Quellen durchgeführt werden, vgl. Colonna, Legal Implications of Data Mi-
ning, 2016, S.60f. und Zarsky, Yale J.L. & Tech. 5 (2002–2003), 1, 8.
71 Vgl. Council of Europe, The Protection of Individuals with Regard to automatic Processing of
personal Data in the Context of Proling, 2011, S.25 Rn.39.
II.Technische und methodische Hintergründe
22
Nutzbarmachung der Daten statt. Es handelt sich hierbei um technische Zwischen-
schritte, die notwendig sind, um die nutzbringende Auswertung der in den Daten
enthaltenen Informationen überhaupt erst zu ermöglichen.72
2. Data Mining
Der eigentliche Erkenntnisgewinn erfolgt erst im Rahmen des sog. Data Minings.
Dies ist ein besonders wichtiger, für die Gewinnung nutzbarer Ergebnisse essenzi-
eller Verarbeitungsschritt. Data Mining bezeichnet das automatisierte Durchforsten
riesiger Datenbestände mit dem Ziel, darin bis dato unbekannte, dem menschlichen
Betrachter nicht ohne Weiteres erkennbare Muster, Modelle und Trends zu erken-
nen und darzustellen.73 Fulda fasst dieses Verfahren prägnant zusammen: „Data
mining is the intelligent search for new knowledge in existing masses of data.“74
Die besonders große Menge an Daten, die beim Data Mining zum Einsatz kom-
men, erlaubt es häug, Zusammenhänge und Korrelationen offenzulegen, die sonst
nicht bekannt geworden wären.75 Vor der Datenverarbeitung ist teilweise noch gar
nicht klar, was für eine Art von Erkenntnis gewonnen werden wird und wofür sie
nützlich sein könnte.76 Data Mining kann somit eingesetzt werden, um in Datenbe-
ständen gänzlich unbekannte, neue Zusammenhänge zu nden.77 Darüber hinaus
wird es auch eingesetzt, um Vermutungen zu verizieren, so z.B., wenn bereits ein
Verdacht besteht, dass gewisse Zusammenhänge bestehen.78
Data Mining wird mittels verschiedener technischer Verfahren und mit verschie-
denen Zwecksetzungen durchgeführt.79 Pattern Recognition, also das Aufdecken
verschiedener Arten von Mustern in Datensätzen, ist mit die wichtigste beim Data
Mining zum Einsatz kommende Methode und prägt diesen Begriff.80 Data Mining
72 Zarsky, Yale J.L. & Tech. 5 (2002–2003), 1, 8.
73 Colonna, Legal Implications of Data Mining, 2016, S.66; Zarsky, U.Ill. L.Rev. 2013, 1503,
1517 Fn. 84.
74 Fulda, Alb. L.J.Sci. & Tech. 11 (2000), 105, 106.
75 Vgl. Colonna, Legal Implications of Data Mining, 2016, S.64f.
76 Vgl. Zarsky, Yale J.L. & Tech. 5 (2002–2003), 1, 3f.
77 Custers, in: Custers/Calders/Schermer u.a. (Hrsg.), Discrimination and Privacy in the Informa-
tion Society, 2013, S.3, 9.
78 Die erstgenannte Herangehensweise wird als data-driven approach bezeichnet, da ausgehend
von den Zusammenhängen, die in den Daten gefunden werden, neue Theorien entwickelt werden.
Die zweite Herangehensweise wird als theory-driven approach bezeichnet, weil die Daten genutzt
werden, um eine bestimmte These zu verizieren. Siehe dazu ders., in: Custers/Calders/Schermer
u.a. (Hrsg.), Discrimination and Privacy in the Information Society, 2013, S.3, 9.
79 Colonna, Legal Implications of Data Mining, 2016, S.66.
80 Dieser Begriff bezieht sich grundsätzlich auch auf Mustererkennung, die nicht von Computern,
sondern von Menschen ausgeführt wird, vgl. dies., Legal Implications of Data Mining, 2016, S.54.
Kapitel 2: Proling
23
und Pattern Recognition können aber nicht synonym verwendet werden, da die
Methoden des Data Minings über das bloße Erkennen von Mustern hinausgehen.81
Pattern Recognition ist damit begrifich enger als Data Mining.
In der Literatur werden zwei verschiedene grundsätzliche Ansätze unterschie-
den: „Descriptive“ und „Predictive“ Data Mining. Die beim Descriptive Data Mi-
ning zum Einsatz kommenden Methoden dienen dazu, dem Verwender ein vertief-
tes Verständnis über die Struktur großer Datensätze zu vermitteln, indem ihm zuvor
unbekannte Zusammenhänge und Regeln offengelegt werden, welche dem mensch-
lichen Betrachter ansonsten verborgen geblieben wären.82 Die so erstellte, automa-
tisierte Beschreibung bzw. Strukturierung der Daten ist der eigentliche Zweck des
Descriptive Data Mining. Es soll dem Verwender durch Verständnis der Strukturen
die Möglichkeit an die Hand gegeben werden, anhand der gewonnen Erkenntnisse
z.B. zu planen oder Ressourcen möglichst efzient einzusetzen.83 Der Verwender
dieser Verfahren setzt dem Computer zwar gewisse Vorgaben bei der Sortierung der
Daten. Beim Descriptive Data Mining gibt es aber kein Ziel, welches über die Be-
schreibung des Datensets und der darin enthaltenen Zusammenhänge und Regeln
hinausgeht. Beim Predictive Data Mining hingegen wird bereits vorhandenes Wis-
sen herangezogen, um Vorhersagen über unbekannte Fälle zu treffen. Dem Compu-
ter kann beispielsweise „beigebracht“ werden, dass das Vorliegen bestimmter per-
sönlicher Eigenschaften mit einer gewissen Wahrscheinlichkeit darauf schließen
lässt, dass noch eine weitere persönliche Eigenschaft vorliegt.84 Ziel ist hier also ein
Datenabgleich, der Vorhersagen erlaubt.85
Die Legaldenition von Proling in der Datenschutz-Grundverordnung erfasst
ohne Weiteres beide Kategorien des Data Minings. Descriptive Data Mining kann
als „Analyse persönlicher Aspekte“ und Predictive Data Mining als „Vorhersage
persönlicher Aspekte“ i.S.d. Art4 Nr.4 DSGVO subsumiert werden. Eine trenn-
scharfe Unterscheidung wäre mit Blick auf die Praxis auch kaum realisierbar: Sehr
häug werden Descriptive und Predictive Data Mining nämlich in Kombination
angewendet. Dies gilt vor allem, wenn Descriptive Data Mining Erkenntnisse her-
vorbringt, welche im Rahmen des Predictive Data Minings fruchtbar gemacht wer-
den. Amazon beispielsweise bietet, neben zahlreichen anderen Unternehmen, als
Teil seiner Server-Dienstleistungen Cloud-Computing-Dienste für Dritte an und
analysiert in diesem Rahmen die Kundendaten seiner Kunden: „The service uses
powerful algorithms to create [machine learning] models by nding patterns in
your existing data. Then, Amazon Machine Learning uses these models to process
new data and generate predictions for your application. Amazon Machine Learning
is highly scalable and can generate billions of predictions daily, and serve those
81 Dies., Legal Implications of Data Mining, 2016, S.54.
82 Schermer, Computer Law & Security Review 27 (2011), 45, 46.
83 Ders., Computer Law & Security Review 27 (2011), 45, 46.
84 Ders., Computer Law & Security Review 27 (2011), 45, 46. Dementsprechend werden Descrip-
tive Data Mining und Predictive Data Mining auch als Unsupervised Data Mining resp. Supervi-
sed Data Mining bezeichnet.
85 Ders., Computer Law & Security Review 27 (2011), 45, 46.
II.Technische und methodische Hintergründe
24
predictions in real-time and at high throughput.“86 Ausgehend von in den Daten
gefundenen Mustern können z.B. vermutete Betrugsfälle abgewendet und Trends
aufgedeckt werden. Das Verfahren dient auch dazu, herauszunden, welche Präfe-
renzen die jeweiligen Kunden im Einzelfall haben.87 Die Güte dieser Analysen
steigt, je mehr Daten analysiert werden.88 Dies kommt Amazon bzw. dem jeweiligen
Anbieter der Cloud-Computing-Dienste zugute und macht sie für seine Kunden zu-
gleich immer attraktiver.89
Der Begriff Data Mining sollte immer im Kontext des KDD betrachtet werden. Er
bezieht sich bloß auf das automatisierte Durchsuchen der Datensätze als solches. Die
anderen Arbeitsschritte, wie z.B.Auswahl und Vorsortierung bzw. Vorverarbeitung der
zu durchsuchenden Daten, Interpretation der Ergebnisse, Entscheidung über das weitere
Vorgehen etc., fallen nicht unter den Begriff des Data Minings.90 Damit wird auch deut-
lich, dass Data Mining nur im Zusammenwirken mit den vor- und nachgelagerten
Schritten des KDD nutzbringende Erkenntnisse produzieren kann.91
Beim Einsatz von Data Mining kommen verschiedene methodische Herange-
hensweisen zum Einsatz. Auch wenn die jeweiligen Verfahren auf unterschiedliche
Art und Weise ablaufen, geht es im Kern immer darum, aus der Auswertung des
Vergangenen auf unbekannte Zustände der Gegenwart oder der Zukunft zu schlie-
ßen. Im Folgenden werden beispielhaft zwei Methoden des Data Minings darge-
stellt, die häug eingesetzt werden, um Proling durchzuführen.
a. Clustering
Eine im Rahmen von Data Mining geläuge Methode ist das sog. Clustering.92
Hierbei werden die vorhandenen (und für die weitere Verarbeitung vorbereiteten)
Datensets mit statistischen Methoden daraufhin untersucht, ob sich aus ihnen ab-
grenzbare Gruppen bilden lassen, beispielsweise von Menschen mit jeweils glei-
chen bzw. ähnlichen persönlichen Eigenschaften.93 Notwendig hierfür sind also
Datensets, in denen Prole (beispielsweise von Kunden) mit einem gewissen Grad
an Komplexität enthalten sind. Ein Beispiel wäre der Kundendatenbestand eines
86 https://aws.amazon.com/about-aws/whats-new/2015/04/introducing-amazon-machine-learning/
(zuletzt aufgerufen am 31.3.2023). Zum Begriff Machine Learning siehe auch Drexl/Hilty/Beneke
u. a., Max Planck Institute for Innovation & Competition Research Paper No. 19-13 2019,
1ff. passim.
87 Vgl. auch Ezrachi/Stucke, Virtual Competition, 2016, S.18.
88 Dies., Virtual Competition, 2016, S.18.
89 Dies., Virtual Competition, 2016, S.18.
90 Colonna, Legal Implications of Data Mining, 2016, S.66.
91 Dies., Legal Implications of Data Mining, 2016, S.66 und 70f.
92 Zarsky, Yale J.L. & Tech. 5 (2002–2003), 1, 9. Vgl. auch Colonna, Legal Implications of Data
Mining, 2016, S.81f.
93 Zarsky, Yale J.L. & Tech. 5 (2002–2003), 1, 10. Vgl. die Denition bei Colonna, Legal Implica-
tions of Data Mining, 2016, S.81: „Clustering is about clumping together similar things, events
or people in order to create meaningful subgroups using automated methods.“
Kapitel 2: Proling
25
Versicherungskonzerns, in dem neben den Namen und den Adressen der Kunden
auch Informationen über bereits abgeschlossene Versicherungen, eingesetzte Zah-
lungsmethoden und Zahlungsverhalten gespeichert sind.94 Der Verwender kann im
Vorfeld dieser Gruppenbildung gewisse Vorgaben hinsichtlich des statistischen Vor-
gehens machen. Er bestimmt z.B., welche Variablen bei der Gruppenbildung heran-
gezogen werden und wie viele Gruppen gebildet werden sollen– durch Letzteres
wird also festgelegt, wie feingliedrig die Untergliederung des Datensets ist.95 Die
Software schlägt nach dem Durchsuchen der Datensets vor, welche Gruppen gebil-
det werden können, wie hoch die jeweilige statistische Afnität der angewandten
Variablen ist und wie groß etwaige Überschneidungen zwischen den Gruppen
sind.96 Die Vorgaben im Vorfeld des Durchsuchens der Daten und die eigentliche
Entscheidung darüber, auf was für Gruppen die Daten aufgeteilt werden sollen,
trifft also grundsätzlich ein menschlicher Entscheider. Die Umsetzung dieser Vorga-
ben erfolgt automatisiert. Clustering dient also dazu, Daten in bis dahin unbekannte,
neu gebildete Gruppen einzusortieren.97 Es unterscheidet sich damit von der sog.
Classication, welche dazu dient, gegebene Daten automatisiert in bereits vom An-
wender vorgegebene Gruppen einzusortieren.98 Clustering ist eine Methode, die
zunächst rein beschreibende Erkenntnisse produziert: Es werden Gruppen gebildet,
welche „zusammengehörige“ Daten enthalten.99 Dies spricht dafür, dass es– wenn
es im Rahmen des Prolings zur Anwendung kommt– für die „Analyse persönli-
cher Aspekte“ i.S.d. Art.4 Nr.4 DSGVO eingesetzt werden kann, so z.B. die Un-
terscheidung verschiedener „Käufertypen“.
Die im Rahmen des Clusterings gebildeten Gruppen werden allerdings regelmäßig
auch dazu herangezogen, um neben diesen beschreibenden auch vorhersagende Er-
kenntnisse zu generieren.100 Einen besonderen Reiz für die Unternehmen, die Proling
einsetzen, stellt in diesem Rahmen die Möglichkeit dar, Vorhersagen über die (ihnen
eigentlich unbekannten) persönlichen Aspekte von Menschen zu treffen und diese Er-
kenntnisse zu kommerziellen Zwecken zu nutzen. Descriptive und Predictive Data Mi-
ning werden so kombiniert. Die Methoden des Clusterings erlauben es schließlich,
Gruppen zu denieren, deren „typische Gruppenmitglieder“ bestimmte Interessen, Be-
dürfnisse und Vorlieben teilen. Sobald den Unternehmen genügend Informationen in
Form von Daten über eine Einzelperson vorliegen, kann diese automatisiert derjenigen
Gruppe zugewiesen werden, in die sie mit Blick auf ihre persönlichen Eigenschaften am
besten hineinpasst.101 Dies lässt (mit einer je nach Einzelfall unterschiedlichen hohen
Genauigkeit) wertvolle Rückschlüsse auf diejenigen persönlichen Aspekte zu, die dem
94 Beispiel nach Zarsky, Yale J.L. & Tech. 5 (2002–2003), 1, 9.
95 Ders., Yale J.L. & Tech. 5 (2002–2003), 1, 10.
96 Ders., Yale J.L. & Tech. 5 (2002–2003), 1, 10.
97 Colonna, Legal Implications of Data Mining, 2016, S.81.
98 Dies., Legal Implications of Data Mining, 2016, S.77 und 81.
99 Colonna ordnet Clustering dementsprechend auch den „beschreibenden“ Methoden des Data
Minings zu (und nicht den „vorhersagenden“).
100 Zarsky, Yale J.L. & Tech. 5 (2002–2003), 1, 11.
101 Ders., Yale J.L. & Tech. 5 (2002–2003), 1, 11.
II.Technische und methodische Hintergründe
26
Unternehmen noch nicht bekannt sind.102 Es wird davon ausgegangen, dass die Person
sich so oder zumindest ähnlich wie die anderen Gruppenmitglieder verhalten wird bzw.
vergleichbare Eigenschaften aufweist. Mit Blick auf das oben skizzierte Beispiel eines
Versicherungskonzerns ist es diesem beispielsweise möglich, Informationen, die ihm
über eine potenzielle Kundin vorliegen, heranzuziehen, um sie automatisiert einer der
im Rahmen von Clustering gebildeten Gruppen zuzuordnen.103 Ausgehend von der fest-
gestellten Gruppenzugehörigkeit wird im nächsten Schritt bestimmt, welche Art von
Versicherung die Betroffene am ehesten abzuschließen geneigt ist, indem die diesbezüg-
lichen Präferenzen der Gruppenmitglieder herangezogen werden. Die auf diese Weise
generierte Vorhersage, dass ein potenzielles Interesse der Betroffenen an einem be-
stimmten Produkt besteht, kann genutzt werden, um ihr Werbung zukommen zu lassen,
die möglichst genau auf ihre Interessen abgestimmt ist.104 Auf diese Weise lassen sich
die Effektivität der Werbung und der Nutzen der dafür eingesetzten Ressourcen signi-
kant steigern.105 Diese Facette des Clusterings als Methode des Predictive Data Minings
kommt häug und mit großem Erfolg im Bereich der Online- Werbung vor.106
Clustering kann also auch dazu genutzt werden, um „persönliche Aspekte“
i.S.d. Art.4 Nr.4 DSGVO vorherzusagen. Mit Blick auf das hier beschriebene
Verfahren zeigt sich, dass häug nicht trennscharf zwischen der Analyse und der
Vorhersage i.S.d. Art4 Nr.4 DSGVO unterschieden werden kann und dass diesen
beiden in der Legaldenition genannten Varianten des Prolings gewisse Über-
schneidungen innewohnen.
In praktischer Hinsicht äußerst bedeutsam ist Clustering auch, wenn es um die
automatisierte Erstellung von Bonitätsauskünften im Rahmen des Kredit-Scorings
geht. Dabei werden statistisch-mathematische Analyseverfahren eingesetzt, um an-
hand des früheren Verhaltens Dritter auf bestimmte Bonitätsmerkmale des Betroffe-
nen zu schließen.107 Dies kann z.B. dergestalt ausgestaltet sein, dass einzelne Boni-
tätsmerkmale festgelegt und bewertet werden und die gefundenen Einzelbewertungen
in ihrer Summe den Score-Wert (und damit die jeweilige Risikoklasse) der jeweils
in Frage stehenden Person ergeben.108 Es wird also davon ausgegangen, dass sich
das frühere Verhalten sowie die persönlichen Eigenschaften der Mitglieder der
Vergleichsgruppen auf den Betroffenen übertragen lassen und so Aussagen über
seine Bonität ermöglichen.
102 Ders., Yale J.L. & Tech. 5 (2002–2003), 1, 11.
103 Ders., Yale J.L. & Tech. 5 (2002–2003), 1, 11.
104 Ders., Yale J.L. & Tech. 5 (2002–2003), 1, 11.
105 Vgl. ders., Yale J.L. & Tech. 5 (2002–2003), 1, 9.
106 Zum gegenwärtigen Ausmaß und Erfolg von sog. Targeted Advertising und zu den zum Einsatz
kommenden Strategien vgl. z.B. European Commission, Consumer Market Study on Online Mar-
ket Segmentation through personalised Pricing/Offers in the European Union, 2018, S.34ff. Vgl.
dazu auch Ezrachi/Stucke, Virtual Competition, 2016, S.103.
107 Möller/Florax, MMR 2002, 806, 806f.
108 Vgl. Giesswein, Die Verfassungsmäßigkeit des Scoringverfahrens der Schufa, 2012, S.28, für
den von der Schufa angebotenen „Auskunft-Scoring-Service“ („ASS“).
Kapitel 2: Proling
27
b. Association Rules
Proling wird zudem häug mit Mitteln der Association Discovery ausgeführt (sog.
Association Rule Mining).109 Diese Methode untersucht Datenbestände dahinge-
hend, ob bzw. welche Ereignisse zur selben Zeit auftreten, so z.B. ob bestimmte
Produkte typischerweise zusammen gekauft werden.110 Die eingesetzte Software
kann dem Verwender darstellen, mit welcher Häugkeit die gefundenen Regeln auf-
treten und mit welcher Wahrscheinlichkeit sie im Einzelfall zutreffende Auskunft
geben.111 Es obliegt dem Verwender der Software, welches Maß an Fehlertoleranz
er akzeptiert und wie zuverlässig eine gefundene Regel sein muss, damit an sie
praktische Folgen geknüpft werden: Werden hier zu hohe Anforderungen an die
Zuverlässigkeit der Regeln gesetzt, führt dies dazu, dass bloß solche Regeln gefun-
den werden, die ohnehin offensichtlich sind. Wird die Hemmschwelle, ab der von
einer Regel ausgegangen wird, hingegen zu niedrig angesetzt, kann dies dazu füh-
ren, dass zahlreiche abwegige „Regeln“ aufgrund bloßer Zufallsergebnisse und aus-
sageloser Korrelationen aufgestellt werden.112
Findet ein Einzelhändler beispielsweise heraus, dass Produkt A und Produkt B
unerwarteterweise besonders häug gemeinsam gekauft werden, kann er die Ver-
käufe beider Produkte dadurch steigern, dass er sie in seinem Ladengeschäft neben-
einander platziert.113 Das Wissen um derartige Zusammenhänge kann also durchaus
einen Wettbewerbsvorteil darstellen.114 Association Discovery kommt sehr häug
im Bereich des E-Commerce zur Anwendung und ermöglicht es z.B., Kunden noch
während des Kaufvorgangs oder direkt nach seinem Abschluss weitere Produkte
anzubieten, welche sie– ausgehend von früheren Käufen anderer Kunden– vermut-
lich auch interessieren werden.115
Eine damit verwandte, technisch aufwändigere Methode des Data Minings ist die
sog. Sequential Pattern Discovery. Hier geht es nicht um die Untersuchung und
Beschreibung einzelner, zeitlich abgeschlossener Vorgänge (wie z.B. eines Kaufvor-
gangs), sondern darum, das Verhalten von Personen über einen längeren Zeitraum
auszuwerten und zu verstehen.116 Dies ermöglicht es zum einen, Unregelmäßigkei-
ten im Verhalten einer bestimmten Person zu erkennen. Beispielsweise können so
Anzeichen von Kreditkartenbetrug frühzeitig erkannt werden: Wenn z. B. bei der
Nutzung einer Kreditkarte bestimmte Unregelmäßigkeiten in Abweichung vom frü-
heren Verhalten des Kreditkarteninhabers erkannt werden, kann dies darauf hinwei-
sen, dass die Karte von einem Unbefugten verwendet wird.117 Sequential Pattern
109 Colonna, Legal Implications of Data Mining, 2016, S.82f.
110 Zarsky, Yale J.L. & Tech. 5 (2002–2003), 1, 12.
111 Ders., Yale J.L. & Tech. 5 (2002–2003), 1, 13.
112 Ders., Yale J.L. & Tech. 5 (2002–2003), 1, 13.
113 Vgl. Colonna, Legal Implications of Data Mining, 2016, S.47f.
114 Vgl. dies., Legal Implications of Data Mining, 2016, S.48.
115 Zarsky, Yale J.L. & Tech. 5 (2002–2003), 1, 12f.
116 Ders., Yale J.L. & Tech. 5 (2002–2003), 1, 13.
117 Vgl. ders., Yale J.L. & Tech. 5 (2002–2003), 1, 14.
II.Technische und methodische Hintergründe
28
Discovery wird aber auch dazu eingesetzt, um von den längerfristigen Verhaltens-
mustern vieler Menschen auf das zu erwartende Verhalten Einzelner rückzuschlie-
ßen. Zarsky zitiert das Beispiel einer Bank, die mit den Methoden des Data Minings
erkannt hatte, dass Kunden in der Vergangenheit vor der Kündigung ihrer Konten
typischerweise gewisse Verhaltensmuster an den Tag gelegt hatten, ohne die Kündi-
gung als solche anzukündigen oder anderweitig ihre Unzufriedenheit mit der Bank
explizit zu kommunizieren.118 Ein erstes Anzeichen einer drohenden Kündigung
liegt demnach z.B. dann vor, wenn ein Kunde einige Monate lang keine Einzahlun-
gen mehr leistet. Sobald diese Anzeichen und typischen Verhaltensmuster im Einzel-
fall vermehrt auftreten, kann die Bank z.B. dergestalt intervenieren, dass sie auf den
Kunden zugeht und versucht, ihn mit besonders attraktiven Angeboten von einer
Kündigung abzuhalten.119
Wie schon beim Clustering zeigt sich auch bei den Association Rules, dass eine
strikte Unterscheidung zwischen Analyse bekannter und Vorhersage unbekannter
persönlicher Aspekte i.S.d. Art4 Nr.4 DSGVO wenig zielführend ist. Association
Rules sind zunächst rein beschreibend: Sie decken Regeln bzw. Wahrscheinlichkei-
ten auf und erlauben es so, Datensets zu beschreiben und dem Menschen verständ-
lich zu machen. An den gefundenen Erkenntnissen kann der Mensch sein Handeln
ausrichten. Wie das oben aufgeführte Beispiel des Versicherungsunternehmens ge-
zeigt hat, lassen sich die auf solche Weise gefundenen Erkenntnisse teilweise aber
ohne Weiteres auch nutzbar machen, um potenziell nützliche Vorhersagen über Ein-
zelpersonen für die Zukunft zu treffen. Die Ergebnisse des Descriptive Data Mi-
nings werden in diesen Fällen also für Zwecke des Predictive Data Minings heran-
gezogen.120
3. Anwendung auf konkrete Personen
Um Proling bezogen auf eine konkrete Person durchführen zu können, ist es not-
wendig, dass über diese eine Mindestzahl an persönlichen Informationen in Form
von Daten vorliegt.121 Nur dann ist die Erstellung einer Bewertung mittels Analyse
bekannter bzw. Vorhersage unbekannter persönlicher Aspekte i.S.d. Art.4 Nr.4
DSGVO möglich. Bereits an dieser Stelle wird deutlich, dass bei den im Rahmen
von Proling zum Einsatz kommenden Daten ganz grob zwischen zwei Kategorien
unterschieden werden muss.
Zum einen ist es für Proling-Verfahren in aller Regel notwendig, Zugriff auf
einen großen Bestand an abstrakten Erfahrungssätzen in Form von Daten zu haben.
Dieser besteht häug aus (anonymisierten) Prolen, Mustern und Zusammenhän-
118 Ders., Yale J.L. & Tech. 5 (2002–2003), 1, 14.
119 Ders., Yale J.L. & Tech. 5 (2002–2003), 1, 14.
120 Colonna, Legal Implications of Data Mining, 2016, S.83.
121 Vgl. Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein (ULD), Scoringsys-
teme zur Beurteilung der Kreditwürdigkeit, 2005, S.50 (bezogen auf Kredit-Scoring).
Kapitel 2: Proling
29
gen aus der Vergangenheit und erlaubt es, mit den Methoden des Knowledge Disco-
very in Databases (abstrakte) Erkenntnisse zu gewinnen, welche vor allem in Form
von Mustern und Korrelationen dargestellt werden. Zudem muss aber auch zumin-
dest ein Mindestmaß an Daten über die konkrete Person vorliegen, welche dem
Proling-Verfahren unterworfen werden soll: Erst wenn genügend Daten, wie
z.B. demograsche Informationen oder persönliche Eigenschaften, vorliegen, so-
dass es möglich ist, die Person sinnvoll derjenigen Gruppe zuzuordnen, der sie von
ihren persönlichen Aspekten her am ehesten entspricht, ist es möglich, die bereits
bekannten abstrakten Erfahrungssätze fruchtbar zu machen und Bewertungen über
persönliche Aspekte der Person zu erstellen.
4. Einuss der Verwender und Entwickler
Proling basiert also häug auf der Auswertung von Erfahrungssätzen und der Über-
tragung der dort gefundenen Erkenntnisse auf konkrete Einzelpersonen. Die kon-
krete Ausgestaltung der eingesetzten Verfahren bzw. Software spielt demnach eine
ganz maßgebliche Rolle.122 Sie stellt ein Einfallstor für Wertungen und Ermessen der
Softwareentwickler bzw. der Verwender der Proling-Verfahren dar.123 Beispiels-
weise spielt es eine Rolle, welche Quellen für die verwendeten Daten gewählt wer-
den und nach welchen Kriterien bzw. Suchbegriffen sie durchsucht werden.124 Die
Frage, ob und ggf. wie Korrelationen, die in Datenbeständen gefunden wurden, inter-
pretiert werden, und die Gewichtung einzelner Faktoren im Rahmen der Erstellung
der Bewertungen spielt bei den durch Proling generierten Ergebnissen eine Schlüs-
selrolle.125 Datengetriebene Analysen sind also Verfahren, denen trotz des großen
Ausmaßes an Automatisierung auch ein Element der Interpretation innewohnt und
die dementsprechend ungenau, fehleranfällig und vorurteilsbehaftet sein können.126
Unabhängig von diesen subjektiv-wertenden Elementen gilt es auch zu beden-
ken, dass die Efzienz der zum Einsatz kommenden technischen Verfahren zu ei-
nem maßgeblichen Teil davon abhängt, ob der Verwender die ihm an die Hand ge-
gebenen Möglichkeiten sinnvoll nutzt. Beim Einsatz von Data Mining in Form des
Clusterings kommt es beispielsweise maßgeblich darauf an, dass die vom Computer
gefundenen und dem Verwender kommunizierten Gruppen von diesem richtig inter-
122 Vgl. Colonna, Legal Implications of Data Mining, 2016, S.70ff. zum Data Mining, welches
regelmäßig einen ganz wesentlichen Schritt des Proling-Verfahrens darstellt.
123 Citron/Pasquale, Wash. L.Rev. 89 (2014), 1, 13f.; Zarsky, U.Ill. L.Rev. 2013, 1503, 1518;
Rubinstein/Lee/Schwartz, U.Chi. L.Rev.75 (2008), 261, 282.
124 Citron/Pasquale, Wash. L.Rev. 89 (2014), 1, 13f.; Rubinstein/Lee/Schwartz, U.Chi. L.Rev.75
(2008), 261, 282; Tene/Polonetsky, Nw. J.Tech. & Intell. Prop. 11 (2013), 239, 271; Zarsky, U.Ill.
L.Rev. 2013, 1503, 1518.
125 Vgl. Citron/Pasquale, Wash. L. Rev. 89 (2014), 1, 13 f. und Zarsky, U. Ill. L. Rev. 2013,
1503, 1518f.
126 Tene/Polonetsky, Nw. J.Tech. & Intell. Prop. 11 (2013), 239, 271.
II.Technische und methodische Hintergründe
30
pretiert werden. Wenn dieser beispielsweise nicht erkennt, dass eine Gruppe einem
bestimmten Käufertyp entspricht, können daran keine weitergehenden Entschei-
dungen geknüpft werden und das mit den Methoden des Clusterings „aufgedeckte“
Wissen liegt brach.127 Die menschliche Interpretation stellt also eine besondere He-
rausforderung dar und birgt die potenziell durchaus große Gefahr, dass bestehende
Möglichkeiten aufgrund von Unkenntnis nicht genutzt werden.
Ein menschlicher Einuss besteht also– trotz des hohen Ausmaßes an Automa-
tisierung– vom Beginn bis zum Ende des Prolings. Dies gilt nicht zuletzt, da die
Software und die jeweils konkrete Ausgestaltung des Proling-Verfahrens im Ein-
zelfall zumindest ursprünglich auf menschliche Entscheidungen zurückgehen.128
Der menschliche Einuss kann allerdings dadurch verringert werden, dass selbstler-
nende Algorithmen zum Einsatz kommen.129
III.Berechnung und Zuweisung von
Wahrscheinlichkeitswerten
1. Berechnung von Informationen und Zuweisung
anden Einzelnen
Den Menschen, die zum Objekt von Proling werden, wird also häug das Verhal-
ten anderer Menschen zugerechnet. Proling bedeutet demnach im Kern nichts an-
deres als die Erstellung von Wahrscheinlichkeitswerten durch Extrapolation: Abs-
trakte Erfahrungssätze werden herangezogen, um im konkreten Einzelfall mit
mathematisch-statistischen Methoden zu berechnen, was für eine Eigenschaft eine
Person vermutlich aufweist bzw. welches Verhalten sie vermutlich an den Tag legen
wird.130 Es handelt sich also um qualizierte Vermutungen, welche inhaltlich nicht
unbedingt zutreffend sein müssen.131
Es liegt folglich kein Proling vor, wenn Datenbanken bloß mit Blick auf be-
stimmte Parameter durchsucht und die so gefundenen Ergebnisse (zusammenfas-
send) dargestellt werden (z. B. im Rahmen des sog. Online Analytical Proces-
127 Vgl. Colonna, Legal Implications of Data Mining, 2016, S.82.
128 Dies., Legal Implications of Data Mining, 2016, S. 72; Rubinstein/Lee/Schwartz, U. Chi.
L.Rev.75 (2008), 261, 282.
129 Citron/Pasquale, Wash. L.Rev. 89 (2014), 1, 5f.
130 Council of Europe, The Protection of Individuals with Regard to automatic Processing of perso-
nal Data in the Context of Proling, 2011, S.25f. Rn.41 und 29 Rn.54; Härting, CR 30 (2014),
528, 531; Schermer, Computer Law & Security Review 27 (2011), 45, 46; Sprague, Rich. J.L. &
Tech. 21 (2014), 1, 6f.
131 Vgl. Datatilsynet (Dänische Datenschutzbehörde), The great Data Race, 2015, S.25.
Kapitel 2: Proling
31
sing).132 Die auf diese Weise abgerufenen, zusammenfassenden Ergebnisse stellen
keine Wahrscheinlichkeitswerte dar, sondern bloß– die Richtigkeit der in den Da-
tenbanken enthaltenen Informationen unterstellt– ein ordnendes Abbild der Wirk-
lichkeit. Sie sind damit keine Bewertung und vor allem keine Analyse oder Vorher-
sage i.S.d. Art.4 Nr.4 DSGVO.Denkbar wäre beispielsweise, dass eine Bank ihre
Kunden für interne Zwecke in verschiedene Kategorien bzw. Prole in Abhängig-
keit davon einordnet, was der jeweilige Kunde monatlich verdient und welches Ver-
mögen er hat.133 Dieser internen Kategorisierung mag zwar aus Sicht der Bank
durchaus ein wertendes Element innewohnen, zumal an die jeweilige Einstufung
der Kunden Konsequenzen geknüpft werden. Dennoch stellt die Sortierung als sol-
che kein Proling dar, da die Kategorisierung der Kunden keine Wahrscheinlichkeits-
berechnung beinhaltet und keinerlei Interpretation des Gegebenen voraussetzt.134 Vor
allem werden durch die Bildung von Kundengruppen keine qualitativ-inhaltlich
neuen Daten geschaffen. Die Kunden werden zwar jeweils bestimmten Gruppen zu-
geordnet. Dies hat aber bloß eine ordnende Funktion ohne einen darüber hinausge-
henden Aussagegehalt. Eine Bewertung i.S.d. Art.4 Nr.4 DSGVO liegt nicht vor.
Kommen hingegen Proling-Maßnahmen zum Einsatz, werden als Ergebnis ei-
ner Wahrscheinlichkeitsberechnung neue, dem Verwender zuvor nicht verfügbare
Daten geschaffen und dem jeweils betroffenen Menschen konkret zugeordnet.135
Der Verwender erlangt auf diese Weise künstlich generierte Informationen über eine
Person, die in dieser Form zuvor nicht explizit in den ausgewerteten Daten enthalten
und dem Verwender dementsprechend nicht bekannt waren.136 Diese neuen Daten
sind personenbezogen i.S.d. Art.4 Nr.1 DSGVO.137 Sie wurden aber nicht von den
Betroffenen mitgeteilt oder anderweitig erhoben, sondern neu geschaffen.138 Von
bekannten Eigenschaften einer Person wird also auf unbekannte geschlossen. Diese
Zurechnung des Verhaltens einer Gruppe an eine Einzelperson mittels mathematisch-
statistischer Verfahren ist ein für Proling spezisches, in diesem Ausmaß neues
132 Vgl. Colonna, Legal Implications of Data Mining, 2016, S.62f.; Council of Europe, The Pro-
tection of Individuals with Regard to automatic Processing of personal Data in the Context of
Proling, 2011, S.25f. Rn.41.
133 Beispiel aus Council of Europe, The Protection of Individuals with Regard to automatic Proces-
sing of personal Data in the Context of Proling, 2011, S.25f. Rn.41.
134 Vgl. dass., The Protection of Individuals with Regard to automatic Processing of personal Data
in the Context of Proling, 2011, S.25f. Rn.41.
135 Article 29 Data Protection Working Party, Guidelines on Automated individual Decision-
Making and Proling for the Purposes of Regulation 2016/679, 2018, S.7; Council of Europe, The
Protection of Individuals with Regard to automatic Processing of personal Data in the Context of
Proling, 2011, S.28 Rn.50; King/Forder, Computer Law & Security Review 32 (2016), 696,
699f.; Schermer, Computer Law & Security Review 27 (2011), 45, 46.
136 King/Forder, Computer Law & Security Review 32 (2016), 696, 699f.
137 Datatilsynet (Dänische Datenschutzbehörde), The great Data Race, 2015, S. 25 (noch zur
Datenschutz- Richtlinie).
138 Vgl. Article 29 Data Protection Working Party, Guidelines on Automated individual Decision-
Making and Proling for the Purposes of Regulation 2016/679, 2018, S.7.
III.Berechnung und Zuweisung von Wahrscheinlichkeitswerten
32
Phänomen,139 auch wenn die dem Proling zugrunde liegenden Verfahren als solche
schon vor Jahrzenten beschrieben wurden.140
Diejenigen, die Proling einsetzen, machen ihre darauf folgende Interaktion mit
dem Betroffenen (bzw. das Unterlassen eines Handelns) zumindest teilweise von
den gefundenen Erkenntnissen abhängig. Diese spielen im privatwirtschaftlichen
Bereich eine je nach Fall unterschiedlich bedeutsame Rolle bei der Interaktion zwi-
schen Verwender und Betroffenen.
2. Strukturell bedingte Fehlerquote
Den durch Proling gefundenen Ergebnissen wohnt also strukturell eine gewisse
Fehlerquote inne.141 Daraus folgt, dass Proling konzeptionell dazu führt, dass im
Einzelfall getroffene Bewertungen in Form von Analysen bzw. Vorhersagen persön-
licher Aspekte i.S.v. Art.4 Nr.4 DSGVO nicht zutreffen und damit inhaltlich dem
Betroffenen nicht gerecht werden.142 Dies ist dem Konzept Proling immanent, was
bedeutet, dass falsche Ergebnisse im Einzelfall nicht per se auf einen Makel des
eingesetzten Verfahrens schließen lassen. Im Fall von Kredit-Scoring bedeutet dies
beispielsweise, dass einer vielleicht sehr kleinen, aber gewissen Zahl von Kreditan-
tragstellern ein Kredit gewährt wird, obwohl die über sie getroffene Vorhersage
falsch war und sie ihn tatsächlich nicht vertragsgemäß bedienen werden (sog. false
positive). Zugleich wird anderen Antragstellern ein Kredit verweigert, obwohl sie
eigentlich eine ausreichende Bonität aufweisen (sog. false negative).143 Die Ent-
scheidung darüber, welche Fehlerquote akzeptiert wird, liegt bei den Entwicklern
bzw. Verwendern des jeweiligen Proling-Verfahrens.144 Diese haben grundsätzlich
ein Interesse daran, dass die generierten Ergebnisse möglichst zutreffend sind, da
der Zweck von Proling (vor allem das Fällen und Ausführen von Entscheidungen
139 Council of Europe, The Protection of Individuals with Regard to automatic Processing of perso-
nal Data in the Context of Proling, 2011, S.28f. Rn.53; King/Forder, Computer Law & Security
Review 32 (2016), 696, 699.
140 Siehe oben Kap.2, II.
141 Council of Europe, The Protection of Individuals with Regard to automatic Processing of perso-
nal Data in the Context of Proling, 2011, S.26 Rn.43 und 29 Rn.54f.; Schermer, Computer Law
& Security Review 27 (2011), 45, 48.
142 Vgl. Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.4 Nr.4 Rn.8 DSGVO und Datatilsynet (Dänische Datenschutzbehörde),
The great Data Race, 2015, S.25. Siehe auch European Commission, Consumer Market Study on
Online Market Segmentation through personalised Pricing/Offers in the European Union, 2018,
S.55: „(…) it should be noted that online proles often lack accuracy. As conrmed by our study’s
experts and the literature, a recurring problem for those using online proles is that these contain
errors and inconsistencies, hence limiting their usability.“
143 Beispiel nach Council of Europe, The Protection of Individuals with Regard to automatic Pro-
cessing of personal Data in the Context of Proling, 2011, S.29 Rn.54. Vgl. auch Schermer,
Computer Law & Security Review 27 (2011), 45, 48.
144 Zarsky, U.Ill. L.Rev. 2013, 1503, 1519.
Kapitel 2: Proling
33
und Risikominimierung) nur dann sinnvoll erreicht werden kann: Je besser die ge-
nerierten Ergebnisse sind, desto nutzbringender können sie in der Interaktion mit
Verbrauchern eingesetzt werden.
Bei rein wirtschaftlicher Betrachtungsweise stellt sich für den Verwender somit
ggf. die Frage, bis zu welcher Fehlerquote (und der damit einhergehenden Anzahl
an falschen Beurteilungen) es sich in der Summe noch lohnt, Proling einzusetzen.
Finanziellen Gewinnen auf der einen Seite stehen beispielsweise unzufriedene Kun-
den im Einzelfall gegenüber, welche sich durch getroffene Bewertungen ungerecht
behandelt fühlen bzw. einzelne darauf basierende Handlungen nicht nachvollziehen
können. Hurley und Adebayo berichten beispielsweise von einem US- amerikanischen
Fall aus dem Jahr 2008, in dem einem Kunden des Kreditkartenanbieters American
Express der Kreditrahmen ohne ersichtlichen Grund von 10800$ auf 3800$ ge-
kürzt wurde. Begründet wurde dies ihm gegenüber bloß damit, dass er kürzlich
seine Kreditkarte bei den gleichen (auch auf Nachfrage nicht näher spezizierten)
Unternehmen eingesetzt habe wie andere Kunden, welche durch eine schlechte
Zahlungsmoral aufgefallen seien.145
3. Kritische Bewertung
Der Umstand, dass Proling-Verfahren in bloßen Wahrscheinlichkeitsberechnun-
gen bestehen, ist durchaus problematisch. Dies bedeutet nämlich, dass auch dann,
wenn ein bestimmtes Verfahren in nahezu allen Fällen zutreffende Bewertungen
erzeugt, immer Bewertungen im Einzelfall unzutreffend sind– selbst wenn das he-
rangezogene Datenmaterial in qualitativer und quantitativer Hinsicht nicht zu bean-
standen war. Derartige, zumindest ab und an auftretende falsche Ergebnisse sind
systemimmanent und dem Wesen des Prolings als Verfahren, welches Bewertun-
gen produziert, geschuldet. Über diese konzeptionell bedingte Fehlerhaftigkeit, die
Proling per se innewohnt, hinaus können fehlerhafte Ergebnisse auch dadurch her-
beigeführt werden, dass das verwendete Datenmaterial fehlerhaft oder unvollstän-
dig ist.146 Auch einwandfrei programmierte Algorithmen produzieren fehlerhafte
Ergebnisse, wenn das herangezogene Datenmaterial fehlerhaft ist.
Je nach Kontext kann dies unterschiedlich weitreichende Folgen für den Betroffe-
nen zeitigen. Wird Proling eingesetzt, um im Rahmen eines Streamingdienstes für
Filme kundenspezische Empfehlungen einzublenden, besteht der denkbar größte
Schaden darin, dass der Kunde aufgrund unzutreffender Empfehlungen unzufrieden
mit der erworbenen Dienstleistung ist. Im Falle des Kredit-Scorings hingegen führt
eine unzutreffende Bonitätsbewertung im Einzelfall z.B. dazu, dass Grundlagenge-
schäfte, wie die Gründung eines Unternehmens oder der Kauf einer Immobilie, un-
145 Vgl. Hurley/Adebayo, Yale J.L. & Tech. 18 (2016), 148, 150f.: Diese Art von Kredit-Scoring
wird auch als Behavioral Analysis, Behavioral Scoring bzw. Creditworthiness by Association be-
zeichnet.
146 Schermer, Computer Law & Security Review 27 (2011), 45, 48.
III.Berechnung und Zuweisung von Wahrscheinlichkeitswerten
34
nötigerweise scheitern. Kritisch zu bewerten ist zudem, dass Proling konzeptionell
regelmäßig auf der Idee aufbaut, dass das Verhalten Dritter dem Einzelnen zugerech-
net werden kann, sobald nur genügend Übereinstimmungen gefunden wurden. Dies
bedeutet nämlich, dass der Betroffene– überspitzt formuliert– nicht mehr unmittel-
bar anhand seiner eigenen Handlungen beurteilt wird, sondern zumindest auch an-
hand der Handlungen Dritter.147 Dies steht im Widerspruch zu grundlegenden Rechts-
prinzipien und moralischen Wertungen, wonach Verantwortung (und Haftung)
grundsätzlich nur aufgrund eigenen Verhaltens begründet werden.148
Kerr und Earle sehen angesichts der bestehenden Möglichkeiten, Menschen automa-
tisierten Bewertungen und schließlich Entscheidungen zu unterwerfen, Gefahren für
grundlegende und zumeist allgemein anerkannte Rechtsprinzipien.149 Sie beginnen ihre
Überlegungen mit Analogien zur Unschuldsvermutung und zu weiteren, grundsätzlich
rechtsgebietsübergreifend gültigen Verfahrensgrundsätzen, wie z.B. dem Recht, gehört
zu werden, der Picht zur Begründung von Entscheidungen und dem Recht auf effekti-
ven Rechtsschutz. Sie führen zutreffend aus, dass diese Grundsätze auch im privat(recht-
lich)en Bereich zumindest teilweise anerkannt sind, z.B. im Verhältnis zwischen Unter-
nehmen und ihren Kunden sowie Arbeitnehmern.150 Ausgehend davon argumentieren
sie, dass moralische Gründe und solche der Fairness Wertungen vorgeben, die Grenzen
ziehen, wenn es darum geht, Vermutungen über Einzelne anzustellen und auf Basis
dieser Vermutungen zu handeln.
Diese Überlegungen lassen sich teilweise auf Proling nach der Denition der
Datenschutz-Grundverordnung übertragen: Die automatisierte Erstellung einer Be-
wertung persönlicher Aspekte i.S.v. Art.4 Nr.4 DSGVO stellt eine Handlung Drit-
ter dar, die der davon Betroffene in der Praxis häug nur eingeschränkt oder gar
nicht inhaltlich überprüfen kann.151 Die Dritten, anhand deren Eigenschaften und
Verhalten er bewertet wird, kennt er nicht (dies wäre angesichts des Umfangs der
typischerweise ausgewerteten Datenmassen auch nicht möglich). Dementsprechend
kann er auch auf ihr Verhalten selber keinen Einuss nehmen. Sowohl die konkret
eingesetzte Methode (also die Frage, nach welchen Kriterien die Bewertung im Ein-
147 Council of Europe, The Protection of Individuals with Regard to automatic Processing of perso-
nal Data in the Context of Proling, 2011, S.28f. Rn.53.
148 Dass., The Protection of Individuals with Regard to automatic Processing of personal Data in
the Context of Proling, 2011, S.28f. Rn.53.
149 Kerr/Earle, Stan. L.Rev. Online 66 (2013), 65, 70f.; Kerr, in: Hildebrandt/Vries (Hrsg.), Pri-
vacy, Due Process and the Computational Turn, 2013, S.91, 107f.
150 Kerr, in: Hildebrandt/Vries (Hrsg.), Privacy, Due Process and the Computational Turn, 2013,
S.91, 108; Kerr/Earle, Stan. L.Rev. Online 66 (2013), 65, 70.: „These include the right to a fair
and impartial hearing, an ability to question those seeking to make a case against you; access to
legal counsel, a public record of the proceedings, published reasons for the decision, and, in some
cases, an ability to appeal the decision or seek judicial review. Likewise, a corollary set of duties
exists in the private sector. Although such duties are not constitutionally enshrined, companies do
owe employees and customers the right to full information, the right to be heard, the right to ask
questions and receive answers, and the right of redress.“
151 Vgl. Citron/Pasquale, Wash. L.Rev. 89 (2014), 1, 10f.
Kapitel 2: Proling
35
zelfall erstellt wird) als auch die Auswahl des herangezogenen Datenmaterials ent-
ziehen sich seinem Einussbereich. Vielmehr ist er darauf angewiesen, dass die im
Einzelfall getroffene Analyse bzw. Vorhersage im Ergebnis zutrifft.
Im Fall einer im Einzelfall unzutreffenden „Bewertung persönlicher Aspekte“
steht zu befürchten, dass diese sich negativ für ihn auswirkt, indem sie beispiels-
weise kausal für eine später ihm gegenüber getroffene Entscheidung wird. Dies ist
gerade vor dem Hintergrund der tendenziell zunehmenden Automatisierung be-
denklich, denn es nimmt dem von Proling Betroffenen unter Umständen ein Stück
Autonomie und Handlungsfähigkeit: Je nachdem, in welchem Kontext, mit welchen
Verfahren und mit welcher tolerierten Fehlerquote Proling zum Einsatz kommt,
droht eine zunehmend generalisierte Betrachtungsweise durch Algorithmen, indem
diese Durchschnittsverhalten zur Norm erklären, sodass (zu starke) Abweichungen
davon negative Folgen zeitigen.152
152 Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.4 Nr.4 Rn.8 DSGVO.
III.Berechnung und Zuweisung von Wahrscheinlichkeitswerten
36
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International
Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Ver-
vielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, so-
fern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Cre-
ative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der ge-
nannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. So-
fern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betref-
fende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten
Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Kapitel 2: Proling
37
Kapitel 3: Proling und automatisierte
Entscheidungen: Ein 3-stuges Modell
I.Vorüberlegungen
1. Überblick
Die beschriebenen kritischen Aspekte von Proling wurden ausgehend von der Le-
galdenition des Art.4 Nr.4 DSGVO und dem Einsatz von Proling in der Praxis
entwickelt. Bei der Beschreibung der mit Proling zusammenhängenden tatsächli-
chen Problemlagen tritt eine wesentliche Erkenntnis zutage. Es bietet sich an, eine
Unterscheidung in qualitativer sowie chronologischer Hinsicht zu treffen zwischen
Proling einerseits, also der „bloßen“ Erstellung von Bewertungen, und dem darauf
aufbauenden Prozess der Entscheidungsndung (ggf. mitsamt der Ausführung die-
ser Entscheidung) andererseits.1 Denn „Proling– als automatisierte Datenverar-
beitung – bildet die Grundlage, auf der eine Entscheidung des Verantwortlichen
aufsetzt, die für die betroffene Person dann eine rechtliche Wirkung oder sonstige
Konsequenz mit sich bringt.“2 Diese beiden Stufen können erst durchgeführt wer-
den, wenn eine ausreichende Datengrundlage vorliegt. Die Datensammlung muss
also logischerweise den ersten Schritt in diesem Modell darstellen.
Das Modell beginnt demnach auf der ersten Stufe mit der Sammlung der Daten,
die für die nachfolgenden Schritte notwendig sind. Hierbei wird unterschieden zwi-
schen personenbezogenen Daten, welche sich unmittelbar auf die im Einzelfall zu
bewertende Person beziehen, und abstrakten Vergleichsdaten, welche (häug, aber
nicht zwangsläug in anonymisierter Form) in bedeutendem Umfang gesammelt
1 So auch Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.4 Nr.4 Rn.1 DSGVO.Siehe auch Wiedemann, Computer Law & Security
Review 45 (2022), 1ff. passim.
2 Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.4 Nr.4 Rn.1 DSGVO.
© Der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9_3
38
und ausgewertet werden, um Erfahrungssätze zu generieren und Vergleichsgruppen
zu bilden. Das eigentliche Proling stellt die zweite Stufe dar. Sie befasst sich mit
der Schaffung eines im weitesten Sinne „nutzbaren“ Ergebnisses, welches für den
Verantwortlichen von wirtschaftlichem Interesse ist. Die dritte Stufe befasst sich
mit dem Fällen und Ausführen von Entscheidungen, welche auf dem gefundenen
Ergebnis (bzw. den Ergebnissen) der zweiten Stufe aufbauen. Diese Phase basiert
zumindest teilweise auf dem Ergebnis des Proling-Verfahrens. Freilich können zur
Entscheidungsndung neben dem Ergebnis des Prolings auch andere Daten heran-
gezogen werden, welche keine Bewertung persönlicher Aspekte i.S.v. Art.4 Nr.4
DSGVO darstellen, sondern ein nicht wertendes Abbild der Wirklichkeit, wie
z.B. demograsche Angaben über die Person oder Wetterdaten. Die gemeinsame
Betrachtung von Entscheidungsndung und -ausführung ist geboten, weil beide Ak-
tionen voneinander abhängen: Die Entscheidung ist inhaltlich dadurch bedingt, was
tatsächlich– zumindest a priori aus Sicht des Anbieters– praktisch umsetzbar ist.
Die dritte Stufe endet, je nach inhaltlichem Ausgang des Entscheidungsndungs-
prozesses, mit einem aktiven Tun oder einem bewussten Unterlassen.
2. Terminologie
Die Überlegung, dass Proling und das damit zusammenhängende Treffen von Ent-
scheidungen zwei miteinander zusammenhängende, aber qualitativ verschiedene
und damit voneinander zu unterscheidende Verfahrensabschnitte darstellen, ist
grundsätzlich nicht neu. Buchner führt z.B. aus, dass „Proling und Entscheidung
(bzw. Entscheidungsndung) auf zwei verschiedenen Ebenen anzusiedeln sind“3 und
dementsprechend eine Unterscheidung geboten ist.4
Nach Ansicht mancher Autoren ist der Begriff „Proling“ inhaltlich weiter ge-
fasst als es nach dem hier vertretenen Modell der Fall ist. Damit geht aber nicht
unbedingt zugleich eine signikante inhaltliche Divergenz einher. So schreiben
z.B. Mendoza und Bygrave mit Blick auf die Datenschutz-Grundverordnung: „pro-
ling denotes the process of (1) inferring a set of characteristics about an individual
person or group of persons (i.e., the process of creating a prole), and/or (2) trea-
ting that person or group (or other persons/groups) in light of these characteristics
(i.e., the process of applying a prole).“5 Dies impliziert, dass Proling sich begriff-
lich auf das Bewerten einer Person bezieht, zugleich aber auch darauf, welche Fol-
gen man daraus für die Interaktion mit der Person zieht.6 Terminologisch wird
3 Ders., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.4 Nr.4 Rn.1 DSGVO.
4 In diesem Sinne auch Martini, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesda-
tenschutzgesetz, 32021, Art.22 Rn. 2 DSGVO, der Proling als „Entscheidungsunterstützung“
bezeichnet.
5 Mendoza/Bygrave, in: Synodinou/Jougleux/Markou u.a. (Hrsg.), EU Internet Law, 2017, 77.
6 Vgl. auch Gola, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32022, Art.4 Rn.43 DSGVO, der zwischen „Prolbildung“ und „Nutzung von Prolen“ unter-
scheidet.
Kapitel 3: Proling und automatisierte Entscheidungen: Ein 3-stuges Modell
39
Proling damit auch auf die (nach hiesiger Ansicht) dritte Stufe bezogen und geht
damit weiter als das hier vertretene engere Verständnis, welches Proling begrifich
auf der zweiten Stufe verortet.
II.Erste Stufe: Datensammlung
Grundlage von Proling sind immer Informationen in Form von Daten. Zugriff da-
rauf ist eine unabdingbare Voraussetzung. Dies gilt unabhängig davon, ob der Ver-
antwortliche die Daten selber erhebt, sie von Dritten erlangt oder sie aus verschie-
denen Quellen zusammenführt. Das Beschaffen von Daten– also ein Sammeln von
Daten im weitesten Sinne– ist damit der erste Schritt, der gegangen werden muss,
um Proling zu betreiben und daran Entscheidungen zu knüpfen. Schon ab dieser
Ebene stellt sich für den Verantwortlichen i.S.v. Art.4 Nr.7 DSGVO die Frage, ob
bzw. in welchem Ausmaß das Datenschutzrecht zur Anwendung kommt. Dies hängt
davon ab, ob den Daten ein Personenbezug innewohnt, Art.2 I DSGVO, ob sie sich
also auf eine „identizierte oder identizierbare natürliche Person“ beziehen
(Art. 4 Nr.1 DSGVO).7 Eine Kategorisierung der für das Proling eingesetzten
Daten ist an dieser Stelle notwendig, da die datenschutzrechtlichen Vorgaben vom
Verantwortlichen je nach rechtlicher Qualikation des einzelnen Datums befolgt
werden müssen oder nicht. Die rechtlichen und tatsächlichen, vor allem nanziellen
Folgen, sind unter Umständen beträchtlich. Dies gilt nicht nur mit Blick auf die
Sammlung der Daten– hier verstanden als erste Stufe –, sondern auch mit Blick auf
die Datenverarbeitung auf der nachgelagerten Stufe (dem eigentlichen Proling
zum Zwecke der Ergebnisndung) und teilweise auch auf der dritten Stufe des Mo-
dells (dem Fällen von Entscheidungen).
Bei der Betrachtung des ersten Schrittes bietet sich eine Unterscheidung zwi-
schen zwei Kategorien von Daten an, nämlich „abstrakten Vergleichsdaten“ einer-
seits und „personenbezogenen Daten der betroffenen Person“ andererseits.
1. Abstrakte Vergleichsdaten
a. Vorüberlegungen
Zunächst sind (typischerweise) große Summen an „Erfahrungsdaten“ bzw. „Ver-
gleichsdaten“ erforderlich, um aus ihnen allgemeine Erfahrungssätze, Korrelatio-
nen und Regeln zu generieren, welche das Proling überhaupt erst möglich machen.
Die meisten Proling-Verfahren basieren auf der Überlegung, dass diese Analysen
einer großen Masse von Daten es erlauben, im Einzelfall auf persönliche Aspekte
einer bestimmten Person zu schließen, indem über diese Person vorliegende Infor-
7 Siehe dazu auch Erwägungsgrund 26 DSGVO.
II.Erste Stufe: Datensammlung
40
mationen mit den aus den abstrakten Daten gewonnenen Erfahrungssätzen abgegli-
chen werden. Anders formuliert geht es darum, Eigenschaften und Verhalten von
Menschen in bestimmten Situationen allgemein zu typisieren (und ggf. mit weite-
ren, von ihrer Natur her nicht personenbezogenen Daten in Bezug zu setzen), um
daraus später Erkenntnisse über Einzelpersonen ableiten zu können.8 Auch wenn
weitere Faktoren für die Qualität des eingesetzten Verfahrens und die Zuverlässig-
keit der gefundenen Ergebnisse ebenso eine tragende Rolle spielen, so z.B. die
Richtigkeit und Aktualität der verarbeiteten Daten, führen grundsätzlich größere
Datenmengen auf der abstrakten Ebene zu besseren Ergebnissen im Einzelfall.
Ohne Vergleichsdaten lassen sich individualisierte natürliche Personen nicht ein-
ordnen und bewerten– dem Proling würde die Grundlage fehlen. Auch wenn Ver-
gleichsdaten häug zumindest ursprünglich ein Personenbezug innewohnt, spielt
die Identität der Personen für den Verantwortlichen auf dieser abstrakten Ebene
keine Rolle. Anonymisierte (also ursprünglich personenbezogene) Daten sind damit
als Vergleichsgrundlage ausreichend.
Ein anschauliches Beispiel dafür, welche Rolle abstrakte Vergleichsdaten beim
Proling spielen, ist eine Marketing-Strategie des US-amerikanischen Discount-
Einzelhändlers Target. Diesem ist es gelungen, durch Analyse der ihm vorliegenden
Daten über das Kaufverhalten solcher Kundinnen, die im Rahmen eines Vorteilspro-
gramms dem Unternehmen gegenüber angegeben hatten, schwanger zu sein und
zudem den erwarteten Geburtstermin mitgeteilt hatten, Rückschlüsse auf das Beste-
hen einer Schwangerschaft bei anderen Kundinnen zu ziehen.9 Target konnte10 auf
diese Weise die Schwangerschaft einer Kundin durch Auswertung ihres Kaufverhal-
tens hinsichtlich eines Muster-Einkaufskorbes von ca.25 Alltagsprodukten bereits
im zweiten Drittel der Schwangerschaft mit hoher Genauigkeit feststellen– und
damit lange vor dem Erwerb solcher Produkte, die offensichtlich auf die Geburt
eines Kindes bezogen sind. Target erstellte zu diesem Zweck individuelle „Preg-
nancy Prediction Scores“. Selbst der erwartete Geburtstermin konnte so auf ein re-
lativ kleines Zeitfenster eingegrenzt werden.11 Das Unternehmen nutzte dieses Wis-
sen, um je nach aktuellem Stand der Schwangerschaft individualisierte Werbung (in
Form von Rabatt-Gutscheinen) zu verschicken. Der Wettbewerbsvorteil von Target
bestand darin, die Kundinnen schneller als andere Unternehmen12 mit situationsbe-
zogener Werbung konfrontieren zu können. Das Wissen, dass eine Kundin mit einer
gewissen Wahrscheinlichkeit schwanger ist, war für Target besonders wertvoll, da
Kundinnen (bzw. Paare) in dieser Lebensphase besonders empfänglich dafür sind,
ihr Kaufverhalten grundlegend zu verändern: Zielgerichtete, geschickte Werbung
kann dann den Effekt haben, die Kunden längerfristig auch für solche Produkte an
8 Vgl. Federal Trade Commission, Big Data– A Tool for Inclusion or Exclusion?, 2016, S.5.
9 Ausführlich dazu Duhigg, The NewYork Times Magazine 16.02.2012.
10 Es ist nicht bekannt, ob bzw. in welchem Ausmaß Target diese Analysen auch heute noch
vornimmt.
11 Vgl. zum Fall Target generell auch die Analyse von Ezrachi/Stucke, Virtual Competition, 2016,
S.91ff.
12 Geburtsregister sind in den USA öffentlich, weshalb junge Eltern nach der Geburt eines Kindes
regelmäßig von verschiedenen Unternehmen mit Werbung konfrontiert werden.
Kapitel 3: Proling und automatisierte Entscheidungen: Ein 3-stuges Modell
41
das Unternehmen zu binden, welche sie bisher woanders gekauft haben.13 Dies gilt
vor allem auch für solche Produkte, die keinen inhaltlichen Bezug zur Schwanger-
schaft der Kundin haben. Das beschriebene Vorgehen kann damit für den Verwender
durchaus jahrelange positive Auswirkungen zeitigen.
b. Anonyme, anonymisierte und personenbezogene Daten
Innerhalb der Kategorie „abstrakte Vergleichsdaten“ lassen sich somit drei Unterka-
tegorien abschließend feststellen. Zunächst sind dies solche Daten, denen ihrer Na-
tur nach per se kein Personenbezug innewohnt, wie z.B.Wetter- oder Geländedaten
(Unterkategorie 1). Sie sind genuin anonym, solange sie nicht mit personenbezoge-
nen Daten verknüpft werden.14 Zudem werden häug personenbezogene Daten
i.S.v. Art.4 Nr.1 DSGVO verarbeitet (Unterkategorie 2). Wenn beispielsweise eine
Auskunftei eine Bonitätsauskunft über eine konkrete Person erstellt, werden dafür
zahlreiche Daten anderer in der Kartei gelisteter Kunden als Vergleichsmaßstab he-
rangezogen. Diese Daten sind personenbezogen und müssen es aufgrund der Ar-
beitsweise von Auskunfteien auch bleiben, da diese für jede gelistete Person Score-
Werte bereithalten müssen. Die dritte Unterkategorie stellen anonymisierte Daten
dar. Dies sind Daten, die ursprünglich personenbezogen waren, aber durch verschie-
denartige technische Methoden mit dem Ziel weiterverarbeitet wurden, dass eine
Identizierung der betroffenen Person nicht mehr möglich ist. Die Datenschutz-
Grundverordnung kommt gem. Art.2 I DSGVO nur zur Anwendung, wenn perso-
nenbezogene Daten (Unterkategorie 2) verarbeitet werden. Bei den nicht personen-
bezogenen Daten ist ihr sachlicher Anwendungsbereich nicht eröffnet.
Um die Anwendbarkeit des Datenschutzrechts zu umgehen, werden große Da-
tensätze häug anonymisiert, um sie an Dritte weiterzugeben, z.B. zu Zwecken der
Forschung oder zwecks kommerzieller Nutzung. Terminologisch ist der Begriff
„anonymisiert“ nicht unproblematisch. Er suggeriert nämlich, dass die Anonymisie-
rung erfolgreich gewesen ist, dass sie also vor allem nicht umkehrbar ist. Wie die
folgenden Ausführungen zeigen, ließe sich durchaus argumentieren, dass begriff-
lich stärker deutlich gemacht werden sollte, ob auf das Ergebnis, also eine wirklich
effektive Anonymisierung, oder nur auf die Absicht, eine solche nach Möglichkeit
herbeizuführen, abgestellt wird.15 Anonymisierung kommt in großem Ausmaß auch
beim Proling zum Einsatz, denn die Entbindung von möglichst vielen datenschutz-
rechtlichen Pichten, welche in der Praxis für die Verpichteten durchaus zeit- und
kostenintensiv sein können,16 ist für diese sehr erstrebenswert.
13 Vgl. zu den verhaltenspsychologischen Hintergründen Duhigg, The NewYork Times Magazine
16.02.2012 und Greenstein, Our Humanity exposed, 2017, S.116f.
14 Erwägungsgrund 26 DSGVO unterscheidet personenbezogene und anonyme Daten, wobei Letz-
tere den hier als Unterkategorie 1 und 3 bezeichneten Daten entsprechen.
15 Vgl. dazu die Ausführungen bei Ohm, UCLA L.R. 57 (2010), 1701, 1744f.
16 Zu denken ist z.B. an das ggf. notwendige Einholen von Einwilligungen aller Betroffenen gem.
Art. 6 I S. 1 lit. a DSGVO oder das Erstellen einer Datenschutz-Folgenabschätzung gem.
Art.35f. DSGVO.
II.Erste Stufe: Datensammlung
42
c. Technische und rechtliche Probleme der Anonymisierung
Sowohl in tatsächlicher als auch in rechtlicher Hinsicht ist das Verhältnis von techni-
scher Anonymisierung und datenschutzrechtlicher Bewertung des Personenbezugs
nicht durchweg unproblematisch. An die Anonymisierung personenbezogener Daten
sind in technischer Hinsicht hohe Anforderungen zu stellen, da diese Verfahren mit
fortschreitender technischer Entwicklung und Zunahme des vorhandenen Datenmate-
rials immer häuger rückgängig gemacht werden können.17 Je nachdem, welche An-
forderungen man an den Begriff „identizierbar“ in Art.4 Nr.1 DSGO stellt, müssen
Daten, welche eigentlich anonymisiert werden sollten, rechtlich doch als personenbe-
zogen eingeordnet werden, wenn die Identität der ursprünglich betroffenen Personen
mit technischen Mitteln wieder aufgedeckt werden kann. Mit dem Fortschritt der
Technologie und dem verfügbaren Datenmaterial steigt damit tendenziell die Summe
an Daten, die rechtlich als personenbezogen qualiziert werden müssen.18 Auch die
Anonymisierungstechniken entwickeln sich im Laufe der Zeit weiter. Allerdings hat
sich gezeigt, dass die Möglichkeiten der Re- Identikation diesen technisch in der
Regel überlegen sind.19
„Schwachstelle“ der Anonymisierung ist zumeist der Abgleich (vermeintlich) anony-
misierter Daten mit weiteren Datenquellen. Sobald eindeutige Übereinstimmungen ge-
funden wurden, kann häug aufgedeckt werden, auf welche natürlichen Personen sich
ein eigentlich anonymisierter Datensatz bezieht.20 Viele Methoden würden zwar eine
Anonymisierung ermöglichen, die mit Sicherheit nicht rückgängig zu machen wäre.
Dies gilt aber nur unter der (in den meisten Fällen) realitätsfernen Prämisse, dass an-
sonsten keinerlei Zugriff auf personenbezogene Daten besteht, welche sich auf die Per-
sonen beziehen, deren Identitäten durch die Anonymisierung geschützt werden sollten.21
Einer Re-Identikation in besonderem Maße zugänglich sind mit Sensoren ausgestat-
tete Alltagsprodukte des „Internets der Dinge“, wie etwa Fitness-Tracker oder Smart-
phones. Diese können umfassende und damit persönlichkeitsrechtlich hoch relevante
Bewegungs- bzw. anderweitige Verhaltensprole ihrer Nutzer erstellen, welche ihrer
Natur nach aufgrund ihrer Komplexität häug einzigartig sind.22 Werden diese Prole in
ihrer Gänze gespeichert und nur dadurch anonymisiert, dass eindeutige Identikations-
merkmale (sog. Identier) gelöscht werden, wie z.B.Name oder Adresse der jeweiligen
Nutzer, ist eine Re-Identikation häug relativ leicht möglich: Einige wenige Informa-
tionen über das Verhalten eines bestimmten Nutzers, gewonnen aus anderen Quellen,
17 Bygrave, Data Privacy Law, 2014, S.131; Schwartz/Solove, N.Y.U.L. Rev. 86 (2011), 1814,
1841ff.; Tene/Polonetsky, Nw. J.Tech. & Intell. Prop. 11 (2013), 239, 251f. Zum Spannungsfeld
zwischen Anonymisierung, Datenschutz und Datenqualität vgl. auch grundlegend Leistner/
Antoine/Sagstetter, Big Data, 2021, S.214ff.
18 Vgl. Ohm, UCLA L.R. 57 (2010), 1701, 1742 (zu dem Begriff Personally Identiable Informa-
tion aus dem US-amerikanischen Recht).
19 Ders., UCLA L.R. 57 (2010), 1701, 1751ff.
20 Ders., UCLA L.R. 57 (2010), 1701, 1723.
21 Vgl. ders., UCLA L.R. 57 (2010), 1701, 1724.
22 Peppet, Tex. L.Rev. 93 (2014), 85, 129f.
Kapitel 3: Proling und automatisierte Entscheidungen: Ein 3-stuges Modell
43
können ohne Weiteres eine Zuordnung dieser konkreten Person zu einem der eigentlich
anonymisierten Prole erlauben. Dies bedeutet, dass wenige, zudem häug vermeint-
lich banale Informationen, wie z. B. solche über den typischerweise zurückgelegten
Weg zur Arbeit, sehr komplexe und aussagekräftige Prole und Verhaltensmuster offen-
legen können.23 Generell gilt, dass trotz dauerhafter Löschung typischer Identikations-
merkmale aus einem Datensatz, wie z.B. des Namens oder der Adresse einer Person,
erstaunlich häug der Rückschluss auf die Identität einzelner Personen weiterhin mög-
lich ist. Eine US-amerikanische Studie aus dem Jahr 2000 hat beispielsweise nachge-
wiesen, dass 87% der US-Amerikaner anhand ihrer 5-stelligen Postleitzahl, ihres Ge-
schlechts und ihres Geburtsdatums einwandfrei identiziert werden können.24
Je effektiver personenbezogene Daten anonymisiert werden, desto aussageloser
und damit weniger nutzbringend werden sie häug mit Blick auf ihren Aussagege-
halt. Eine Methode der Anonymisierung ist es beispielsweise, spezische Informa-
tionen, welche in Datensätzen enthalten sind, gezielt zu generalisieren, um so den
Rückschluss auf die dahinterstehenden Individuen zu verhindern oder zumindest zu
erschweren. Der Aussagegehalt wird auf diese Weise verwässert, so z.B. indem bei
Vorliegen von 5-stelligen Postleitzahlen, welche Auskunft über den Wohnort der in
einem Datensatz enthaltenen Personen geben, immer die letzten beiden Ziffern ge-
löscht werden.25 Dies erschwert tendenziell das Aufdecken der Identität der betrof-
fenen Personen, verringert aber auch den Aussagegehalt des Datensatzes insgesamt.
Wird er z.B. herangezogen, um Marktforschung zu betreiben oder eine Statistik zu
erstellen, wird das Ergebnis in örtlicher Hinsicht unpräziser. Ein noch stärkerer Ver-
lust an Aussagekraft ist zu erwarten, wenn Datensätze dergestalt anonymisiert wer-
den, dass die in ihnen enthaltenen Informationen vor der Weiterverarbeitung zusam-
mengefasst werden.26 Die Anonymisierung mag in diesen Fällen sehr efzient sein
und eine Identizierung einzelner Personen verhindern. Durch das Zusammenfas-
sen der Ergebnisse gehen aber auch viele potenziell nützliche Informationen
verloren. Zudem wohnen einer Zusammenfassung häug auch wertende Elemente
inne, weshalb der Aussagegehalt der Daten eventuell verfälscht wird.
Es stellt sich also das grundsätzliche Problem, dass ein Kompromiss gefunden
werden muss zwischen dem Schutz der Privatheit und des allgemeinen Persönlich-
keitsrechts auf der einen Seite und dem den Daten nach der Anonymisierung noch
innewohnenden Nutzen andererseits. Man muss nicht so weit gehen wie Ohm, der
in seiner grundlegenden Abhandlung zu den rechtlichen Implikationen der Anony-
misierung von Datensätzen ausführt: „Data can be either useful or perfectly anony-
23 Vgl. ders., Tex. L.Rev. 93 (2014), 85, 129f.
24 Sweeney, Simple Demographics often identify People uniquely, 2000, S.2. Geschlecht und Ge-
burtsdatum in Kombination mit dem Wohnort (also einer weniger präzisen Ortsangabe) lassen
immer noch eine Identikation von 53% der US-Amerikaner zu; eine Angabe des County (Ver-
waltungseinheit, die im weitesten Sinne mit den deutschen Landkreisen vergleichbar ist) anstelle
des Wohnorts von immerhin noch 18 % (dies., Simple Demographics often identify People
uniquely, 2000, S.2).
25 Ohm, UCLA L.R. 57 (2010), 1701, 1714f.
26 Vgl. ders., UCLA L.R. 57 (2010), 1701, 1715f.
II.Erste Stufe: Datensammlung
44
mous but never both.“27 Ihm ist aber dahingehend beizupichten, dass der Konikt
zwischen der (durch die Datenverarbeitung möglicherweise negativ beeinträchtig-
ten) Privatheit der Betroffenen und der Nutzbarmachung von Daten zu verschiede-
nen Zwecken häug vorschnell unter Verweis auf eine vermeintlich effektive Ano-
nymisierung im Einzelfall heruntergespielt wird.28
2. Personenbezogene Daten des Betroffenen
Um Proling bezogen auf eine bestimmte Person– einen (potenziellen) Kunden,
eine Arbeitnehmerin, einen Kreditantragsteller etc.– durchzuführen, ist es notwen-
dig, dass mindestens ein einzelnes Datum bekannt ist, welches sich auf diese kon-
krete Person bezieht. Es handelt sich um die betroffene Person i.S.d. Art.4 Nr.1
DSGVO.Typischerweise wird auf mehrere (und zwecks Verbesserung des Ergeb-
nisses möglichst viele) personenbezogene Daten zurückgegriffen. Diese müssen
zwingend personenbezogen i.S.d. Art.4 Nr.1 DSGVO sein, da der Verantwortliche
sie heranzieht, um die konkret betroffene Person im Einzelfall zu bewerten, und dies
nur unter Bezugnahme auf die jeweilige Identität möglich ist. Die tatsächlichen,
qualitativen Unterschiede zwischen abstrakten Vergleichsdaten und (im Gegensatz
dazu „konkreten“) Daten mit Bezug auf eine Einzelperson schlagen sich hier bei der
datenschutzrechtlichen Einordnung nieder.29 Target ging grundsätzlich so vor, dass
nach Möglichkeit jeder Kundin eine individuelle „Guest ID Number“ zugeordnet
wurde, unter der alle dem Unternehmen bekanntgewordenen Informationen über
die jeweilige Kundin gespeichert wurden.30 Spätestens im Zeitpunkt der Zuordnung
dieser einzelnen Informationen zu einem konkreten Individuum unter Verwendung
dieser Kennnummer wurden daraus (nach dem Verständnis des europäischen Daten-
schutzrechts) personenbezogene Daten.31 Um die Wahrscheinlichkeit zu berechnen,
dass eine bestimmte Kundin schwanger ist, wurde das Kaufverhalten bezogen auf
25 Produkte eines Muster-Warenkorbes ausgewertet (s.o.). Der Zugriff auf dieses
Bündel an Informationen in Form von personenbezogenen Daten mit Bezug auf die
konkret zu bewertende Kundin ermöglichte Target die Durchführung des Prolings.
Personenbezogenen Daten kommt damit beim Proling eine Schlüsselrolle zu: Erst
der Zugriff auf sie erlaubt es, die abstrakten Erfahrungssätze, welche aus den abs-
trakten Vergleichsdaten gewonnen werden konnten, auf den Einzelfall zu übertra-
gen und somit nutzbar zu machen.
27 Ders., UCLA L.R. 57 (2010), 1701, 1704.
28 Ders., UCLA L.R. 57 (2010), 1701ff. passim.
29 Vgl. dazu auch Council of Europe, The Protection of Individuals with Regard to automatic Pro-
cessing of personal Data in the Context of Proling, 2011, S.25 Rn.38–40.
30 Duhigg, The NewYork Times Magazine 16.02.2012.
31 Vgl. Klar/Kühling, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.4 Nr.1 Rn.19 DSGVO.
Kapitel 3: Proling und automatisierte Entscheidungen: Ein 3-stuges Modell
45
III.Zweite und dritte Stufe: Proling und
Entscheidungsndung sowie -ausführung
Der Einsatz von Proling ist für Unternehmen ein hilfreiches Werkzeug, um die
persönlichen Aspekte von Verbrauchern zu analysieren und vorherzusagen. Es wird
deshalb eingesetzt, um die Interaktion mit dem Betroffenen im weiteren Sinne aus-
zugestalten, um also geschäftliche Handlungen– bzw. das Unterlassen eines Han-
delns– ihm gegenüber zu bestimmen. Im Kern dient Proling also dazu, Entschei-
dungen über das weitere Vorgehen vorzubereiten. Das Fällen und Ausführen von
Entscheidungen folgt zeitlich nach.
Proling stellt also in chronologischer Hinsicht den zweiten Schritt des hier ver-
tretenen Modells dar, das Fällen von Entscheidungen den dritten. Auch in qualitati-
ver Hinsicht ist diese Strukturierung und Abgrenzung von Proling einerseits und
dem Fällen sowie Ausführen von Entscheidungen andererseits sinnvoll. Im Folgen-
den wird dargestellt, dass diese Herangehensweise es erlaubt, die verschiedenen
Probleme und Interessenlagen der Beteiligten rechtlich zu würdigen, zu bewerten
und in Bezug zueinander zu setzen. Anders formuliert erlaubt es die vorgeschlagene
Strukturierung, die anwendbaren Rechtsregime und damit die ggf. betroffenen
Rechtsgüter der Beteiligten und weitere rechtliche Implikationen zu bestimmen.
Proling stellt, wie schon der Wortlaut der Legaldenition zeigt, zunächst nur
eine Bewertung persönlicher Aspekte dar. Dabei werden für den Verwender poten-
ziell nützliche Informationen über den Betroffenen generiert. Es geht also um das
Finden von Erkenntnissen, die in einem nachgelagerten Schritt möglicherweise
nutzbringend eingesetzt werden können. Eine gedankliche, strukturelle Differenzie-
rung zwischen dem Schaffen einer Entscheidungsgrundlage mit den Mitteln des
Prolings und dem eigentlichen Fällen und Ausführen einer Entscheidung scheint
also sinnvoll. Das 3-stuge Modell lässt sich, wie vor allem bei der Untersuchung
der Regulierung automatisierter Entscheidungsndungen zu sehen sein wird, auch
mit dem Aufbau der Datenschutz-Grundverordnung begründen.
Die Erstellung der Bewertung persönlicher Aspekte, also das eigentliche Pro-
ling, wird anhand der im Rahmen des ersten Schritts gesammelten Daten vorge-
nommen. In diesem zweiten Schritt geht es darum, die Ergebnisse von Proling und
ggf. weiterer relevanter Aspekte, welche nicht zwangsläug auf Proling basieren,
zusammenzutragen, um eine Grundlage für das weitere Vorgehen zu schaffen. Die
Bewertung ist für den Betroffenen zunächst insofern relevant, als sie einen Eingriff
in sein allgemeines Persönlichkeitsrecht darstellt. Das Proling einer Person spielt
sich im klassischen Anwendungsbereich des Datenschutzrechts ab und stellt einen
Eingriff in das Recht auf informationelle Selbstbestimmung und die Privatheit des
Betroffenen dar. Abgesehen davon hat es für ihn zunächst aber keine unmittelbaren
Auswirkungen. Dies gilt vor allem in den Fällen, in denen der Betroffene sich nicht
bewusst ist, dass Proling stattndet. In tatsächlicher Hinsicht kommt es für den
Betroffenen maßgeblich darauf an, wie der Verwender von Proling-Verfahren an-
gesichts dieser gefundenen Informationen weiter verfährt, welche tatsächlichen
Folgen er also an das Ergebnis des Prolings knüpft. Ein Beispiel hierfür ist das
III.Zweite und dritte Stufe: Proling und Entscheidungsndung sowie -ausführung
46
Erstellen eines Score-Wertes durch eine Auskunftei, welchen eine Bank einholt, um
über einen Kreditantrag zu entscheiden: Der Wert trifft eine Aussage über die Boni-
tät des Kreditantragstellers. Das Erstellen des Wertes und die in ihm getroffene
Aussage sind für den Betroffenen erst dann relevant, wenn die Bank sich entschie-
den hat, ob und ggf. unter welchen Bedingungen sie einen Kredit gewährt. Erst
diese Entscheidung hat für den Antragsteller spürbare Auswirkungen auf seine per-
sönliche Handlungsfreiheit, die in diesem Beispiel vor allem auch mit wirtschaftli-
cher Handlungsfreiheit einhergeht. Für ihn kommt es also neben dem inhaltlichen
Ergebnis des Proling-Verfahrens (also der Höhe des Score-Wertes) maßgeblich
darauf an, wie die Bank mit der Aussage, die der Score-Wert trifft, umgeht und ihren
Entscheidungsndungsprozess intern ausgestaltet.
Dem Proling folgt zeitlich also das Fällen und Ausführen einer Entscheidung,
die auf den mit den Mitteln des Prolings gefundenen Ergebnissen aufbaut. Dies
kann als nachgelagerter, dritter Schritt des Modells verstanden werden. Auf dieser
Stufe spielen wiederum zwei wesentliche Faktoren eine Rolle.
Zunächst stellt sich die Frage, welche Bedeutung den Proling-Ergebnissen bei
der Entscheidungsndung zugemessen wird. Spielen sie eine untergeordnete Rolle,
oder hängt die Entscheidung über das weitere Vorgehen maßgeblich oder sogar voll-
ständig von ihnen ab? Für den eben beispielhaft genannten Antragsteller macht es
einen wesentlichen Unterschied, ob der Score-Wert die Frage der Kreditvergabe de
facto abschließend entscheidet, oder ob er nur einen Faktor darstellt, der neben an-
deren in die Entscheidung einießt. So kann die Bank durchaus auch eigene, wei-
tere Kriterien heranziehen, welche der Auskunftei nicht bekannt sind, wie z.B. die
Dauer der Kundenbeziehung oder auch das Einkommen der Person.32 Die Entschei-
dung über die Kreditvergabe kann durchaus auch von einem gewachsenen Vertrau-
ensverhältnis mit dem Kunden beeinusst werden. Auch Faktoren, die nicht in der
Person des Kreditantragstellers begründet liegen, wirken auf die Entscheidungsn-
dung ein, so z.B. die allgemeine wirtschaftliche Situation der Bank.
Der zweite Faktor ist der Grad an Automatisierung. Dieser beschreibt, inwiefern
eine Entscheidung ohne menschliches Zutun von einem Computer gefällt und aus-
geführt wird. Stellen die Ergebnisse des Prolings eine Entscheidungshilfe dar
oder spielen menschliche Entscheider im Entscheidungsndungsprozess gar keine
bzw. nur eine untergeordnete Rolle? Vollständig oder weitgehend automatisierte,
auf Proling basierende Entscheidungsndungen ohne jegliches menschliches Ein-
greifen sind heutzutage in vielen Bereichen die Praxis oder wären zumindest ohne
Weiteres denkbar. Die Datenschutz-Grundverordnung nennt in ihrem Erwägungs-
grund 71 beispielhaft „die automatische Ablehnung eines Online-Kreditantrags
oder Online-Einstellungsverfahren ohne jegliches menschliche Eingreifen.“ Letzt-
genannte Verfahren kommen heutzutage z.B. schon regelmäßig zum Einsatz. Wie
u.a. die Süddeutsche Zeitung berichtet, ndet die Vorauswahl von Bewerbern im-
mer häuger automatisiert statt.33 Demnach entscheidet eine Software anhand von
32 Dies ist ein für die Bonität durchaus relevanter Faktor. Dieser ist den Auskunfteien aber häug
gar nicht bekannt.
33 Demmer, Süddeutsche Zeitung 17.06.2017.
Kapitel 3: Proling und automatisierte Entscheidungen: Ein 3-stuges Modell
47
online ausgefüllten Fragebögen und den Bewerbungsunterlagen, ob ein Kandidat
zum Vorstellungsgespräch eingeladen wird. Wenn dabei nur klar denierte Kriterien
wie beispielsweise das Vorliegen eines notwendigen berufsqualizierenden Ab-
schlusses überprüft werden, liegt mangels Bewertung kein Proling nach dem Ver-
ständnis der Datenschutz-Grundverordnung vor.34 Proling ist hingegen zu bejahen,
wenn „die Prole von Kandidaten mit denen der [im jeweiligen Unternehmen] er-
folgreichen Mitarbeiter“35 verglichen werden, um im Rahmen des Auswahlprozes-
ses geeignete Kandidaten zu nden. Es erfolgt nämlich eine Analyse der Bewerber
hinsichtlich ihrer (erwarteten) Arbeitsleistung, verbunden mit einer Vorhersage ih-
res Verhaltens. Eine solche Bewertung persönlicher Aspekte i.S.d. Art.4 Nr.4
DSGVO liegt ebenso vor, wenn eigentlich geeignete Kandidaten, die aber „häug
den Job gewechselt haben, deren Lebenspartner nicht am Standort der zu besetzen-
den Stelle arbeiten oder deren biograsche Angaben zu erkennen geben, dass sie
aus anderen Gründen einem Angebot keinesfalls folgen würden“,36 automatisiert
abgelehnt werden.
IV.Herleitung, Eigenschaften und Nutzen des Modells
1. Dogmatische Herleitung
Das hier vorgeschlagene 3-stuge Modell lässt sich mit Aufbau und Wortlaut der
Datenschutz-Grundverordnung begründen.37 Art.4 Nr.4 DSGVO deniert die auto-
matisierte Verarbeitung personenbezogener Daten als Tatbestandsvoraussetzung,
womit eine Datensammlung als vorgelagerte Stufe für das Proling zwingend
notwendig ist. Abgesehen davon erschöpft die Norm sich im Wesentlichen darin,
Proling als Bewertung persönlicher Aspekte zu denieren. Maßnahmen des Pro-
lings stellen nach dieser Denition keine Entscheidungen dar.38 Der Umgang mit
der Bewertung wird in dieser Norm also nicht thematisiert. Dies deutet darauf hin,
dass Proling ein in sich abgeschlossener, eigenständiger Handlungsabschnitt ist.
Art.22 I DSGVO macht mit der Formulierung „auf einer automatisierten Verar-
beitung– einschließlich Proling – beruhenden Entscheidung“ deutlich, dass die
Datenschutz-Grundverordnung den Akt des Entscheidens als nachgelagerten Schritt
34 Vgl. Council of Europe, The Protection of Individuals with Regard to automatic Processing of
personal Data in the Context of Proling, 2011, S.25f. Rn.41 und von Lewinski, in: Wolff/Brink
(Hrsg.), Beck’scher Online-Kommentar Datenschutzrecht, 43. Edition (Stand: 1.2.2023), Art.22
Rn.16.1 DSGVO.
35 Demmer, Süddeutsche Zeitung 17.06.2017.
36 Dies., Süddeutsche Zeitung 17.06.2017.
37 Siehe zur dogmatischen Herleitung des Modells bereits Wiedemann, Computer Law & Security
Review 45 (2022), 1, 9ff.
38 Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32022, Art.22 Rn.4 DSGVO.
IV.Herleitung, Eigenschaften und Nutzen des Modells
48
sieht (ebenso wie der Wortlaut des Erwägungsgrundes 7139) und stellt die Verbin-
dung zwischen Schritt 2 und Schritt 3 des Modells her. Deutlich wird die Unter-
scheidung zwischen Proling (als Schaffung einer Entscheidungsgrundlage) und
dem anschließenden Fällen einer davon beeinussten Entscheidung in Art.35 III lit.
a DSGVO.Demnach ist eine Datenschutz-Folgenabschätzung insbesondere dann
notwendig, wenn eine „systematische und umfassende Bewertung persönlicher As-
pekte natürlicher Personen, die sich auf automatisierte Verarbeitung einschließlich
Proling gründet und die ihrerseits als Grundlage für Entscheidungen dient,“ vor-
liegt. Eine Entscheidung kann auch dazu führen, dass der Verantwortliche ein Han-
deln unterlässt. Die Ausführung der Entscheidung muss also nicht stets in einem
aktiven Tun bestehen.
2. Eigenschaften und Nutzen
Die drei Stufen des hier skizzierten Modells– die Sammlung abstrakter Vergleichsdaten
bzw. personenbezogener Daten über den Betroffenen als erste Stufe, Proling als zweite
Stufe, das Fällen (und ggf. Ausführen) von Entscheidungen als dritte Stufe– stehen für
jeweils eigene Verfahrensabschnitte, die als solche auch eine jeweils eigene Würdigung
notwendig machen. Auch wenn sie jeweils in sich abgeschlossen sind und damit ein
gewisses Maß an Unabhängigkeit aufweisen, besteht zwischen ihnen ein innerer Zu-
sammenhang. Dies zeigt sich vor allem mit Blick auf die dritte Stufe, da das Fällen von
Entscheidungen ja zumindest auch vom Ergebnis der zweiten Stufe abhängt (welche
wiederum nur nach Durchlaufen der ersten Stufe erreicht werden kann).
Die Unterscheidung der drei Stufen anhand des Modells erleichtert es, die ver-
schiedenen rechtlichen und tatsächlichen Implikationen für die jeweils Betroffenen
zu erkennen und zu bewerten. Dies kann für die Interpretation des geltenden Rechts
und rechtspolitische Diskussionen über etwaige Änderungen hilfreich sein. Die ers-
ten beiden Stufen spielen sich im klassischen Anwendungsbereich des Datenschutz-
rechts ab, da für das Durchführen von Proling personenbezogene Daten gesam-
melt und automatisiert verarbeitet werden. Proling erlaubt weitreichende Analysen
und Vorhersagen über private, teilweise intime persönliche Aspekte, womit die typi-
schen Gefährdungen für das Recht auf informationelle Selbstbestimmung und die
Privatheit des Einzelnen einhergehen. Die Beeinträchtigung besteht an dieser Stelle
oftmals „nur“ in dem Eingriff in die informationelle Selbstbestimmung des Einzel-
nen, die darüber hinausgehend aber keine unmittelbaren Wirkungen entfaltet. Die
dritte Stufe hingegen ist primär unter dem Gesichtspunkt der Selbstbestimmung und
der Ausübung wirtschaftlicher Freiheit relevant. Die von Unternehmen getroffenen
Entscheidungen im Umgang mit Verbrauchern sind zwar in vielen Konstellationen
für diesen ohne nennenswerte unmittelbare Auswirkungen, so z.B. bei Online-
39 Vgl. den Wortlaut: „Entscheidung(…), die ausschließlich auf einer automatisierten Verarbeitung
[wie z.B.Proling] beruht“ und „auf einer derartigen Verarbeitung, einschließlich des Prolings,
beruhende Entscheidungsndung“.
Kapitel 3: Proling und automatisierte Entscheidungen: Ein 3-stuges Modell
49
Werbung. Sie können allerdings auch wirtschaftliche und damit auch unter freiheit-
lichen Gesichtspunkten sensible Lebensbereiche beeinussen, wie die genannten
Beispiele (Kreditantrag, Einstellungsentscheidungen, Zugang zu Versicherungen
etc.) gezeigt haben. Hier geht es also im Schwerpunkt um die allgemeine Hand-
lungs- und Entfaltungsfreiheit des Betroffenen, oftmals auch um seine persönliche
Freiheit in wirtschaftlicher Hinsicht.
Die drei Stufen des Modells können durchaus von verschiedenen Verantwortli-
chen ausgeführt werden. Wieder lässt sich dafür das Beispiel des Kredit-Scorings
heranziehen: Score-Werte werden typischerweise von Auskunfteien bezogen, wel-
che in großem Ausmaß Verbraucherdaten sammeln und mit den Methoden des Pro-
lings verarbeiten (sog. externes Scoring). Ihr Handeln spielt sich also auf den ers-
ten beiden Stufen des Modells ab. Die tatsächliche, dem Kreditantragsteller
gegenüber verbindliche Entscheidung über die Kreditvergabe wird letztlich aber
immer auf der dritten Stufe von der Bank ihm gegenüber mit Wirkung inter partes
gefällt. Die Auskunftei stellt der Bank nur eine Entscheidungsgrundlage zur Verfü-
gung.40 Auf die Frage, wie die Bank anschließend damit umgeht, hat die Auskunftei
keinen Einuss: Sie entscheidet weder darüber, ob die Bank letztlich weitere Krite-
rien für die Entscheidung (und ggf. welche) heranzieht, noch entscheidet sie darü-
ber, inwieweit diese Entscheidung seitens der Bank automatisiert getroffen wird.41
Daher können die Ausführungen des VG Wiesbaden nicht überzeugen, welches im
Rahmen eines Vorabentscheidungsersuchens i.S.d. Art.267 AEUV argumentiert,
die Auskunftei treffe durch Erstellung des Score-Wertes dem Kunden gegenüber
(faktisch) die nale Entscheidung über die Kreditvergabe.42 Die dritte Stufe bezieht
sich also auf interne Verfahrensabläufe des Verantwortlichen (die reine Entschei-
dungsndung) und, soweit ein aktives Handeln entschieden wurde, auf Aktivitäten
mit Außenwirkung bzw. ein bewusstes Untätigbleiben.
Dieses Beispiel verdeutlicht zudem, dass das 3-stuge Modell die Feststellung
der Verantwortlichkeit für Fehler und der etwaigen daraus resultierenden Haftung
erleichtern kann. Dies gilt unabhängig davon, ob ein (bußgeldbewehrter) Verstoß
gegen datenschutzrechtliche Vorschriften oder eine zivilrechtliche Haftung im
Raum steht, so z.B. für Fehler bei der Erstellung des Score-Wertes. Die Strukturie-
rung erlaubt so das Aufdecken von Fehlerquellen und Verantwortlichkeiten.
40 Taeger, RDV 2017, 3, 6. Siehe auch OLG Frankfurt a.M., NZI 2016, 188, 189 (zu §6a BDSG
a.F., welche als Vorgängernorm von Art.22 DSGVO in Umsetzung von Art.15, 12 DSRL die
Zulässigkeit automatisierter Einzelentscheidungen regelte): „Zwar ndet bei der Bekl. [Anmer-
kung: einer Auskunftei] eine automatisierte Verarbeitung personenbezogener Daten statt. Jedoch
trifft die Bekl. auf Grund dieser Datenverarbeitung keine Entscheidungen gegenüber dem Kl. [An-
merkung: ein Schuldner mit negativem Eintrag] Dies tun allein die Vertragspartner der Bekl., in-
dem sie unter anderem anhand der durch die Bekl. erlangten Informationen entscheiden, ob sie mit
dem Kl. ein kreditrelevantes Geschäft abschließen.“
41 Dazu siehe bereits oben Kap.3, III.
42 VG Wiesbaden, 6 K 788/20.WI, ECLI:DE:VGWIESB:2021:1001.6K788.20.WI.0A, BeckRS
2021, 30719, Rn.21 und 24–33 (im Kontext von Art.22 DSGVO). Der Generalanwalt hat sich der
Argumentation des vorlegenden Gerichts angeschlossen, siehe Schlussanträge des Generalanwalts
Priit Pikamäe, C-634/21, ECLI:EU:C:2023:220, Rn.31–52 (SCHUFA Holding u.a. (Scoring)).
IV.Herleitung, Eigenschaften und Nutzen des Modells
50
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International
Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung,
Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format er-
laubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen
Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der ge-
nannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. So-
fern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betref-
fende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten
Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Kapitel 3: Proling und automatisierte Entscheidungen: Ein 3-stuges Modell
51
Kapitel 4: Regulierung von Proling und
automatisierten Einzelentscheidungen
I. Überblick
Auf den in Art. 4 Nr. 4 DSGVO legaldenierten Begriff Proling wird in der
Datenschutz- Grundverordnung sowohl in ihrem verfügenden Teil als auch in ihren
Erwägungsgründen an mehreren Stellen Bezug genommen. Vor dem Hintergrund
des hier vertretenen 3-stugen Modells spielt vor allem Art. 22 DSGVO eine
Schlüsselrolle. Diese Norm regelt die Zulässigkeit automatisierter Einzelent-
scheidungen und ist damit für die dritte Stufe des Modells (Entscheidungsndung
und -ausführung) relevant. Sie wird im Folgenden neben den rechtlichen Vorgaben
für das eigentliche Proling vertieft analysiert. Die weiteren relevanten Betroffenen-
rechte des KapitelsIII, welche Proling explizit in Bezug nehmen, sind zunächst die
Informationspichten der Art.13 II lit. f, 14 II lit. g DSGVO, welche nur im Kontext
von automatisierten Entscheidungsndungen gem. Art.22 DSGVO speziell auf Pro-
ling Bezug nehmen. In diesen Fällen steht dem Betroffenen zudem ein Auskunfts-
recht gem. Art.15 I lit.h DSGVO zu. Die Grundtatbestände der Art.13, 14 und 15
DSGVO kommen auch zur Anwendung, wenn Proling durchgeführt wird, ohne
dass die gefundenen Ergebnisse im Nachgang zur Grundlage vollständig auto-
matisierter Entscheidungen werden. Art.21 I, II DSGVO gewährt zudem in be-
stimmten Situationen ein Widerspruchsrecht, welches Proling beispielhaft nennt
(ein eigener Aussagegehalt kommt der Nennung allerdings nicht zu).1 Die genannten
Vorschriften werden im Folgenden überblicksartig mit Blick auf ihren Regelungs-
gehalt und ihre Funktion im Kontext von Proling umrissen. Eine vertiefte, spezi-
schere Analyse erfolgt im dritten Teil dieser Arbeit im Kontext der Frage, ob das
geltende materielle Recht in der Lage ist, die Mitglieder geschützter Gruppen vor
Diskriminierung durch personalisierte Preise zu schützen.
1 Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32022, Art.21 Rn.16 DSGVO.
© Der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9_4
52
II.Regulierung von Proling
In materiell-rechtlicher Hinsicht macht die Datenschutz-Grundverordnung in ihrem
verfügenden Teil keine spezischen Vorgaben, wie Proling-Verfahren i.S.d. Art.4
Nr.4 DSGVO durchzuführen sind. Bei dieser Norm handelt es sich um eine Legal-
denition, welche das Verfahren beschreibt. Es handelt sich damit weder um einen
Erlaubnistatbestand, noch werden der Zulässigkeit von Proling durch die Norm
rechtliche Grenzen gezogen. In Ermangelung spezieller Regelungen kommen damit
im Rahmen der Prüfung der datenschutzrechtlichen Zulässigkeit nur die allgemeinen
Vorgaben zur Anwendung.2
1. Rechtsgrundlagen
Das europäische Datenschutzrecht sieht bei der Verarbeitung personenbezogener
Daten traditionell ein generelles Verbot mit Erlaubnisvorbehalt vor. Gem. Art.6 I S.1
DSGVO ist für eine rechtmäßige Datenverarbeitung zwingend entweder eine Ein-
willigung des Betroffenen oder ein gesetzlicher Erlaubnistatbestand notwendig.3
Art.9 II DSGVO ist als Rechtsgrundlage gegenüber Art.6 I S.1 DSGVO lex specia-
lis, soweit besondere Kategorien personenbezogener Daten (sog. sensible Daten4)
verarbeitet werden. Von besonderer Relevanz ist dies mit Blick auf Art.6 I S.1 lit. f
DSGVO.Der Verantwortliche kann sich nicht auf diese Interessenabwägungsklausel
berufen, wenn sensible Daten verarbeitet werden.5 Art.9 II DSGVO enthält keine
vergleichbare, offen formulierte Abwägungsklausel. Im Bereich des privatwirtschaft-
lich durchgeführten Prolings kommen insbesondere Art.6 I S.1 lit. a, lit. b und
lit. f, 9 II lit. a DSGVO als Rechtsgrundlagen in Betracht.
a. Einwilligung
Im Fall des Prolings kommt damit zunächst die Einwilligung des Betroffenen
gem. Art.6 I S.1 lit. a DSGVO in Betracht. Der Verantwortliche muss, wenn er die
Datenverarbeitung auf diesen Erlaubnistatbestand stützen möchte, die Vorgaben des
Art.7 DSGVO befolgen. Die Einwilligung muss zudem eine „freiwillig für den be-
stimmten Fall, in informierter Weise und unmissverständlich abgegebene Willens-
2 So auch Erwägungsgrund 72 DSGVO.
3 Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32022, Art.6 Rn.2 DSGVO.
4 Die Datenschutz-Grundverordnung verwendet diesen Begriff in ihrem Erwägungsgrund 10 als
Synonym für den Ausdruck „besondere Kategorien personenbezogener Daten“, welcher in der
amtlichen Überschrift von Art.9 DSGVO verwendet wird.
5 Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32022, Art.9 Rn.5 DSGVO.
Kapitel 4: Regulierung von Proling und automatisierten Einzelentscheidungen
53
bekundung“ im Sinne der Legaldenition in Art.4 Nr.11 DSGVO sein. Der Be-
troffene muss demnach verstehen, in was genau er einwilligt, wie die Ergebnisse
des Prolings genutzt werden sollen und welche Konsequenzen daraus für ihn (mit
Sicherheit oder möglicherweise) erwachsen.6 Bei der Prüfung der Wirksamkeit
einer erteilten Einwilligung ist eine Gesamtschau der Art.6 I S.1 lit. a, 4 Nr.11 und
7 DSGVO sowie der einschlägigen Erwägungsgründe (z.B.Nummer 32, 42 und
43) erforderlich.7 Daraus ergibt sich, dass eine einzelfallbezogene, durchaus wer-
tende Abwägung verschiedener Faktoren geboten ist.
So ist die Wirksamkeit z.B. zweifelhaft, wenn zwischen dem Betroffenen und
dem Verantwortlichen „ein klares Ungleichgewicht besteht (…) und es deshalb in
Anbetracht aller Umstände in dem speziellen Fall unwahrscheinlich ist, dass die
Einwilligung freiwillig gegeben wurde“.8 Eine Rolle spielt auch, wie pauschal und
weitreichend eine abverlangte Einwilligungserklärung konkret ausgestaltet ist: Je
weiter und pauschaler sie formuliert ist, desto stärker kann tendenziell ihre Frei-
willigkeit und damit ihre Wirksamkeit bezweifelt werden.9 Zu berücksichtigen ist
mit Blick auf Art.7 IV DSGVO auch, inwieweit die Einwilligung erforderlich ist,
damit der Verantwortliche die vertragscharakteristische Leistung erbringen kann,
und inwieweit sie über das Erforderliche hinausgeht.10
Bei der Prüfung der Freiwilligkeit spielt es auch eine Rolle, wieweit es für den
Betroffenen zumutbar ist, auf Alternativangebote anderer Anbieter zurückzu-
greifen.11 Angesichts des für die Betroffenen häug undurchsichtigen Charakters
von Proling und der teilweise sehr sensiblen und weitreichenden Informationen,
welche mit den ihm zugrunde liegenden Methoden berechnet werden können, sind
an eine wirksame Einwilligungserklärung je nach Einsatzzweck der zu ver-
wendenden Daten eher hohe Anforderungen zu stellen. Es lassen sich allerdings
kaum allgemeingültige Regeln für eine wirksame Einwilligungserklärung formulie-
ren. Dies liegt zunächst daran, dass Proling in gänzlich verschiedenen Bereichen
(und dementsprechend mit verschiedenen Zielen) zum Einsatz kommt. Eher banale
Einsatzgebiete (etwa Verwendung von Proling durch Streamingdienste, um die in-
dividuellen Vorlieben eines Kunden zu bestimmen und das Angebot an seine Wün-
sche anzupassen) stehen solchen mit weitreichenden wirtschaftlichen Folgen für den
Betroffenen gegenüber (etwa Scoring im Kreditwesen, Preispersonalisierung im
Online-Handel). Die für den Betroffenen drohenden Grundrechtsbeeinträchtigungen
6 Article 29 Data Protection Working Party, Guidelines on Automated individual Decision-Making
and Proling for the Purposes of Regulation 2016/679, 2018, S.13.
7 Buchner/Petri, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.6 Rn.18 DSGVO.
8 Erwägungsgrund 43 DSGVO.
9 Buchner/Kühling, in: dies. (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.7 Rn.45 DSGVO.
10 Vgl. dies., in: dies. (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32020,
Art.7 Rn.46–51.
11 Dies., in: dies. (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32020, Art.7
Rn.52f.
II.Regulierung von Proling
54
divergieren dementsprechend stark. Diese Faktoren müssen berücksichtigt werden,
wenn eine Einwilligung als Rechtsgrundlage für Proling i.S.d. Art.6 I S.1 lit. a
DSGVO herangezogen werden soll.
Sofern ein Betroffener in die Verarbeitung von Daten einwilligen soll, die zu den
besonderen Kategorien personenbezogener Daten gezählt werden (z.B.Gesund-
heitsdaten oder andere sensible Daten, wie etwa solche, die Auskunft geben über
„rassische und ethnische Herkunft“ des Betroffenen, seine religiösen Über-
zeugungen, Gewerkschaftszugehörigkeit etc.), sind die gegenüber Art.6 I S.1 lit. a
DSGVO strengeren Vorgaben des Art.9 DSGVO zu beachten. Art.9 DSGVO stellt
aus verschiedenen Gründen erhöhte Anforderungen an die Verarbeitung sensibler
Daten: Er begegnet damit einem im Kontext dieser Daten erhöhten Diskriminierungs-
risiko, bezweckt den Schutz bestimmter Grundrechte (z.B. des Rechts auf freie
politische Betätigung) und trägt allgemein dem Umstand Rechnung, dass aus der
Verarbeitung der in Art.9 I DSGVO abschließend aufgezählten sensiblen Daten-
kategorien potenziell ein höherer Schaden für den Betroffenen folgen kann, als es
bei den anderen personenbezogenen Daten der Fall ist.12 Zwingend notwendig ist
dann– sofern ein der Einwilligung gänzlich entgegenstehendes Verbot auf Unions-
oder nationaler Ebene nicht vorliegt– eine ausdrückliche13 Einwilligung in die Ver-
arbeitung der sensiblen Daten, Art.9 II lit. a DSGVO.
Beim Einsatz von Proling kann die Situation auftreten, dass die Verarbeitung von
„regulären“, also nicht sensiblen personenbezogenen Daten zur Schaffung neuer Daten
führt, welche in den Anwendungsbereich von Art.9 I DSGVO fallen. Das bereits be-
schriebene Vorgehen des Discount-Einzelhändlers Target14 dient hierfür– die Anwend-
barkeit der Datenschutz-Grundverordnung unterstellt– als anschauliches Beispiel. Das
Erfassen und Speichern von Daten über das Kaufverhalten bestimmter Kundinnen
(z.B. „Kundin X hat zum Zeitpunkt Y das Produkt Z gekauft“) fällt bei isolierter Be-
trachtung der verarbeiteten Daten zunächst nicht in den Anwendungsbereich des Art.9
I DSGVO.Durch die Analyse der gesammelten Daten konnte Target allerdings fun-
dierte Vorhersagen dahingehend treffen, ob die jeweilige Kundin schwanger ist. Die
Information über die (wahrscheinliche) Schwangerschaft als neu geschaffene Informa-
tion ist ein Gesundheitsdatum i.S.d. Art.9 I, 4 Nr.15 DSGVO.15 In einer solchen Situ-
ation, in der die Verarbeitung der (isoliert betrachtet nicht sensiblen) Ausgangsdaten
gerade mit dem Ziel durchgeführt wird, neue Daten zu schaffen, welche in den An-
12 Weichert, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.9 Rn.15–17 DSGVO (zudem Bezug nehmend auf den Schutz der Intimsphäre
und des Kernbereichs privater Lebensgestaltung).
13 Der Begriff „ausdrückliche Einwilligung“ wird in der Datenschutz-Grundverordnung an mehre-
ren Stellen verwendet, aber nicht legaldeniert. Der Begriff „ausdrücklich“ ist so zu verstehen,
dass ein expliziter Bezug zu den zu verarbeitenden sensiblen Daten hergestellt werden muss. Eine
ausdrückliche Einwilligung kann, im Gegensatz zur „regulären“ Einwilligung i.S.d. Art.4 Nr.11
DSGVO, zudem nicht stillschweigend oder konkludent erteilt werden (Schulz, in: Gola/Heckmann
(Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32022, Art.9 Rn.23 DSGVO).
14 Siehe oben Kap.3, II. 1. a.
15 Frenzel, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32021,
Art.9 Rn.15 DSGVO.
Kapitel 4: Regulierung von Proling und automatisierten Einzelentscheidungen
55
wendungsbereich des Art.9 I DSGVO fallen, kommt die Norm auch zur Anwendung.
Durch ihre zielgerichtete Verknüpfung werden die Ausgangsdaten zu sensiblen Daten
und erfahren deshalb den erhöhten Schutz.16 Allgemeiner gesprochen kommt es in derlei
Situationen also auf den Kontext der Datenverarbeitung und den konkret angestrebten
Verarbeitungszweck an.17 Wenn es dem Verantwortlichen gerade darum geht, durch
Auswertung (vermeintlich) unbedeutender personenbezogener Daten Rückschlüsse auf
sensible Daten zu ziehen, ist ihm auch das Befolgen der erhöhten Voraussetzungen des
Art.9 DSGVO zuzumuten.
b. Vertragliche oder vorvertragliche Notwendigkeit
Art.6 I S.1 lit. b DSGVO stellt eine Rechtsgrundlage für Proling dar, soweit seine
Durchführung zur Erfüllung vertraglicher Pichten oder im Rahmen einer vorver-
traglichen Anfrage seitens des Betroffenen erforderlich ist. Diese Norm kommt in
zahlreichen alltäglichen Fällen als Rechtsgrundlage für Datenverarbeitungen zur
Anwendung. Im Falle eines Warenkaufs über das Internet legitimiert sie z.B. die
Datenverarbeitung, die für die Abwicklung des Kaufs notwendig ist, wie etwa die
Verarbeitung der Adressdaten des Käufers.
Wenn Proling zur Anwendung kommt, hängt die Anwendbarkeit von Art.6 I S.1
lit.b DSGVO maßgeblich davon ab, unter welchen Umständen die Erforderlichkeit der
Durchführung von Proling zu bejahen ist. Erforderlichkeit ist nicht im Sinne einer
„Unverzichtbarkeit“ zu verstehen und somit begrifich einer normativen Betrachtung
zugänglich.18 Bei der damit eröffneten Abwägung der Interessen der Beteiligten ist zu
beachten, dass Art. 6 I S. 1 lit. b DSGVO Aususs der informationellen Selbst-
bestimmung des Betroffenen ist und eine Datenverarbeitung nur so weit zulässig sein
kann, wie sie vom Betroffenen veranlasst wurde. Dies zeigt sich mit Blick auf den Wort-
laut der Norm: Sie ist nur anwendbar, wenn das Vertragsverhältnis bereits begründet
wurde und der Betroffene Vertragspartei ist, oder wenn ein vorvertragliches Rechtsver-
hältnis auf seine Anfrage hin begründet wurde. Die spezischen Charakteristika sowie
der Zweck des konkreten Schuldverhältnisses und eine objektive Betrachtungsweise
begründen und begrenzen die Reichweite dieser Rechtsgrundlage.19 Ein Verantwort-
licher kann ohne vorheriges Tätigwerden des Betroffenen also keine auf Art.6 I S.1
lit. b DSGVO gestützten einseitigen Maßnahmen ergreifen, die– wie Proling– in der
Verarbeitung personenbezogener Daten bestehen.
16 Article 29 Data Protection Working Party, Guidelines on Automated individual Decision-Making
and Proling for the Purposes of Regulation 2016/679, 2018, S.15.
17 Weichert, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.9 Rn.24 DSGVO.Siehe dazu auch unten Kap.11, II. 1. b. aa.
18 Buchner/Petri, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art. 6 Rn. 45 DSGVO; Frenzel, in: Paal/Pauly (Hrsg.), Datenschutz-
Grundverordnung/Bundesdatenschutzgesetz, 32021, Art.6 Rn.14 DSGVO.
19 Buchner/Petri, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.6 Rn.39f. DSGVO.
II.Regulierung von Proling
56
Somit kann Proling mit dem Ziel, allgemeine Kaunteressen des Kunden an-
hand einer Auswertung seines Kaufverhaltens zu bestimmen, bei einem Warenkauf
über das Internet nicht auf Art.6 I S.1 lit. b DSGVO gestützt werden, da es nicht
erforderlich ist, um den Kauf abzuwickeln.20 Generell kann Proling zum Zwecke
der individualisierten Werbung und des Direktmarketings mangels Erforderlichkeit
regelmäßig nicht auf Art.6 I S.1 lit. b DSGVO gestützt werden.21 Denkbar ist allen-
falls die Situation, dass es dem Betroffenen gerade darum geht, maßgeschneiderte
Angebote und Dienstleistungen zu erhalten, und dieser Wunsch einem Vertrag er-
kennbar zugrunde gelegt wird.
Die Erforderlichkeit von Proling ist typischerweise zu bejahen, wenn eine Bank
bei einer Auskunftei einen Score-Wert über die Bonität des Kreditantragstellers ab-
fragt (externes Scoring) oder eine solche Bonitätsbewertung selber anhand der ihr
bekannten Daten durchführt (internes Scoring).22 Das Proling in Form des Sco-
rings ist erforderlich, da die Bank bei einem Kreditvertrag in Vorleistung tritt und
der Score-Wert für sie eine wesentliche Entscheidungsgrundlage ist, ob sie einen
Kredit vergeben soll und wenn ja, zu welchen Bedingungen.23 Bonitätsrelevante
Daten dürfen mangels Erforderlichkeit allerdings nicht verarbeitet werden, wenn
beispielsweise nur ein Basiskonto i.S.d. §30 II ZKG ohne Einräumung eines Dis-
positionskredits beantragt wird.24 Im Anwendungsbereich des §505a I S.1 BGB
(Abschluss eines Verbraucherdarlehensvertrags) kann die Bank sich angesichts
ihrer zivilrechtlichen Picht, die Bonität des Antragstellers zu prüfen, soweit er-
forderlich auch auf Art.6I S.1 lit. c DSGVO als Rechtsgrundlage für die Datenver-
arbeitung stützen.25 Auch Versicherungen können sich grundsätzlich auf Art.6 I S.1
lit. b DSGVO stützen, um vor Abschluss eines Versicherungsvertrages eine indivi-
dualisierte datengestützte Risikoanalyse vorzunehmen.26
20 Vgl. dies., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.6 Rn.39 DSGVO.
21 Vgl. dies., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.6 Rn.41 und 52f. DSGVO.
22 Dies., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.6 Rn.47 DSGVO; von Lewinski/Pohl, ZD 2018, 17, 17f.; Schulz, in: Gola/Heckmann
(Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32022, Art.6 Rn.42 DSGVO.
23 Buchner/Petri, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.6 Rn.46f. DSGVO.
24 Dies., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.6 Rn.47 DSGVO.
25 Vgl. hierzu auch §505b I BGB, der sich ausdrücklich auf Auskunfteien bezieht.
26 Vgl. Buchner/Petri, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.6 Rn.70 DSGVO.
Kapitel 4: Regulierung von Proling und automatisierten Einzelentscheidungen
57
c. Allgemeine Interessenabwägungsklausel
Weitere denkbare Rechtsgrundlage für die Durchführung von Proling ist die sog.
allgemeine Interessenabwägungsklausel des Art.6 I S.1 lit. f DSGVO.Diese Norm
greift, wenn die Verarbeitung „zur Wahrung der berechtigten Interessen des Ver-
antwortlichen oder eines Dritten erforderlich [ist], sofern nicht die Interessen oder
Grundrechte und Grundfreiheiten der betroffenen Person, die den Schutz personen-
bezogener Daten erfordern, überwiegen“. Diese Rechtsgrundlage ist aufgrund ihrer
offenen Formulierung besonders exibel und einzelfallbezogen. Daraus ergibt sich
zugleich eine gewisse Unbestimmtheit, verbunden mit der Notwendigkeit, die im
konkreten Einzelfall betroffenen Interessen sorgfältig gegeneinander abzuwägen.
Der Normtext legt eine 3-stuge Prüfung nahe.27 Der Verantwortliche oder ein Drit-
ter muss sich zunächst auf ein „berechtigtes Interesse“ berufen können. Die Daten-
verarbeitung– hier also das Proling – muss erforderlich sein, um diesen Zweck
erreichen zu können. Zudem dürfen die Interessen, Grundrechte und Grundfrei-
heiten des Betroffenen nicht die Interessen des Verantwortlichen überwiegen. Der
letzte Teil der Prüfung stellt mithin die eigentliche Interessenabwägung dar und er-
fordert einen wertenden Ausgleich.
Die berechtigten Interessen, auf die der Verantwortliche sich zu eigenen Gunsten
oder zugunsten eines Dritten berufen kann, sind weit gefasst und beinhalten recht-
liche, tatsächliche, wirtschaftliche und ideelle Interessen.28 Hierbei spielen grund-
rechtlich geschützte Positionen – welche sich vor allem aus der Europäischen
Grundrechte-Charta ergeben– eine herausgehobene Rolle, wie etwa die Berufs-
bzw. unternehmerische Freiheit oder die Kommunikationsfreiheit des Verantwort-
lichen.29 Ähnliches gilt für die Rechte des Betroffenen, der sich zunächst stets auf
den Schutz personenbezogener Daten per se, aber auch auf andere (grund)rechtlich
geschützte Interessen berufen kann.30 Die Abwägung muss sich auf den konkreten
Fall oder auf konkret denierte Fallgruppen beziehen, zumal gem. Erwägungsgrund
47 DSGVO auch die „vernünftigen Erwartungen der betroffenen Person, die auf
ihrer Beziehung zu dem Verantwortlichen beruhen, zu berücksichtigen“ sind.
27 Frenzel, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32021,
Art.6 Rn.27 DSGVO.So auch der EuGH zur Vorgängernorm Art.7 lit. f DSRL (EuGH, C-13/16,
ECLI:EU:C:2017:336, Rn.28 (Rīgas satiksme)).
28 Buchner/Petri, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.6 Rn.146a DSGVO; Frenzel, in: Paal/Pauly (Hrsg.), Datenschutz-Grundver-
ordnung/Bundesdatenschutzgesetz, 32021, Art.6 Rn.28 DSGVO.
29 Vgl. auch den expliziten Bezug zur Grundrechte-Charta in, beispielsweise, Erwägungsgrund
4 DSGVO.
30 Buchner/Petri, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.6 Rn.148f. DSGVO.Der BGH bezog sich in der Spickmich.de-Entscheidung im
Kontext von §29 I S.1 Nr.1 BDSG a.F., welcher– vergleichbar mit Art.6 I S.1 lit. f DSGVO– eine
Abwägung mit den „schutzwürdigen Interessen“ des Betroffenen erforderlich machte, nicht nur auf
dessen Persönlichkeitsrecht als solches, sondern beispielhaft auch auf die Abwehr von wirtschaftlichen
Nachteilen, BGH, MMR 2009, 608, 610 Rn.26 (Spickmich.de).
II.Regulierung von Proling
58
Die Erwägungsgründe 47–49 DSGVO enthalten Beispiele für Datenverar-
beitungen, welche grundsätzlich über Art.6 I S.1 lit. f DSGVO legitimiert werden
können. Diese dienen ganz unterschiedlichen Zwecken. Genannt werden etwa die
Prävention von Betrug, Direktwerbung, der Datenaustausch innerhalb von Konzer-
nen und die Gewährleistung der Netz- und Informationssicherheit. Gerade die bei-
den erstgenannten Beispiele sind typische Anwendungsfelder von Proling i.S.d.
Art.4 Nr.4 DSGVO, da ihnen individualisierte Vorhersagen über das Verhalten, die
Interessen etc. von Einzelpersonen zugrunde liegen. In ihrem verfügenden Teil stellt
die Datenschutz-Grundverordnung den Zusammenhang zwischen Proling und der
allgemeinen Interessenabwägungsklausel sogar ausdrücklich her. Art.21 I DSGVO
gewährt Betroffenen unter bestimmten Voraussetzungen ein Widerspruchsrecht
gegen Datenverarbeitungen, welche auf Art.6 I S.1 lit. f DSGVO gestützt werden.
Die Norm nimmt dabei ausdrücklich, wenngleich rein deklaratorisch,31 Bezug auf
Proling. Gleiches gilt für Art.21 II DSGVO.Dieser postuliert– im Gegensatz zu
Art. 21 I DSGVO ohne Begrenzung auf bestimmte Rechtsgrundlagen – ein be-
dingungsloses Widerspruchsrecht gegen die Verarbeitung personenbezogener Daten
zwecks Direktwerbung und stellt klar, dass dieses sich auch auf Proling erstreckt,
welches mit der Direktwerbung in Zusammenhang steht.
2. Erwägungsgründe und Datenschutzgrundsätze
Der verfügende Teil der Datenschutz-Grundverordnung macht keine spezischen
inhaltlichen Vorgaben, wie die automatisierte Datenverarbeitung im Rahmen des
Prolings abzulaufen hat.32 Die relevanten Betroffenenrechte, vor allem die
Informationspichten der Art.13 und 14 DSGVO, das Auskunftsrecht des Art.15
DSGVO und das Widerspruchsrecht des Art. 21 I, II DSGVO können zwar be-
wirken, dass der Betroffene einen gewissen Überblick über die Datenverarbeitung
hat und ihm ein Mindestmaß an Kontrolle und Einussnahme bleibt. Zudem sind
die allgemeinen Datenschutzgrundsätze des Art.5 I DSGVO zu beachten. Eine da-
rüber hinausgehende Regulierung von Proling ist den Normen hingegen nicht zu
entnehmen. Es kommen nur die allgemeinen Regeln der Datenschutz- Grundver-
ordnung zur Anwendung.33
31 Die ausdrückliche Inbezugnahme von Proling ist– ebenso wie im Fall des Art.21 II DSGVO – de-
klaratorisch, da es sich dabei angesichts der Legaldenition in Art.4 Nr.4 DSGVO stets um eine Ver-
arbeitung personenbezogener Daten handelt. Vgl. auch Herbst, in: Kühling/Buchner (Hrsg.), Daten-
schutz-Grundverordnung/Bundesdatenschutzgesetz, 32020, Art.21 Rn.13 DSGVO (Erwähnung des
Prolings hat bloße „Warn-, Hinweis- oder Erinnerungsfunktion“).
32 Vgl. dazu Erwägungsgrund 15 DSGVO, wonach die Verordnung bewusst technologieneutral
formuliert ist.
33 So auch Erwägungsgrund 72 DSGVO.Dies wurde angesichts der hohen Relevanz von Proling
für die Persönlichkeitsrechte der Betroffenen kritisiert, vgl. Martini, in: Paal/Pauly (Hrsg.), Daten-
schutz-Grundverordnung/Bundesdatenschutzgesetz, 32021, Art.22 Rn.23 DSGVO.
Kapitel 4: Regulierung von Proling und automatisierten Einzelentscheidungen
59
Erwägungsgrund 71 DSGVO macht in seinem zweiten Absatz einige inhaltliche
Vorgaben, die zu beachten sind, um im Rahmen von Proling eine „faire und trans-
parente Verarbeitung zu gewährleisten“. Erwägungsgründe haben keinen Norm-
charakter und sind rechtlich nicht bindend.34 Allerdings können sie für die Aus-
legung der Normen des verfügenden Teils des jeweiligen Rechtsakts herangezogen
werden und Auskunft über ihren Sinn und Zweck geben.35 Es ist notwendig, einen
konkreten Bezugspunkt im verfügenden Teil des Rechtsakts herzustellen, da aus
Erwägungsgründen allein grundsätzlich keine unmittelbaren Rechte und Pichten
abgeleitet werden können.36 Ausgehend davon können die in Erwägungsgrund 71
DSGVO enthaltenen Vorgaben bei der Auslegung der allgemeinen Datenschutz-
grundsätze des Art.5 I DSGVO herangezogen werden und diese inhaltlich konkre-
tisieren. Aus diesem Grund bietet es sich an, die inhaltlichen Ausführungen des
Erwägungsgrundes71 DSGVO in Verbindung mit den Vorgaben des Art.5 I DSGVO
zu lesen.
Bevor er konkretere Handlungsmaximen postuliert, weist Erwägungsgrund 71
DSGVO in seinem zweiten Absatz einleitend darauf hin, dass die „besonderen Um-
stände und Rahmenbedingungen“ der Datenverarbeitung berücksichtigt werden
müssen. Dabei handelt es sich um einen Verweis auf die vielfältigen Einsatzmög-
lichkeiten von Proling in verschiedenen Situationen und die damit einhergehende
Notwendigkeit abwägender Einzelfallbetrachtungen. Eine aussagekräftige Analyse
des materiell-rechtlichen Gehalts des Zusammenspiels von Erwägungsgrund 71
DSGVO und Art. 5 I DSGVO ist dementsprechend erst anhand konkreter An-
wendungsfälle möglich. Dementsprechend erfolgt sie hier erst im dritten Teil der
Arbeit im Kontext der dortigen rechtlichen Analyse.37
34 Baratta, The Theory and Practice of Legislation 2 (2014), 293, 302f.; Klimas/Vaičiukaitė, ILSA
J.Int 15 (2008), 61, 85f.; EuGH, C-162/97, ECLI:EU:C:1998:554, Rn.54 (Nilsson u.a.): „Die
Begründungserwägungen eines Rechtsaktes der Gemeinschaften sind rechtlich nicht verbindlich
und können nicht zur Rechtfertigung einer Abweichung von den Bestimmungen des betreffenden
Rechtsaktes angeführt werden.“ Dem folgend EuGH, C-136/04, ECLI:EU:C:2005:716, Rn.32
(Deutsches Milch-Kontor).
35 Baratta, The Theory and Practice of Legislation 2 (2014), 293, 302.
36 Vgl. EuGH, C-215/88, ECLI:EU:C:1989:331, Rn. 31 (Casa Fleischhandel/BALM); Klimas/
Vaičiukaitė, ILSA J. Int 15 (2008), 61, 85 f., bezugnehmend auf EuGH, C-308/97, EC-
LI:EU:C:1998:566, Rn.30 (Manfredi/Regione Puglia).
37 Siehen unten Kap.11, II. 1.
II.Regulierung von Proling
60
III.Verbot automatisierter Einzelentscheidungen
1. Anwendungsbereich und Funktion
a. Regelungsabsicht
Art.22 I DSGVO postuliert ein grundsätzliches Verbot38 vollständig automatisierter
Einzelentscheidungen. Demnach hat die betroffene Person „das Recht, nicht einer
ausschließlich auf einer automatisierten Verarbeitung – einschließlich Proling–
beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wir-
kung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt.“ Ist eine solche
ausnahmsweise (Art.22 II DSGVO) doch zulässig, kommen gem. Art.22 III bzw.
II lit. b DSGVO „angemessene Maßnahmen“ zum Schutze des Betroffenen zur An-
wendung. Die Norm spielt primär für die dritte Stufe des hier vertretenen Modells
eine Rolle und stellt durch ihren Wortlaut explizit die Verbindung zwischen Pro-
ling und dem Fällen von Entscheidungen her. Sie regelt weder das „Ob“ noch das
„Wie“ von Proling. Vor allem ist sie keine Rechtsgrundlage für eine Datenver-
arbeitung. Art.22 DSGVO hat stattdessen den Charakter einer Verfahrensnorm.
Art.22 DSGVO bezieht sich auf die Phase der sich dem Proling anschließenden
Entscheidungsndung (Stufe3). Er regelt diese fragmentarisch: Der Entscheidungs-
ndungsprozess darf grundsätzlich nicht vollständig automatisiert ausgestaltet sein,
sofern die am Ende des Prozesses getroffene Entscheidung dem Betroffenen gegen-
über eine „rechtliche Wirkung entfaltet“ oder ihn „in ähnlicher Weise erheblich
beeinträchtigt.“
Der Anwendungsbereich der Norm ist hingegen von vornherein nicht eröffnet,
wenn die Entscheidung inhaltlich von einem Menschen verantwortet wird.39 Dieser
darf automatisierte Datenverarbeitungsprozesse als Entscheidungshilfe heran-
ziehen, ohne dass dies Art. 22 I DSGVO aktivieren würde. Eine rein formale
menschliche Beteiligung genügt aber nicht, um das Verbot von Art.22 I DSGVO zu
38 Trotz des irreführenden Wortlauts („Die betroffene Person hat das Recht…“) und der Verortung
im dritten Kapitel, welches die Betroffenenrechte behandelt, geht die ganz herrschende Meinung
zu Recht davon aus, dass Art.22 DSGVO eine objektive Handlungspicht des Verantwortlichen
postuliert, die nicht vom Betroffenen geltend gemacht werden muss (wie es z.B. beim Auskunfts-
recht gem. Art.15 I DSGVO der Fall ist). Müsste Art.22 I DSGVO erst geltend gemacht werden,
wäre z.B. die Ausnahme in Art.22 II lit. c DSGVO (ausdrückliche Einwilligung des Betroffenen)
gänzlich überüssig. Vgl. dazu Brkan, Int. J.Law Inf. Technol. 27 (2019), 91, 98f.; Zuiderveen
Borgesius/Poort, J Consum Policy 40 (2017), 347, 361; Martini, in: Paal/Pauly (Hrsg.),
Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32021, Art.22 Rn.29b DSGVO; Men-
doza/Bygrave, in: Synodinou/Jougleux/Markou u.a. (Hrsg.), EU Internet Law, 2017, S.77, 85ff.
Mit anderer Begründung zum gleichen Ergebnis kommt Schulz, in: Gola/Heckmann (Hrsg.),
Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32022, Art.22 Rn.5 DSGVO.Er geht
zwar von einem subjektiven Recht des Betroffenen aus. Dieses müsse aber nicht aktiv geltend ge-
macht werden, sodass ihm ein mittelbarer Verbotscharakter zukomme. Veale/Edwards, Computer
Law & Security Review 34 (2018), 398, 400 werfen die Frage auf, lassen sie aber offen.
39 Vgl. Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.22 Rn.15 DSGVO.
Kapitel 4: Regulierung von Proling und automatisierten Einzelentscheidungen
61
umgehen.40 Der Entscheider muss je nach Sachverhalt Zugriff auf ausreichend In-
formationen haben, um qualitativ selber entscheiden zu können, und er muss diese
Möglichkeit auch tatsächlich nutzen.41 Ist dies der Fall, so ist Art.22 I DSGVO nicht
anwendbar.42 Liegt beispielsweise einem Bankmitarbeiter, der über einen Kredit-
antrag entscheiden soll, als Entscheidungsgrundlage ausschließlich ein Score-Wert
vor, anhand dessen er über die Kreditvergabe entscheiden soll, so greift das grund-
sätzliche Verbot des Art.22 I DSGVO.43 Seine Entscheidung ist nämlich durch die
vorangegangene datengestützte Bewertung de facto vollständig vorherbestimmt.
Die Anwendung von Art.22 I DSGVO ist in solchen Fällen zum Schutze der Be-
troffenen auch deshalb geboten, weil menschliche Entscheider automatisiert gene-
rierten Aussagen regelmäßig eine hohe Autorität zusprechen und ihnen aus ver-
schiedenen Gründen (beispielsweise Bequemlichkeit und Zeitersparnis) oftmals
unüberlegt folgen.44 Die „automatische Ablehnung eines Online-Kreditantrags (…)
ohne jegliches menschliche Eingreifen“ fällt erst recht unter Art.22 I DSGVO, wie
die Datenschutz-Grundverordnung bereits selber in ihren Erwägungsgründen aus-
führt.45 Eine andere Frage ist, ob eine der Ausnahmen in Art.22 II DSGVO greift.
40 Ders., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.22 Rn.15 DSGVO; La Diega, jipitec 9 (2018), 3, 19; Mendoza/Bygrave, in: Synodi-
nou/Jougleux/Markou u.a. (Hrsg.), EU Internet Law, 2017, S.77, 87.
41 Martini, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32021, Art.22 Rn.19 DSGVO.Vgl. auch §6a I S.2 BDSG a.F., mit dem Art.15 DSRL umgesetzt
wurde: „Eine ausschließlich auf eine automatisierte Verarbeitung gestützte Entscheidung liegt ins-
besondere dann vor, wenn keine inhaltliche Bewertung und darauf gestützte Entscheidung durch
eine natürliche Person stattgefunden hat.“
42 Vgl. Mendoza/Bygrave, in: Synodinou/Jougleux/Markou u.a. (Hrsg.), EU Internet Law, 2017,
S.77, 87.
43 Auch aus diesem Grund ist keine (systemwidrige) Erstreckung des Anwendungsbereichs des
Art.22 I DSGVO auf Auskunfteien notwendig, die Score-Werte erstellen, welche der Bank als
Entscheidungsgrundlage dienen. In diese Richtung argumentiert allerdings das VG Wiesbaden in
seinem Vorlagebeschluss an den EuGH vom 1.10.2021. Es führt aus, dass die Erstellung des Score-
Werts die Entscheidung der Bank de facto vorherbestimmt und die Tätigkeit der Auskunftei des-
halb dem Anwendungsbereich des Art. 22 I DSGVO unterfällt (VG Wiesbaden, 6K 788/20.WI,
ECLI:DE:VGWIESB:2021:1001.6K788.20.WI.0A, BeckRS 2021, 30719, Rn. 21 und 24–33).
Der Generalanwalt hat sich dieser Argumentation angeschlossen (Schlussanträge des General-
anwalts Priit Pikamäe, C-634/21, ECLI:EU:C:2023:220, Rn.31–52 (SCHUFA Holding u.a. (Sco-
ring)). Dies überzeugt aber nicht, da die Bank ihre Entscheidung autonom trifft. Ausreichende
Schutzmechanismen zugunsten der Kunden sind gegeben, da eine übermäßige Automatisierung
der Entscheidungsndungsprozesse auf Seiten der Bank wie dargelegt dem Verbot des Art.22 I
DSGVO unterfällt. Nach hier vertretener Auslegung des Art.15 I lit. h DSGVO (siehe dazu unten
Kap.4, III. 2. b.) hat der Betroffene der Auskunftei gegenüber zudem ein recht weitgehendes Aus-
kunftsrecht, sodass die vom VG Wiesbaden und seitens des Generalanwalts diesbezüglich an-
geführte Rechtsschutzlücke nicht besteht (vgl. Rn.28–31 des Beschlusses und Rn.48 der Schluss-
anträge).
44 Siehe dazu Finck, International Data Privacy Law 9 (2019), 78, 87f. und Veale/Edwards, Com-
puter Law & Security Review 34 (2018), 398, 400 jeweils m.w.N.
45 Erwägungsgrund 71 DSGVO.Dieser nennt als weiteres Beispiel „Online-Einstellungsverfahren
ohne jegliches menschliche Eingreifen.“
III.Verbot automatisierter Einzelentscheidungen
62
b. Schutz durch menschliche Entscheider
Die Datenschutz-Grundverordnung bringt in ihrem Artikel 22 die grundsätzliche
Wertung zum Ausdruck, dass der Mensch nicht zum Objekt rein maschineller Ent-
scheidungen gemacht werden soll.46 Sie macht damit deutlich, dass menschliche
Entscheidungsndungsprozesse gegenüber rein maschinellen grundsätzlich vor-
zugswürdig sind.47 Dies zeigt sich beim Blick auf das Zusammenspiel zwischen
dem Verbot im ersten Absatz der Norm und den in Art.22 II lit. b und III DSGVO
genannten „angemessenen Maßnahme[n]“, welche zugunsten des Betroffenen er-
griffen werden müssen, falls eine der Ausnahmen im zweiten Absatz greift. Sollte
die rein automatisierte Entscheidungsndung ausnahmsweise zulässig sein und der
Betroffene zum Objekt einer maschinellen Entscheidung werden, so wird er zu-
gleich in die Lage versetzt, einen menschlichen Entscheider aktivieren und selber
Einuss auf den Entscheidungsndungsprozess nehmen zu können.
Es geht dabei also nicht um einen Schutz vor „falschen“ Entscheidungen im
Sinne einer Kontrolle des Ergebnisses als solches. Eine solche Herangehensweise
wäre unter verschiedenen Gesichtspunkten problematisch. Sie würde (etwa im
privatrechtlichen Kontext zwischen Unternehmer und Verbraucher) eine massive
Einmischung in die unternehmerische Freiheit darstellen, zumal die Datenschutz-
Grundverordnung keine konkreten Aussagen dazu treffen kann, welche Ent-
scheidungen „falsch“ oder „richtig“ sind. Vielmehr soll durch die Norm die
Menschenwürde des Einzelnen dadurch geschützt werden, dass die primäre Ent-
scheidungshoheit eher bei Menschen als bei Computern liegt.48 Auf Seiten des Ver-
antwortlichen soll grundsätzlich ein menschlicher Entscheidungsträger involviert
sein. Wenn dies nicht der Fall ist, stellt Art.22 DSGVO sicher, dass ein solcher zu-
mindest auf Wunsch des Betroffenen hinzugezogen wird.
Der effektive Schutz des Einzelnen vor Objektivierung und die tatsächlichen Aus-
wirkungen der Norm sind dabei angesichts ihres engen Anwendungsbereichs be-
grenzt: Nur eine vollständige Automatisierung des Entscheidungsprozesses ist von
Art.22 I DSGVO erfasst.49 Außerhalb dieses engen Anwendungsbereichs hat die
Norm für die Frage, wie der Verantwortliche Entscheidungen trifft, keine Relevanz.
Weitgehend, aber eben nicht „ausschließlich“ automatisierte Verfahren aktivieren
mangels Anwendbarkeit der Norm nicht die „angemessenen Maßnahmen“ i.S.d.
Art.22 III DSGVO.Der Gesetzgeber hat damit im Kontext von Art.22 DSGVO bei
46 Von Lewinski, in: Wolff/Brink (Hrsg.), Beck’scher Online-Kommentar Datenschutzrecht, 43.
Edition (Stand: 1.2.2023), Art.22 Rn.2 DSGVO; Martini, in: Paal/Pauly (Hrsg.), Datenschutz-
Grundverordnung/Bundesdatenschutzgesetz, 32021, Art.22 Rn.20 DSGVO.Vgl. zu den Wertun-
gen, die in Art.22 i.V.m.13–15 DSGVO enthalten sind, auch Organisation for Economic Co-
operation and Development (OECD), Algorithms and Collusion– Competition Policy in the
Digital Age, 2017, S.49.
47 Kritisch bezüglich der Absolutheit dieser Wertung Temme, Eur. Data Prot. L.Rev.3 (2017),
473, 482.
48 Mendoza/Bygrave, in: Synodinou/Jougleux/Markou u. a. (Hrsg.), EU Internet Law, 2017,
S.77, 84.
49 Die Vorgängernorm zu Art.22 DSGVO, Art.15 DSRL, spielte in der Praxis eine untergeordnete
Rolle (dies., in: Synodinou/Jougleux/Markou u.a. (Hrsg.), EU Internet Law, 2017, S.77, 80f.).
Kapitel 4: Regulierung von Proling und automatisierten Einzelentscheidungen
63
der Abwägung zwischen dem Schutz der Privatsphäre und der informationellen
Selbstbestimmung des Betroffenen einerseits und der Förderung von Wertschöpfung
mithilfe automatisierter Datenverarbeitung andererseits Letztere in den Vordergrund
gestellt und von einer darüber hinausgehenden Regulierung des Entscheidungs-
ndungsprozesses abgesehen.50 Anders betrachtet liegt Art. 22 DSGVO die Vor-
stellung zugrunde, dass ein Entscheidungsndungsprozess, der von menschlichen
Entscheidern bestimmt ist, einem vollständig automatisierten Fällen von Ent-
scheidungen gegenüber vorzugswürdig ist. Art. 22 DSGVO ist damit eine Ver-
fahrensnorm: Durch ein faires Verfahren unter Beteiligung menschlicher Ent-
scheidungsträger sollen bessere Ergebnisse produziert werden, ohne dass diese
durch die Norm inhaltlich vorgegeben werden.
c. Verhältnis von Proling zu automatisierten Einzelentscheidungen
Art. 22 DSGVO steht mit Blick auf seine Funktion in der Tradition des Art. 15
DSRL. Erfasst und grundsätzlich unzulässig waren automatisierte Einzelentschei-
dungen, die ausschließlich auf der Grundlage „einer automatisierten Verarbeitung
von Daten zum Zwecke der Bewertung einzelner Aspekte ihrer Person (…), wie bei-
spielsweise ihrer beruichen Leistungsfähigkeit, ihrer Kreditwürdigkeit, ihrer Zuver-
lässigkeit oder ihres Verhaltens“ ergehen. Art.15 DSRL stellte also von vornherein
auf Entscheidungen ab, die aufgrund von Proling getroffen werden. Art.22 I DSGVO
hingegen bezieht sich auf Entscheidungen, die „auf einer automatisierten Ver-
arbeitung– einschließlich Proling –“ beruhen. Die Norm könnte mit Blick auf ihren
Wortlaut und ihre Überschrift so interpretiert werden, dass Proling nur ein beispiel-
haft genannter von mehreren denkbaren Anwendungsfällen von Art.22 I DSGVO ist,
wonach sie dementsprechend auch dann zur Anwendung käme, wenn der Ent-
scheidung kein Proling vorangeht.51 Dennoch wird man ihren Anwendungsbereich
bei teleologischer Auslegung auf die Fälle reduzieren müssen, bei denen vor dem
Fällen einer Entscheidung Proling zur Entscheidungsunterstützung eingesetzt wird.52
Dies gebieten zunächst der Sinn und der Zweck der Norm, welche nicht per se alle
50 Martini, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32021, Art.22 Rn.8 DSGVO.
51 Mendoza/Bygrave, in: Synodinou/Jougleux/Markou u. a. (Hrsg.), EU Internet Law, 2017,
S.77, 90.
52 Dies., in: Synodinou/Jougleux/Markou u.a. (Hrsg.), EU Internet Law, 2017, S.77, 90f. Ähnlich
Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32022, Art.22 Rn.19 DSGVO, der nicht– wie hier vertreten– das Vorliegen von Proling i.S.d.
Art.4 Nr.4 DSGVO für die Anwendbarkeit des Art.22 I DSGVO verlangt, aber (im Wege der
teleologischen Reduktion) zumindest ein dem Proling „vergleichbares Mindestmaß an Komplexi-
tät“ der zur Entscheidungsndung herangezogenen Datenverarbeitung. Anders Dammann, ZD
2016, 307, 312f., welcher davon ausgeht, dass Proling nur beispielhaft genannt und sein Vor-
liegen dementsprechend keine Tatbestandsvoraussetzung ist. Brkan, Int. J.Law Inf. Technol. 27
(2019), 91, 97 deutet ohne eigene Positionierung an, dass dieser Streit dahinstehen kann, da kaum
Fälle automatisierter Einzelentscheidungen i.S.d. Art.22 I DSGVO denkbar seien, die nicht auf
Proling basieren.
III.Verbot automatisierter Einzelentscheidungen
64
automatisierten Entscheidungsformen verhindern will, sondern vor potenziellen Ge-
fahren des Prolings schützen soll.53 Eine Auslegung, die sich auf alle Formen von
automatisierter Datenverarbeitung erstreckt, würde zu dem absurden Ergebnis füh-
ren, dass es beispielsweise datenschutzrechtlich grundsätzlich unzulässig wäre,
wenn ein Geldautomat bei fehlender Kontodeckung einem Kunden die Auszahlung
verweigert.54 Selbst banale und in keiner Weise für das Recht auf informationelle
Selbstbestimmung und die Privatheit relevante Vorgänge wären erfasst– und damit
grundsätzlich unzulässig. Auch die Bezugnahmen, welche die Datenschutz- Grund-
verordn ung an anderen Stellen zwischen Proling und dem Fällen von Entscheidungen
herstellt, sprechen dafür, dass Art.22 DSGVO automatisierte Einzelentscheidungen
nur dann verbietet, wenn diese (zumindest auch) auf den Ergebnissen von Proling
basieren.55 Im verfügenden Teil der Verordnung stellt Art.35 III lit. a DSGVO im
Kontext von Datenschutz- Folgenabschätzungen den Bezug zwischen der systemati-
schen, auf Proling gründenden Bewertung persönlicher Aspekte und dem Fällen von
Entscheidungen her. Auch die Ausführungen in Erwägungsgrund 71 DSGVO stellen
Proling i.S.d. Art.4 Nr.4 DSGVO im Kontext automatisierter Einzelentscheidungen
in den Vordergrund.56 Auch bei den dort aufgeführten Beispielen („Ablehnung eines
Online-Kreditantrags“ und „Online-Einstellungsverfahren ohne jegliches mensch-
liche Eingreifen“) handelt es sich um solche Verfahren, die typischerweise auf Pro-
ling basieren. Darüber hinaus ist die hier vertretene Auslegung durchaus mit dem
Wortlaut von Art.22 I DSGVO in Einklang zu bringen. Die Formulierung „auf einer
automatisierten Verarbeitung – einschließlich Proling – beruhende(…) Ent-
scheidung“ kann grammatikalisch durchaus so verstanden werden, dass die auto-
matisierte Datenverarbeitung das Proling beinhalten muss, und Letzteres gerade
nicht nur beispielhaft, sondern als Tatbestandsvoraussetzung genannt ist.
d. Rechtliche Wirkung oder ähnliche erhebliche Beeinträchtigung
Für die Anwendbarkeit von Art.22 I DSGVO ist es notwendig, dass die getroffene
Entscheidung der betroffenen Person gegenüber „rechtliche Wirkung entfaltet oder
sie in ähnlicher Weise erheblich beeinträchtigt.“ Ein Entfalten einer rechtlichen
Wirkung liegt vor, wenn sich „die Rechtsposition der betroffenen Person in irgend-
einer Weise verändert, ein Recht oder Rechtsverhältnis begründet oder aufgehoben
53 Mendoza/Bygrave, in: Synodinou/Jougleux/Markou u. a. (Hrsg.), EU Internet Law, 2017,
S.77, 91.
54 Abel, ZD 2018, 304, 305; Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/
Bundesdatenschutzgesetz, 32020, Art.22 Rn.18 DSGVO; Mendoza/Bygrave, in: Synodinou/Joug-
leux/Markou u.a. (Hrsg.), EU Internet Law, 2017, S.77, 90f.; von Lewinski, in: Wolff/Brink
(Hrsg.), Beck’scher Online-Kommentar Datenschutzrecht, 43. Edition (Stand: 1.2.2023), Art.22
Rn.13 DSGVO.
55 Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.22 Rn.19 DSGVO.
56 Ders., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.22 Rn.19 DSGVO.
Kapitel 4: Regulierung von Proling und automatisierten Einzelentscheidungen
65
wird oder in ein Recht eingegriffen wird.“57 Eine erhebliche Beeinträchtigung ist zu
bejahen, wenn „der Betroffene durch die Entscheidung in seiner wirtschaftlichen
oder persönlichen Entfaltung nachhaltig gestört wird.“58 Gerade die zweite Alter-
native ist damit auch einer normativen Auslegung zugängig. Die Verbindung der
beiden Alternativen („in ähnlicher Weise“) macht deutlich, dass bei beiden eine
erhebliche Beeinträchtigung vorliegen muss.
Automatisierte Einzelentscheidungen, mit denen einem Begehren des Betroffenen
gänzlich stattgegeben wird, sind damit mangels Beeinträchtigung zumindest im zivil-
rechtlichen Bereich richtigerweise nicht vom Anwendungsbereich der Norm erfasst.59
Hat die Entscheidung allerdings stattgebende und zugleich nachteilige Elemente, so
z.B. wenn ein erhöhter Dispositionskredit bei einer Bank beantragt und der Kredit-
rahmen daraufhin zwar erhöht wird, aber nicht im beantragten Umfang, so ist eine An-
wendbarkeit von Art.22 I DSGVO durchaus denkbar.60 Aus einem Umkehrschluss zu
Art.21 II DSGVO ergibt sich, dass Direktwerbung, die auf Proling basiert, grundsätz-
lich zulässig ist und nicht per se unter das Verbot fällt. Dies überrascht nicht, da Direkt-
werbung den Betroffenen im Regelfall kaum erheblich beeinträchtigen dürfte. Inwiefern
Art.22 I DSGVO zur Anwendung kommt, wenn beispielsweise online der Abschluss
eines Vertrages automatisiert abgelehnt oder die konkrete Ausgestaltung eines Angebots
auf Vertragsabschluss gem. § 145 BGB einseitig von Seiten des Verarbeiters auto-
matisiert festgesetzt wird, ist umstritten.61 Diese Fragen werden vertieft zu einem späte-
ren Zeitpunkt im Rahmen der Prüfung des datenschutzrechtlichen Diskriminierungs-
schutzes im Kontext von Preispersonalisierung untersucht.62
57 Ders., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.22 Rn.24 DSGVO.
58 Ders., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.22 Rn.26 DSGVO.
59 Ders., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.22 Rn.25 DSGVO; Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/
Bundesdatenschutzgesetz, 32022, Art.22 Rn.21 DSGVO.Dies war auch schon unter Geltung der
Datenschutz-Richtlinie der Fall, siehe Art.15 II lit. a DSRL und die Umsetzung durch §6a II Nr.1
BDSG a. F.. Laut Martini, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32021, Art.22 Rn.28 DSGVO sind hingegen Entscheidungen unabhängig davon, ob
sie begünstigend sind oder nicht, von Art.22 I DSGVO erfasst. Dies gelte auch, wenn einem Be-
gehren vollumfänglich stattgegeben wird, denn es könne ja sein, dass dem Betroffenen mehr zu-
steht, als von ihm beantragt wurde. Es komme darauf an, ob die „Auswirkungen [der Entscheidung]
auf den Betroffenen einschneidend einwirken können– egal in welche Richtung“.
60 Mendoza/Bygrave, in: Synodinou/Jougleux/Markou u. a. (Hrsg.), EU Internet Law, 2017,
S.77, 89.
61 Vgl. z.B. Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.22 Rn.24 und 26a DSGVO, der in derlei Konstellationen die grundsätz-
liche Anwendbarkeit von Art.22 I DSGVO durchaus bejahen würde, dies im Gegensatz zu Schulz,
in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32022,
Art.22 Rn.24 DSGVO, wonach diese Auslegung des Art.22 I DSGVO nicht mit der Privatauto-
nomie vereinbar sei.
62 Siehe unten Kap.11, III. 1. a. bb.
III.Verbot automatisierter Einzelentscheidungen
66
2. Ausnahmen, Schutzmechanismen und norminterne Logik
Art. 22 I DSGVO verbietet grundsätzlich solche automatisierten Einzelentschei-
dungen, die ohne (nennenswertes) Zutun menschlicher Entscheider getroffen wer-
den. Der zweite Absatz benennt abschließend Ausnahmen von diesem Grundsatz
(vertragliche Notwendigkeit; Öffnungsklausel für Union und Mitgliedstaaten; aus-
drückliche Einwilligung). Eine Rückausnahme ndet sich im vierten Absatz: So-
bald sensible Daten i.S.d. Art.9 I DSGVO verarbeitet werden, gelten erhöhte An-
forderungen.
a. Interessenausgleich durch Verfahren
In Art.22 II-IV DSGO versucht die Datenschutz-Grundverordnung, einen Aus-
gleich zwischen den Interessen der Beteiligten herzustellen. Dies ist im einfachsten
Fall auf der einen Seite ein Betroffener i.S.d. Art.4 Nr.1 DSGVO, dessen personen-
bezogene Daten (u.a.) im Rahmen des Prolings ausgewertet wurden. Auf der an-
deren Seite steht ein Verantwortlicher i.S.d. Art.4 Nr.7 DSGVO.Dieser hat das
Proling entweder selbst durchgeführt oder im Rahmen einer Auftragsdatenver-
arbeitung (vgl. Art.4 Nr.8 DSGVO) durchführen lassen.
Der Schwerpunkt von Art.22 DSGVO liegt nicht auf dem Schutz der informa-
tionellen Selbstbestimmung des Betroffenen, wie es z.B. bei Art.6 DSGVO der
Fall ist. Für eine datenschutzrechtliche Norm ist Art.22 DSGVO damit atypisch,
denn sie schützt nicht primär „die Befugnis des einzelnen, grundsätzlich selbst über
die Preisgabe und Verwendung seiner persönlichen Daten zu bestimmen.“63 Es geht
um den Entscheidungsndungsprozess des Verantwortlichen und die Rolle, die der
Betroffene dabei spielt– nicht aber um die eigentliche Entscheidung, welche immer
beim Verantwortlichen liegt. Sein privatautonomer Handlungsspielraum wird inso-
weit also nicht beschränkt.64 Mit Blick auf den Inhalt der getroffenen Entscheidung
ist die Datenschutz-Grundverordnung wertneutral. Sie regelt in ihrem Artikel22 nur
das Verfahren.
Bei Analyse der von der Norm verwendeten Regel-Ausnahme-Methode und ihrem
Zusammenspiel mit weiteren Normen, welche auf sie verweisen, zeigt sich, dass Art.22
DSGVO darauf abzielt, dem Betroffenen vor und nach dem Fällen automatisierter
Einzelentscheidungen Kenntnis über das Geschehen, vor allem aber auch eine Möglich-
keit der Einussnahme an die Hand zu geben. Art.13 II lit. f, 14 II lit. g DSGVO stellen
sicher, dass der Betroffene zu Beginn des Entscheidungsndungsprozesses über Be-
stehen und Ausmaß des automatisierten Einzelentscheidungsprozesses informiert wird.
Art. 22 III und IV DSGVO sichert „angemessene Maßnahmen“ zugunsten des Be-
63 So das BVerfG, NJW 1984, 419, 422 (Volkszählungsurteil).
64 Vgl. Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32022, Art.22 Rn.35 DSGVO.
Kapitel 4: Regulierung von Proling und automatisierten Einzelentscheidungen
67
troffenen in Form von aktiven Einussnahmemöglichkeiten. Art.15 I lit. h DSGVO
gewährt dem Betroffenen zudem ein jederzeitiges Auskunftsrecht, welches inhaltlich
den Informationspichten entspricht.
Art.22 DSGVO ist so konzipiert, dass der Betroffene dann, wenn eine der Aus-
nahmen vom grundsätzlichen Verbot des Art. 22 I DSGVO greift, durch „an-
gemessene Maßnahmen“ geschützt wird. Dies bedeutet konkret, dass er immer eine
menschliche Befassung mit der Entscheidung auf Seiten des Verantwortlichen ver-
langen kann. Wenn der Betroffene möchte, kann er so der Entscheidung ihren Cha-
rakter als reine „Computer-Entscheidung“ nehmen und das Verfahren beeinussen.
Macht der Betroffene von diesen Möglichkeiten Gebrauch, bedeutet dies allerdings
nicht, dass dies sich auch zwangsläug in einem anderen Ergebnis niederschlagen
müsste. Das Ergebnis der Entscheidung wird von der Datenschutz- Grundverordnung
nicht vorgegeben.
Der Schutz durch „angemessene Maßnahmen“ ergibt sich in den Fällen des
Art.22 II lit.a und c DSGVO unmittelbar aus Art.22 III DSGVO.Zu diesen Maß-
nahmen gehören demnach „mindestens das Recht auf Erwirkung des Eingreifens
einer Person seitens des Verantwortlichen, auf Darlegung des eigenen Standpunkts
und auf Anfechtung der Entscheidung“. Wenn die Union oder ein Mitgliedstaat sich
auf Art.22 II lit. b DSGVO stützen, um weitere Ausnahmetatbestände zu schaffen,
müssen auch in diesem Rahmen „angemessene Maßnahmen“ zugunsten des Be-
troffenen vorgesehen werden. Obwohl diese inhaltlich nicht näher konkretisiert
werden, spricht einiges dafür, auch im Falle des Art.22 II lit. b DSGVO den glei-
chen Maßstab an Mindestabsicherung des Betroffenen zu verlangen, den Art.22 II
lit. a und c DSGVO vorsehen.65 Dafür sprechen zunächst der Sinn und Zweck der
Datenschutz-Grundverordnung und des Art.22 DSGVO.66 Auch ist kein Grund er-
sichtlich, warum bei der Schaffung neuer Ausnahmetatbestände ein anderes, ggf.
niedrigeres Schutzniveau ausreichen sollte. Darüber hinaus zeigt die Verwendung
des Ausdrucks „mindestens“ in Art.22 III DSGVO, dass die dort vorgesehenen
Maßnahmen nach dem Verständnis der Datenschutz-Grundverordnung das Mini-
mum an notwendigem Schutz formulieren.67 Auch der Wortlaut von Erwägungs-
grund 71 DSGVO lässt diese Wertung erkennen: Die in Art.22 III DSGVO
genannten Maßnahmen sollen demnach „[i]n jedem Fall“ gelten, wobei diese For-
mulierung nach Nennung aller in Art.22 II DSGVO aufgeführten Ausnahmen ver-
wendet wird.68
65 Der deutsche Gesetzgeber hat in § 37 I Nr.2 BDSG n.F. (automatisierte, zumindest teilweise
abschlägige Einzelentscheidung im Rahmen der Leistungserbringung nach einem Versicherungs-
vertrag) die Mindestschutzmaßnahmen des Art.22 III DSGVO wörtlich übernommen.
66 La Diega, jipitec 9 (2018), 3, 22 Fn. 221.
67 Ders., jipitec 9 (2018), 3, 22 Fn. 221.
68 Ders., jipitec 9 (2018), 3, 22 Fn. 221.
III.Verbot automatisierter Einzelentscheidungen
68
b. Rolle der Transparenzpichten
Art.13 II lit. f DSGVO legt fest, dass der Verantwortliche dem Betroffenen im Zeit-
punkt der ersten Datenerhebung folgende Informationen zur Verfügung stellen
muss: „[D]as Bestehen einer automatisierten Entscheidungsndung einschließlich
Proling gemäß Artikel 22 Absätze 1 und 4 und— zumindest in diesen Fällen—
aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und
die angestrebten Auswirkungen einer derartigen Verarbeitung für die betroffene
Person.“ Wurden die Daten nicht direkt beim Betroffenen erhoben, ergibt sich eine
inhaltlich identische Informationspicht für den Verantwortlichen aus Art.14 II
lit. g DSGVO. Im letztgenannten Fall gelten für die Mitteilung die Fristen aus
Art.14 III DSGVO.Im Regelfall dürfte die Monatsfrist des Art.14 III lit.a DSGVO
ab Erlangung der Daten gelten. Hierbei ist zu beachten, dass es sich um eine
Maximalfrist handelt, die in allen drei Varianten des Art.14 III DSGVO gilt und vor
dem Hintergrund der Wertungen des Art.12 I, II DSGVO nicht grundsätzlich oder
regelmäßig ausgereizt werden darf.69 In beiden Fällen müssen dem Betroffenen
„aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und
die angestrebten Auswirkungen einer derartigen Verarbeitung“ mitgeteilt werden,
ohne dass dieser dies geltend machen muss. Art.15 I lit. h DSGVO gibt dem Be-
troffenen zudem ein Auskunftsrecht an die Hand. Dieses stimmt vom Wortlaut her
mit den genannten Informationspichten in Art.13 und 14 DSGVO überein und
kann grundsätzlich jederzeit geltend gemacht werden.
Art.13 II lit. f DSGVO kommt in zeitlicher Hinsicht also zu einem konkret fest-
gelegten Zeitpunkt zum Tragen. Da die Informationen schon bei der Erhebung der
Daten mitgeteilt werden müssen, kommt die Norm in zeitlicher Hinsicht grundsätz-
lich vor dem eigentlichen Proling zur Anwendung. Der Informationspicht aus
Art.14 II lit. g DSGVO muss innerhalb eines Monats genügt werden. Damit besteht
für den Verantwortlichen ein gewisser zeitlicher Spielraum. Das Recht aus Art.15
DSGVO hingegen deckt den kompletten Zeitraum ab der erstmaligen Daten-
erhebung ab und erstreckt sich damit auch auf die Situationen, in denen Proling
anhand der erhobenen Daten schon durchgeführt und darauf basierende Ent-
scheidungen bereits getroffen worden sind.70 Die drei Normen dienen der Schaffung
von Transparenz.71 Neben der ihnen innewohnenden freiheitssichernden Kompo-
nente besteht ihre Funktion darin, es dem Betroffenen zu erlauben, bei Bedarf seine
datenschutzrechtlichen Betroffenenrechte geltend zu machen.72
Da die Informationspicht des Art.13 II lit. f DSGVO bereits im Zeitpunkt der
Datenerhebung besteht, kann der Verantwortliche dem Betroffenen zu diesem Zeit-
69 Franck, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32022, Art.14 Rn.18 und 21 DSGVO.
70 Vgl. Wachter/Mittelstadt/Floridi, International Data Privacy Law 7 (2017), 76, 82f.
71 Bäcker, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.13 Rn.7 DSGVO; Temme, Eur. Data Prot. L.Rev.3 (2017), 473, 481.
72 Bäcker, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.13 Rn.8 DSGVO.
Kapitel 4: Regulierung von Proling und automatisierten Einzelentscheidungen
69
punkt naturgemäß nur einen abstrakten Überblick über den Entscheidungs- und
Wirkmechanismus des eingesetzten Verfahrens geben.73 Die Frage, wie weit die
Informations- und Auskunftspichten im Einzelfall reichen, bietet unter ver-
schiedenen Blickwinkeln Anlass zu Diskussionen. Fraglich ist zunächst der An-
wendungsbereich der Normen: Sind sie nur anwendbar, wenn automatisierte Einzel-
entscheidungen i. S. d. Art. 22 DSGVO vom Verantwortlichen vorgesehen sind,
oder erstrecken sich die Informationspichten und das Auskunftsrecht auch auf die
vorgelagerte Stufe, nämlich das eigentliche Proling, ohne dass der enge An-
wendungsbereich des Art.22 DSGVO zwingend eröffnet sein muss? Aus Sicht des
hier vertretenen 3-stugen Modells formuliert, geht es darum, ob die Transparenz-
pichten auch die zweite Stufe erfassen oder nur die Entscheidungsndungs-
prozesse auf der dritten Stufe. Die Frage des Anwendungsbereichs ist vor allem
dann relevant, wenn die zweite und dritte Verarbeitungsstufe von verschiedenen
Beteiligten durchgeführt und verantwortet werden, wie es z.B. im Verhältnis zwi-
schen Auskunftei und Bank der Fall ist. Würden die genannten, spezischen Trans-
parenzpichten nur im Anwendungsbereich des Art. 22 DSGVO zur Anwendung
kommen, ergäben sich aus den genannten Normen z.B. keine Verpichtungen für
Auskunfteien, die Score-Werte über die Bonität von Privatpersonen generieren.
Auskunfteien fällen nämlich in der Regel keine Entscheidungen i. S. d. Art. 22
IDSGVO.74
Richtigerweise decken die sich aus Art.13 II lit. f, 14 II lit. g und 15 I lit. h DSGVO
ergebenden Transparenzpichten auch Proling-Maßnahmen ab, solange diese zu-
mindest potenziell zu einer darauf folgenden Entscheidungsunterstützung herangezogen
werden. Informationen über Proling zum Zwecke der menschlichen Entscheidungs-
ndung (also außerhalb des Anwendungsbereichs von Art.22 I DSGVO) sind von den
Transparenzpichten ebenso erfasst wie automatisierte Einzelentscheidungen, die keine
rechtliche Wirkung bzw. erhebliche Beeinträchtigung i.S.d. Art.22 I DSGVO zeitigen.
Für diese Auslegung spricht der Wortlaut der Normen („zumindest in diesen Fällen“).75
Dieser Zusatz in Parenthese deutet darauf hin, dass die „Fälle“ Proling und Ent-
scheidungsndung erfasst sein sollen. Bei Zugrundelegung einer engeren Auslegung,
wonach bloß das Stadium der Entscheidungsndung gemeint sein soll, hätte der Zusatz
keine eigenständige Bedeutung mehr. Zudem lässt sich nur diese Auslegung der Trans-
parenzpichten mit dem Grundsatz der Transparenz gem. Art.5 I lit. a DSGVO und dem
Wortlaut des Erwägungsgrundes 60 DSGVO in Einklang bringen: „Darüber hinaus
sollte er die betroffene Person darauf hinweisen, dass Proling stattndet und welche
Folgen dies hat.“76 Der Hinweis auf die Folgen des Prolings legt die Annahme des wei-
73 Wachter/Mittelstadt/Floridi, International Data Privacy Law 7 (2017), 76, 82.
74 Von Lewinski/Pohl, ZD 2018, 17, 22.
75 So auch Bäcker, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art. 13 Rn. 52 DSGVO. Vgl. auch Franck, in: Gola/Heckmann (Hrsg.),
Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32022, Art.13 Rn.30 DSGVO.
76 Vgl. Article 29 Data Protection Working Party, Guidelines on Automated individual Decision-
Making and Proling for the Purposes of Regulation 2016/679, 2018, S.17.
III.Verbot automatisierter Einzelentscheidungen
70
ter gefassten Anwendungsbereichs nahe.77 Kenntnis über die im Rahmen des Prolings
erstellten Bewertungen ist zudem für den Betroffenen aus persönlichkeitsrechtlicher
Sicht und mit Blick auf die genannten Funktionen der Transparenzpichten (Freiheits-
wahrung und Absicherung der Betroffenenrechte) in aller Regel mindestens ebenso rele-
vant wie das Wissen darüber, wie die Entscheidungsndungsprozesse ausgestaltet sind.
Funktional soll die Norm nämlich sicherstellen, dass der Betroffene seine Rechte aus der
Datenschutz-Grundverordnung, aber auch solche aus anderen Regelwerken (wie
z.B. dem Allgemeinen Gleichbehandlungsgesetz) tatsächlich geltend machen kann.78
Dafür sind Kenntnisse über den Ablauf des Prolings notwendig. All dies spricht dafür,
den Anwendungsbereich der Normen nicht auf die wenigen Fälle zu beschränken, die
sich im bloßen Anwendungsbereich des Art.22 I DSGVO abspielen.
Neben der Frage des Anwendungsbereichs ist zudem fraglich, wie weitreichend
diese Transparenzpichten inhaltlich sind. So wird z.B. das Spannungsverhältnis zwi-
schen den Informationspichten gem. Art.13 und 14 DSGVO bzw. dem Auskunftsrecht
gem. Art.15 DSGVO und dem Schutz von Geschäftsgeheimnissen der Verantwort-
lichen nicht aufgelöst.79 Erwägungsgrund 63 DSGVO erkennt dieses Problem zwar.
Objektive Kriterien zu seiner Lösung werden allerdings nicht formuliert, sondern allen-
falls angedeutet: „Dieses Recht sollte die Rechte und Freiheiten anderer Personen, etwa
Geschäftsgeheimnisse oder Rechte des geistigen Eigentums und insbesondere das Ur-
heberrecht an Software, nicht beeinträchtigen. Dies darf jedoch nicht dazu führen, dass
der betroffenen Person jegliche Auskunft verweigert wird.“ Damit hängt die Frage zu-
sammen, wie konkret die zum Einsatz kommenden Algorithmen bzw. die jeweils
dahinterstehende Logik erläutert werden müssen. Eine weitreichende Offenlegungs-
picht vertritt z.B. Franck, der aus Art.13 II lit. f DSGVO eine recht umfassende Dar-
stellungspicht ableitet. Der konkrete Algorithmus muss demnach offengelegt und um
„erklärende Bestandteile“ ergänzt werden.80 Auch La Diega sieht eine Picht zur gänz-
lichen Offenlegung des Algorithmus, verbunden mit Erläuterungen, die auch für Laien
verständlich sind. Dies sei notwendig, um den Anforderungen von Art.47 GRCh und
77 Diesbezüglich wohl eher kritisch Paal/Hennemann, in: Paal/Pauly (Hrsg.), Datenschutz-Grund-
verordnung/Bundesdatenschutzgesetz, 32021, Art. 13 Rn. 31 DSGVO. Mit Blick auf den An-
wendungsbereich der Normen nicht ganz eindeutig von Lewinski/Pohl, ZD 2018, 17, 22: Nach
ihrer Ansicht sind die Normen wohl nur dann anwendbar, wenn vom Verantwortlichen Ent-
scheidungen getroffen werden. Demnach erwachsen für Auskunfteien keine Informationspichten
aus Art.13 II lit. f, 14 II lit. g DSGVO.Zugleich gehen sie diesen gegenüber aber im Kontext des
Auskunftsanspruchs gem. Art.15 I lit. h DSGVO von einer Offenlegungspicht bzgl. der „Infor-
mationen über die involvierte Logik“ aus, welche sich auf das Proling (hier in Form des Kredit-
Scoring) bezieht.
78 Selbst/Powles, International Data Privacy Law 7 (2017), 233, 236.
79 Vgl. Paal/Hennemann, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32021, Art. 13 Rn.31b DSGVO und Temme, Eur. Data Prot. L. Rev.3 (2017),
473, 479f.
80 Franck, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32022, Art.13 Rn.29 DSGVO.
Kapitel 4: Regulierung von Proling und automatisierten Einzelentscheidungen
71
Art.6 und 13 EMRK (Recht auf wirksamen Rechtsbehelf/wirksame Beschwerde und
auf ein faires Verfahren) zu genügen.81
Derart weitreichende Offenlegungspichten wären aber aus verschiedenen
Gründen problematisch. In praktischer Hinsicht stellt sich das Problem, dass Algo-
rithmen weiterentwickelt werden und sich teilweise auch „selber“ weiterentwickeln
(sog. Machine Learning). In beiden Fällen müsste der Verantwortliche seine Mit-
teilungen dementsprechend anpassen. Je detaillierter die Transparenzpichten sind,
die man ihm abverlangt, desto häuger sind Anpassungen notwendig. Es steht zu
befürchten, dass solche Situationen vor dem Hintergrund der von Art. 12 I S. 1
DSGVO geforderten Transparenz und Verständlichkeit eher kontraproduktiv wir-
ken. Im Fall des oben genannten Machine Learnings ist es für den Verantwortlichen
zudem schwierig bzw. ab einer bestimmten ihm abverlangten Transparenzhöhe un-
möglich, eine detaillierte Begründung einzelner gefundener Ergebnisse bzw. einzel-
ner Entscheidungen zu präsentieren.82 Eine Mitteilung des Quellcodes oder von
detaillierten Entscheidungsbäumen wäre zudem für Verbraucher aufgrund ihrer
Komplexität kaum eine Hilfe und wäre deshalb mit Blick auf den Grundsatz der
Transparenz und die Vorgaben in Art.12 I S.1 DSGVO problematisch und wenig
zielführend.83 Auch die damit einhergehende Beeinträchtigung der Geschäfts-
geheimnisse der Verantwortlichen dürfte in vielen Fällen unverhältnismäßig sein.84
Der Betroffene hat kein legitimes, schützenswertes Interesse daran, den Quellcode
zu erfahren, da die technischen Details als solche für seine informationelle Selbst-
bestimmung völlig irrelevant sind. Für ihn geht es stattdessen darum, zu wissen,
welche seiner personenbezogenen Daten wie verarbeitet werden und welche Folgen
ihm daraus sicher oder möglicherweise erwachsen.
Zur inhaltlichen Konkretisierung der Transparenzpichten scheint daher eine
Orientierung am Wortlaut der Normen, ihrem Sinn und Zweck und der Systematik
der Datenschutz-Grundverordnung hilfreich. Offenzulegen sind im Rahmen der
Informationspichten und des Auskunftsrechts „aussagekräftige Informationen“
über die „involvierte Logik“ sowie über „Tragweite“ und die „angestrebten Aus-
wirkungen“ der Verarbeitung. Der Bezug auf die Aussagekraft der mitzuteilenden
Informationen kann so verstanden werden, dass der in Art.5 I lit. a und Erwägungs-
grund 39 DSGVO formulierte datenschutzrechtliche Grundsatz der Transparenz
effektiv umgesetzt wird. Dies gilt gerade auch mit Blick auf die Ermöglichung der
Geltendmachung der Betroffenenrechte. Auch Art.12 DSGVO nennt weitere, all-
81 La Diega, jipitec 9 (2018), 3, 23.
82 Vgl. Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 363 und Drexl/Hilty/Beneke
u.a., Max Planck Institute for Innovation & Competition Research Paper No. 19-13 2019, 1, 9.
83 So auch selber Franck, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundes-
datenschutzgesetz, 32022, Art.13 Rn.29 DSGVO; La Diega, jipitec 9 (2018), 3, 23; von Lewinski/
Pohl, ZD 2018, 17, 22 und Schlussanträge des Generalanwalts Priit Pikamäe, C-634/21, EC-
LI:EU:C:2023:220, Rn.57 (SCHUFA Holding u.a. (Scoring)).
84 Von Lewinski/Pohl, ZD 2018, 17, 22; Paal/Hennemann, in: Paal/Pauly (Hrsg.), Datenschutz-
Grundverordnung/Bundesdatenschutzgesetz, 32021, Art.13 Rn.31b DSGVO.
III.Verbot automatisierter Einzelentscheidungen
72
gemeingültige Konkretisierungen dieses Grundsatzes.85 Und auch die Normen
selbst beziehen sich einleitend auf die Gewährleistung einer „transparente[n] Ver-
arbeitung“. Vor diesem Hintergrund müssen die anderen offenzulegenden Aspekte
betrachtet werden. Die „Tragweite“ der Verarbeitung und die „angestrebten Aus-
wirkungen“ beschreiben, wie sich das Treffen automatisierter, auf Proling basie-
render Einzelentscheidungen auf den Betroffenen auswirkt, welche Konsequenzen
also für ihn persönlich zu erwarten sind. Für die Auslegung der Normen hilfreich ist
vor allem auch Art.15 I lit.h DSGVO, welcher in zeitlicher Hinsicht durchaus nach
der getroffenen (und ggf. ausgeführten) Entscheidung vom Betroffenen geltend ge-
macht werden kann. Dennoch wird auch in dieser Norm der Ausdruck „angestrebten
Auswirkungen“ verwendet. Diese in die Zukunft gerichtete Formulierung deutet
darauf hin, dass die Offenlegungspicht sich auf die Erläuterung der System-
funktionalität der „involvierten Logik“ auf einem eher abstrakten Niveau bezieht.86
Verlangt werden kann demnach eine aussagekräftige Erläuterung der Grund-
annahmen und Wirkmechanismen der eingesetzten Verfahren, mithin eine Dar-
stellung, wie das Proling und das ggf. darauf basierende Fällen von Entscheidungen
konzeptionell ausgestaltet sind.87 Für den Betroffenen muss erkennbar sein, anhand
welcher Kriterien Bewertungen erstellt und darauf aufbauende Entscheidungen ge-
troffen werden. Das Wechselspiel zwischen seinem Verhalten bzw. seinen Eigen-
schaften und den für ihn daraus folgenden Konsequenzen darf nicht gänzlich abs-
trakt sein, sondern muss aussagekräftig erläutert werden. Ansonsten wären die
Informationspichten und das Auskunftsrecht wirkungslos. Für diese funktionale
Auslegung der Normen spricht auch Erwägungsgrund 63 DSGVO, wonach der Be-
troffene das Recht hat, „zu wissen und zu erfahren (…) nach welcher Logik die
automatische Verarbeitung personenbezogener Daten erfolgt und welche Folgen
eine solche Verarbeitung haben kann, zumindest in Fällen, in denen die Verarbeitung
auf Proling beruht.“
Der konkrete Umfang der Transparenzpichten hängt auch entscheidend davon
ab, in welchem Kontext und mit welchem Ziel Proling verwendet wird.88 Setzt ein
Musik- bzw. Video-Streamingdienst Proling ein, um einem Kunden individuali-
sierte Empfehlungen zu unterbreiten, ist eine allgemeiner gehaltene Information
ausreichend. Man wird in diesem Kontext nicht verlangen können, dass jede
einzelne Empfehlung erläutert und begründet wird. Die getroffenen Vorschläge ba-
sieren zwar auf Proling, sind für den Betroffenen aber von geringer Relevanz und
haben über den Informations- und Unterhaltungswert hinaus keine eigenständige
85 Vgl. von Lewinski/Pohl, ZD 2018, 17, 22.
86 Vgl. Wachter/Mittelstadt/Floridi, International Data Privacy Law 7 (2017), 76, 83f. (im Kontext
der Frage, inwiefern die Datenschutz-Grundverordnung einen Anspruch auf Begründung konkret
ergangener automatisierter Einzelentscheidungen gewährt).
87 Vgl. dazu auch Paal/Hennemann, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/
Bundesdatenschutzgesetz, 32021, Art.13 Rn.31c DSGVO.
88 Vgl. Schmidt-Wudy, in: Wolff/Brink (Hrsg.), Beck’scher Online-Kommentar Datenschutzrecht,
43. Edition (Stand: 1.2.2023), Art.15 Rn.78.3 DSGVO im Kontext der Offenlegung von Score-
Werten und Score-Formeln.
Kapitel 4: Regulierung von Proling und automatisierten Einzelentscheidungen
73
Funktion. Vor allem sind die aufgrund der Ergebnisse des Prolings getroffenen
Entscheidungen, die sich in der Anzeige bestimmter Vorschläge manifestieren, vom
Nutzer in der Regel gewollt und steigern für ihn die Nutzbarkeit des erworbenen
Dienstes. Daher genügt ein allgemeiner Verweis darauf, dass das Nutzerverhalten
des Betroffenen mit statistischen Erkenntnissen über das Konsumverhalten von
Nutzern mit ähnlichen Eigenschaften abgeglichen wird und die individuellen Emp-
fehlungen aufgrund gefundener Korrelationen unterbreitet werden.
Deutlich weitreichender sind– als Gegenbeispiel– die Transparenzpichten anzu-
setzen, denen Auskunfteien unterliegen. Im Bereich des Kredit-Scorings sind die für den
Betroffenen möglicherweise erwachsenden Konsequenzen potenziell durchaus tief-
greifend, da ein schlechter Score-Wert ohne Weiteres dazu führen kann, dass ein Kredit
nicht wie gewünscht vergeben wird. Der Score-Wert hat Einuss auf das „Ob“ der
Kreditvergabe und auf das „Wie“. Die genauen Modalitäten, wie z.B.Höhe des Zins-
satzes, das Einfordern von Sicherheiten, Kredithöhe und Kreditlaufzeit werden regel-
mäßig vor allem von Score-Werten abhängig gemacht.89 Große Auskunfteien wie die
Schufa sind zudem oft nicht nur im Kredit-Sektor tätig. Sie erstellen auch branchen-
spezische Auskünfte, etwa über potenzielle Mietinteressenten, Kunden im Mobilfunk-
sektor oder Versandhandelskunden.90 Aufgrund dieser weiten „Strahlwirkung“ auch auf
Alltagsgeschäfte und aufgrund der deutlich stärkeren unmittelbaren Auswirkungen auf
die Betroffenen sollte bei Anwendung der Transparenzpichten gem. Art.13 II lit. f, 14
II lit. g und 15 I lit. h DSGVO ein strengerer Maßstab angelegt werden.
c. Angemessene Maßnahmen als Schutzmechanismus
Art.22 I DSGVO geht von der Prämisse aus, dass vollständig automatisierte Einzel-
entscheidungen grundsätzlich unzulässig sind. Dieses Verbot gilt ausnahmsweise
nicht, wenn die Entscheidung „für den Abschluss oder die Erfüllung eines Vertrags
zwischen der betroffenen Person und dem Verantwortlichen erforderlich ist“
(II lit. a) und im Falle des Vorliegens einer „ausdrücklichen Einwilligung“ des Be-
troffenen (II lit. c). Art.22 II lit. b DSGVO enthält zudem eine Öffnungsklausel
zugunsten von Union und Mitgliedstaaten.
Gemäß Art.22 III DSGVO trifft den Verantwortlichen, der sich auf Art.22 II
lit. a bzw.lit.cDSGVO beruft, die Picht, „angemessene Maßnahmen [zu treffen],
um die Rechte und Freiheiten sowie die berechtigten Interessen der betroffenen Person
zu wahren, wozu mindestens das Recht auf Erwirkung des Eingreifens einer Person
seitens des Verantwortlichen, auf Darlegung des eigenen Standpunkts und auf
Anfechtung der Entscheidung gehört.“91 Es obliegt also dem Verantwortlichen, in-
89 Rühlicke, in: Maute/Mackenrodt (Hrsg.), Recht als Infrastruktur für Innovation, 2019, S.9, 11.
90 Vgl. ders., in: Maute/Mackenrodt (Hrsg.), Recht als Infrastruktur für Innovation, 2019, S.9, 15f.
91 Erwägungsgrund 71 DSGVO geht davon aus, dass der Betroffene eine „spezische(…) Unter-
richtung“ über seine diesbezüglichen Rechte erhält. Eine dementsprechende Unterrichtungspicht
kann damit in den Begriff der Angemessenheit der Maßnahmen i.S.d. Art.22 III DSGVO hinein-
gelesen werden (Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundes-
datenschutzgesetz, 32020, Art.22 Rn.32 DSGVO).
III.Verbot automatisierter Einzelentscheidungen
74
stitutionalisierte Vorkehrungen zu treffen, um diesen Pichten nachzukommen und
so einen effektiven Schutz des Betroffenen zu bewirken.92 Der Mindeststandard,
den die Datenschutz-Grundverordnung vorsieht, um den Betroffenen vor ausnahms-
weise zulässigen, vollständig automatisierten Einzelentscheidungen zu schützen, ist
damit im weitesten Sinne ein Anspruch auf „inhaltliches Gehör“: Der Betroffene
kann seinen Standpunkt geltend machen, der Verantwortliche muss einen mensch-
lichen Entscheider einsetzen, und es muss eine reale Möglichkeit bestehen, dass die
ursprüngliche Entscheidung inhaltlich abgeändert wird. Der Betroffene kann auf
diese Weise erwirken, dass die zunächst automatisiert getroffene Entscheidung
inhaltlich einzelfallbezogen neu gefällt und von einem Menschen verantwortet wird
und dass sein Standpunkt dabei Berücksichtigung ndet.93
d. Besonderer Schutz sensibler Daten
Der dargestellte Interessenausgleich wird zugunsten des Betroffenen modiziert,
wenn sensible Daten i.S.d. Art.9 I DSGVO verarbeitet werden. Art.22 IV DSGVO
verlangt, dass automatisierte Einzelentscheidungen im Falle der Verarbeitung sen-
sibler Daten nur dann zulässig sind, wenn Art.9 II lit. a bzw. lit. g DSGVO gilt. Im
privatwirtschaftlichen94 Kontext bedeutet dies, dass immer eine „ausdrückliche
Einwilligung“ gem. Art.9 II lit. a DSGVO in die automatisierte Verarbeitung der
sensiblen Daten vorliegen muss.95 Darüber hinaus muss– wie sonst auch– eine der
Ausnahmen des Art.22 II DSGVO greifen.96 Der Verweis des Art.22 IV DSGVO
auf „angemessene Maßnahmen“ zum Schutz des Betroffenen ist deklaratorisch, da
er sich schon aus Art.22 III und II lit. b DSGVO ergibt. Freilich sind bei Ent-
scheidungen, die auf sensiblen Daten basieren, aufgrund der besonders hohen
persönlichkeitsrechtlichen Relevanz und des gesteigerten Diskriminierungspo-
tenzials97 tendenziell höhere Anforderungen an die Angemessenheit zu stellen, als
es bei der Verarbeitung „regulärer“ personenbezogener Daten der Fall ist. Es kann
daher durchaus geboten sein, vom Verantwortlichen Maßnahmen zu verlangen, die
über den in Art.22 III DSGVO denierten Mindestkatalog (vgl. die Formulierung
92 Vgl. La Diega, jipitec 9 (2018), 3, 22.
93 Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.22 Rn.31 DSGVO.
94 Der Verweis auf Art.9 II lit. g DSGVO (erhebliches öffentliches Interesse) ist im rein privatwirt-
schaftlichen Bereich ohne Bedeutung. Deshalb wird er hier nicht weiter behandelt.
95 Gem. Art.9 II lit. a i.V.m. 22 IV DSGVO können Union und Mitgliedstaaten allerdings be-
stimmen, dass das Verbot der Verarbeitung sensibler Daten doch nicht per Einwilligung des Be-
troffenen aufgehoben werden kann.
96 Vgl. Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.22 Rn.45 DSGVO.
97 Ders., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.22 Rn.44 DSGVO.
Kapitel 4: Regulierung von Proling und automatisierten Einzelentscheidungen
75
„mindestens“) hinausgehen. Letztlich kommt es allerdings immer auf die konkrete
Fallgestaltung an und darauf, wie stark die Gefährdung der Persönlichkeitsrechte
des Betroffenen ausfällt und wie weitreichend und wahrscheinlich die Aus-
wirkungen auf ihn im Einzelfall sind.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International
Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung,
Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format
erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen
Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der
genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes er-
gibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht
und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben
aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers
einzuholen.
III.Verbot automatisierter Einzelentscheidungen
77
Kapitel 5: Zusammenfassung
Proling i.S.d. Art.4 Nr.4 DSGVO stellt ein statistisches Erkenntnisverfahren dar,
welches sich der Verarbeitung personenbezogener Daten bedient. Es dient dazu, die
persönlichen Aspekte natürlicher Personen wertend zu analysieren bzw. vorherzu-
sagen. Diese Bewertungen können in einer Vielzahl von Lebensbereichen und mit
ganz verschiedenen Zielrichtungen zum Einsatz kommen. Ihr potenzieller Anwen-
dungsbereich ist damit äußerst breit. Als typische Beispiele lassen sich Kredit-
Scoring und personalisierte Werbung nennen.
Proling kann mithilfe diverser technischer Verfahren durchgeführt werden. Ih-
nen allen ist gemein, dass sie konzeptionell auf dem Prinzip der Gruppenbildung
beruhen: Große Datensätze werden ausgewertet, um Muster und Korrelationen auf-
zudecken, aus denen sich Vergleichsgruppen bilden lassen. Der Betroffene– etwa ein
potenzieller Kreditnehmer– wird derjenigen Gruppe zugeordnet, mit der ausweis-
lich der über ihn bekannten Informationen die größten Überschneidungen bestehen.
Dann werden ihm die Eigenschaften der übrigen Gruppenmitglieder zugerechnet.
Auf diese Weise entstehen „neue“ personenbezogene Daten, die Auskunft über per-
sönlichkeitsrechtlich mitunter hoch sensible Eigenschaften geben können. Im Ein-
zelfall falsche Ergebnisse sind diesem Verfahren immanent und praktisch nicht zu
vermeiden, da das Proling reine Wahrscheinlichkeitswerte produziert. Dies ist pro-
blematisch, wenn diese Ergebnisse herangezogen werden, um dem Betroffenen ge-
genüber Entscheidungen zu fällen.
Aufbauend auf diesen Erkenntnissen hat der erste Teil dieser Arbeit ein 3- stuges
Modell entwickelt. Die erste Stufe bezieht sich auf die Datensammlung: Sowohl
abstrakte Vergleichsdaten als auch sich auf den Betroffenen beziehende personen-
bezogene Daten sind nötig, um Proling überhaupt durchführen zu können. Das
eigentliche Proling stellt die zweite Stufe des Modells dar. Es geht hier darum,
nutzbare Erkenntnisse über einen Betroffenen zu gewinnen, die als Entscheidungs-
grundlage dienen können. Die dritte Stufe des Modells bezieht sich auf die Phase
der Entscheidungsndung und -ausführung. Hier werden die Erkenntnisse des Pro-
© Der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9_5
78
lings sowie weitere relevante Aspekte herangezogen, um eine Entscheidung zu
fällen (und ggf. auszuführen), die Auswirkungen auf den Betroffenen hat. Die dritte
Stufe endet also mit einer Handlung bzw. einem bewussten Untätigbleiben.
Diese Strukturierung ermöglicht es, die rechtlichen und tatsächlichen Implikati-
onen von Proling und den darauf aufbauenden Entscheidungen zu erkennen und
sie rechtlich wie normativ zu bewerten. Das 3-stuge Modell erleichtert zudem die
Analyse solcher Sachverhalte, an denen mehrere Akteure beteiligt sind. Ein Bei-
spiel ist das Kredit-Scoring: Auskunfteien sammeln personenbezogene Daten, um
Score-Werte über natürliche Personen zu erstellen (Stufen 1 und 2 des Modells).
Die Entscheidung, ob (und ggf. wie) ein Kredit gewährt wird, trifft aber stets die
Bank unter Zugrundelegung des Score-Wertes (Stufe 3).
Die Datenschutz-Grundverordnung ist in derlei Fallkonstellationen grundsätzlich an-
wendbar, da für das Proling personenbezogene Daten verarbeitet werden. Sie setzt
gewisse rechtliche Rahmenbedingungen. Für Proling sind im privatwirtschaftlichen
Bereich vor allem drei datenschutzrechtliche Rechtsgrundlagen relevant: die Einwilli-
gung, die (vor)vertragliche Notwendigkeit und die allgemeine Interessenabwägungs-
klausel (Art.6 I S.1 lit. a, b und f DSGVO). Je nach Fallkonstellation gelten mithin
unterschiedliche rechtliche Rahmenbedingungen. Jedenfalls müssen die allgemeinen
Datenschutzgrundsätze des Art.5 I DSGVO beachtet werden. Der Erwägungsgrund 71
DSGVO kann hier ein wichtiges Werkzeug darstellen, um Art.5 I DSGVO inhaltlich zu
konturieren. Im Gegensatz zum verfügenden Teil der Verordnung enthält er recht kon-
krete Hinweise, wie Proling auszuführen ist.
Art.22 I DSGVO formuliert ein grundsätzliches Verbot bestimmter, rein automati-
sierter Einzelentscheidungen. Es kommt nach hier vertretener Auslegung nur dann zur
Anwendung, wenn der Entscheidung Proling vorangegangen ist. Die Reichweite des
Verbots ist eher gering, zumal Ausnahmen möglich sind. Im Wesentlichen geht es bei
Art.22 DSGVO darum, dass der Mensch nicht zum Objekt rein maschineller Entschei-
dungen gemacht werden soll. Ist dies ausnahmsweise doch zulässig, so gewährt ihm die
Datenschutz-Grundverordnung stets das Recht, das Hinzuziehen eines menschlichen
Entscheiders zu verlangen (Art.22 II lit. b, III DSGVO). Art.22 DSGVO kommt auf der
dritten Stufe des hier vertretenen Modells zur Anwendung. Die dritte Stufe geht aller-
dings deutlich über den Anwendungsbereich des Art.22 DSGVO hinaus, da sie auch
Entscheidungen umfasst, die von Menschen getroffen wurden.
Die Datenschutz-Grundverordnung stellt in ihren Artikeln 13 bis 15 gewisse
Transparenzpichten auf, die u.a. im Kontext von Art.22 I DSGVO relevant sind.
Der Betroffene hat demnach das Recht, aussagekräftige Informationen über die „in-
volvierte Logik sowie die Tragweite und die angestrebten Auswirkungen einer der-
artigen Verarbeitung“ zu erhalten (Art. 13 II lit. f, 14 II lit. g und 15 I lit. h
DSGVO). Nach hier vertretener Ansicht besteht dieses Recht nicht nur dann, wenn
der Anwendungsbereich des Art.22 I DSGVO eröffnet ist. Es besteht auch, wenn
Proling- Verfahren zum Einsatz kommen, die potenziell auf der dritten Stufe zur
Entscheidungsunterstützung herangezogen werden. Der konkrete Umfang dieser
Transparenzpichten ist kontextabhängig. Er hat sich am Telos, an der Systematik
sowie am Wortlaut der Datenschutz-Grundverordnung zu orientieren. Der Betroffene
hat damit grundsätzlich das Recht auf eine aussagekräftige Erläuterung der konzep-
tionellen Grundannahmen und Wirkmechanismen der ihn betreffenden Verfahren.
Kapitel 5: Zusammenfassung
79
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International
Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung,
Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format er-
laubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen
Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der ge-
nannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. So-
fern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betref-
fende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten
Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Kapitel 5: Zusammenfassung
Dieser Teil der Arbeit beschäftigt sich mit Preisdiskriminierung im Online-Handel
und ihrem Zusammenhang mit dem oben bereits in rechtlicher und tatsächlicher Hin-
sicht konturierten datenschutzrechtlichen Begriff des Prolings. Als Ausgangspunkt
der Untersuchung wird dargestellt, wie Preisdiskriminierung wirtschaftswissen-
schaftlich deniert ist. In diesem Kontext wird dargelegt, welche konkrete Denition
und Konzeption des Begriffs dieser Arbeit zugrunde liegt. Der Blickwinkel auf diese
ökonomischen Ausführungen ist an dieser Stelle primär der des Datenschutzrechts.
Proling wird eingesetzt, um personalisierte Preise zu verlangen. Bei personalisier-
ter Preissetzung (sog. Personalised Pricing) handelt es sich um einen Unterfall von
Preisdiskriminierung, nämlich das Setzen von Preisen in Abhängigkeit von Präferen-
zen und Eigenschaften des konkreten Kunden: Der Preis wird mittels einer daten-
schutzrechtlich relevanten Vorgehensweise aktiv an den Kunden angepasst.
Ein Teil der Untersuchung widmet sich der Frage, in welchem Ausmaß Preisdis-
kriminierung in Form personalisierter Preise im Online-Bereich tatsächlich zum
Einsatz kommt. Darüber hinaus sollen vor allem gerade auch die Einsatzmöglich-
keiten Berücksichtigung nden, welche zum jetzigen Zeitpunkt gegeben sind, aber
nicht oder nur wenig genutzt werden. Preispersonalisierung im Online-Handel n-
det aus verschiedenen Gründen nur selten bzw. nur in bestimmten Konstellationen
statt, obwohl die technischen Möglichkeiten ihren Einsatz häuger erlauben wür-
den. Diese Unterscheidung zwischen in der Praxis tatsächlich vorkommenden und
technisch darüber hinausgehend theoretisch möglichen Formen von Preispersonali-
sierung spielt im Rahmen dieser Untersuchung eine besonders hervorzuhebende
Rolle, da der Unterschied zwischen Theorie und Praxis eklatant ist und sich die
Frage stellt, wo diese Diskrepanz herrührt.
Hauptanliegen dieses Teils der Arbeit ist es, die konzeptionellen Zusammen-
hänge und Überschneidungen zwischen Proling, wie es in Art.4 Nr.4 DSGVO
deniert ist, und dem wirtschaftswissenschaftlichen Begriff der Preisdiskriminie-
rung darzustellen. Der Blick auf den eher breiten Begriff der Preisdiskriminierung
Teil II
Proling, Preisdiskriminierung und
Preispersonalisierung
82
ist für die Analyse und Bewertung personalisierter Preise im Online-Bereich unver-
zichtbar. Diese Untersuchungen gehen Hand in Hand mit der Frage, welche Formen
von Preisdiskriminierung überhaupt datenschutzrechtliche Relevanz haben und wel-
che Folgen daraus zu ziehen sind. Auf die technischen Abläufe wird so weit einge-
gangen, wie es für das Verständnis und die rechtliche Einordnung notwendig ist.
Proling, Preisdiskriminierung und Preispersonalisierung
83
Kapitel 6: Preisdiskriminierung
I. Überblick und Denition
1. Annäherung anden Begriff
Der Begriff Preisdiskriminierung wird in den Wirtschaftswissenschaften unter-
schiedlich deniert. Als Annäherung an die Thematik wird hier zunächst eine ver-
einfachte Denition herangezogen. Diese besagt, dass Preisdiskriminierung vor-
liegt, wenn ein Anbieter zum selben Zeitpunkt für das gleiche Gut von verschiedenen
Käufern verschiedene Preise verlangt.1 Diese Formulierung ist aber aus verschiede-
nen Gründen irreführend und ungenau. So wäre nach dieser Denition Preisdiskri-
minierung z.B. auch dann gegeben, wenn ein Anbieter nur deshalb von Kunden
unterschiedliche Preise verlangt, weil er tatsächlich unterschiedliche Kosten hat.
Ein Beispiel hierfür wäre der Fall, dass ein Anbieter aufgrund höherer Versandkos-
ten vom Kunden A einen höheren Gesamtpreis als vom Kunden B verlangt, da A–
im Gegensatz zu B– im Ausland lebt und dementsprechend höhere Portokosten
anfallen.2 Zugleich würden Situationen von dieser Denition mangels „verschiede-
ner Preise“ nicht erfasst, in denen alle Betroffenen denselben Preis zahlen, dieser de
facto aber diskriminierend ist, weil beim Anbieter verschiedene Kosten anfallen.3
Dies ist in der Praxis zum Beispiel der Fall, wenn Industriegüter, deren Versand
besonders kostenintensiv ist (etwa Zement), an Kunden unabhängig vom Lieferort
zum gleichen Preis verkauft werden und die Versandkosten immer im Endpreis
1 Varian, in: Schmalensee/Willig (Hrsg.), Handbook of Industrial Organization, 1989, S.597, 598.
2 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 350f.; Varian, in: Schmalensee/
Willig (Hrsg.), Handbook of Industrial Organization, 1989, S.597, 598.
3 Vgl. Graef, Colum. J.Eur. L. 24 (2018), 541, 543; Stigler, The Theory of Price, 41987, S.210;
Varian, in: Schmalensee/Willig (Hrsg.), Handbook of Industrial Organization, 1989, S.597, 598.
© Der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9_6
84
enthalten sind.4 Hierdurch werden die Kunden, bei denen besonders hohe Trans-
portkosten anfallen, gegenüber den günstiger zu erreichenden bevorzugt.
Die geschilderten Situationen entsprechen aber kaum dem Gemeinten. So ist bei-
spielsweise das Verhalten des Anbieters, der mit im Einzelfall erhöhten Preisen nur
seine gestiegenen (Versand- oder anderweitige) Kosten auffangen möchte, dabei
aber den gleichen Gewinn erzielt wie bei anderen Kunden auch, nach allgemeinem
Verständnis nicht vom Begriff der Preisdiskriminierung erfasst.5 Gemeint sind statt-
dessen solche Konstellationen, in denen Anbieter zwecks Gewinnmaximierung sys-
tematische Preissetzungsmethoden einsetzen, die zu einer Segmentierung des Mark-
tes auf der Nachfragerseite führen bzw. versuchen, eine bestehende Segmentierung
preislich widerzuspiegeln. Der Zweck besteht darin, Preise von den Kunden verlan-
gen und durchsetzen zu können, welche im theoretischen Idealfall möglichst genau
ihrem Reservationspreis entsprechen. Dies ist der Preis, den ein bestimmter Kunde
für eine konkrete Ware bzw. Dienstleistung maximal zu zahlen bereit ist.6 Der Grad
an Individualisierung kann unterschiedlich stark ausgeprägt sein und hängt neben
der Art der Preisdiskriminierung (1., 2. oder 3. Grades)7 von zahlreichen Faktoren
ab. Letztlich dient Preisdiskriminierung in der Regel dem Ziel, die Produzentenrente
zu steigern, indem Konsumentenrente abgeschöpft wird.8
2. Konkretisierung der Denition von Stigler
Im Rahmen dieser Arbeit wird für die Begriffsdenition die Denition von Stigler
herangezogen und konkretisiert. Stigler beschreibt Preisdiskriminierung als „the
sale of two or more similar goods at prices that are in different ratios to marginal
cost.“9 Prägend für diese Formulierung und Grundlage des dieser Arbeit zugrunde
liegenden Verständnisses von Preisdiskriminierung sind zwei ihrer Charakteristika.
Zunächst ist es so, dass die Denition von Stigler die Grenzkosten des Anbieters
zum verlangten Preis in Relation setzt. Sie ist also relativ und stellt nicht auf absolute
Preise ab. Übertragen auf das obige Beispiel geht es darum, welche Kosten dem An-
bieter tatsächlich entstehen und wie er in Abhängigkeit davon verschiedenen Kunden
4 Varian, in: Schmalensee/Willig (Hrsg.), Handbook of Industrial Organization, 1989, S.597, 631f.
5 Vgl. Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 350f. und Wojtal, Shopping
ohne Grenzen?, 2015, S.56f.
6 Ezrachi/Stucke, Virtual Competition, 2016, S. 85 f.; Varian, Intermediate Microeconomics,
92014, S.4.
7 Siehen unten Kap.6, III.
8 Im Rahmen dieser Arbeit wird, etwas vereinfachend, unterstellt, dass mit der Produzentenrente
stets auch der Gewinn des Anbieters steigt.
9 Stigler, The Theory of Price, 41987, S.210. An dieser Denition orientieren sich z.B. auch Zui-
derveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 351; Stole, in: Armstrong/Porter
(Hrsg.), Handbook of Industrial Organization, 2007, S.2221, 2224 f.; Varian, in: Schmalensee/
Willig (Hrsg.), Handbook of Industrial Organization, 1989, S.597, 598.
Kapitel 6: Preisdiskriminierung
85
gegenüber verschiedene Preise setzt. Sofern er seine Kosten bloß an die Kunden
weitergibt, liegt grundsätzlich keine Preisdiskriminierung vor, da der von ihm er-
zielte Gewinn gleichbleibt.10 Von den erhöhten Versandkosten hat er selber nämlich
keinen nanziellen Vorteil. Er reicht diesen Posten bloß an den Kunden A weiter.11
Sind verschiedene Preise für das gleiche12 Produkt bloß das Ergebnis von Ska-
len- oder Verbundeffekten, liegt auch darin also keine Preisdiskriminierung.13 An-
ders zu bewerten ist der Fall hingegen, wenn der Anbieter beispielsweise anhand der
IP-Adresse des A erkennt, dass dieser sich im Ausland bendet, ihm daher eine
höhere Kaufkraft und dementsprechend einen erhöhten Reservationspreis unter-
stellt und in der Folge den Preis anhebt.14 Wird dem A deshalb von vornherein ein
höherer Preis angezeigt (oder ein solcher wird etwa indirekt über überproportional
erhöhte Versandkosten durchgesetzt, welche nicht durch die tatsächlich gestiegenen
Kosten gerechtfertigt sind), so liegt angesichts des im Vergleich zur Transaktion mit
B gestiegenen Gewinns Preisdiskriminierung vor. Der Anbieter macht, sofern seine
Prognose zugetroffen hat und A den Preis auch tatsächlich zu zahlen bereit ist, in
der Relation mit dem gleichen Produkt einen höheren Gewinn. So greift er Teile der
Konsumentenrente des A ab, um seine Produzentenrente und damit letztlich seinen
Gewinn zu steigern. In der Tat wird in der Praxis der Aufenthalts- bzw. Wohnort
eines Nutzers– etwa eine Wohnadresse in einer wohlhabenderen Wohngegend– als
Parameter für seine Zahlungsbereitschaft angesehen.15
Ein anschauliches Beispiel für Preisdiskriminierung aufgrund des Herkunftslands
von Kunden ist die (frühere) Praxis der unionsweit tätigen Autovermietungen Sixt,
Enterprise, Goldcar, Europcar, Hertz und Avis. Diese Unternehmen wurden im Jahr
2014 von der Europäischen Kommission vor dem Hintergrund der Dienstleistungs-
Richtlinie16 aufgefordert, ihre dahingehende Vorgehensweise zu beenden, Verbrau-
cher aus verschiedenen Mitgliedstaaten preislich zu diskriminieren.17 Der Vorwurf
10 So auch das Ofce of Fair Trading, Personalised Pricing, 2013, S.2, welches Preisdiskriminie-
rung wie folgt deniert: „[A] rm charges a different price to different people for the same good or
service, for reasons not associated with costs“ und Stole, in: Armstrong/Porter (Hrsg.), Handbook
of Industrial Organization, 2007, S.2221, 2224: „Price discrimination exists when prices vary
across customer segments in a manner that cannot be entirely explained by variations in marginal
cost“ sowie Jentzsch, Wohlfahrts- und Verteilungswirkungen personalisierter Preise und Produkte,
2017, S.17f.
11 So auch Schoeld, Competition Law Journal 18 (2019), 35, 36.
12 Dazu siehe unten Kap.6, I. 2.
13 Organisation for Economic Co-operation and Development (OECD), Price Discrimination,
2016, S.6.
14 Vgl. Wojtal, Shopping ohne Grenzen?, 2015, S.57f.
15 European Commission, Consumer Market Study on Online Market Segmentation through perso-
nalised Pricing/Offers in the European Union, 2018, S.55.
16 Richtlinie 2006/123/EG des Europäischen Parlaments und des Rates vom 12. Dezember 2006
über Dienstleistungen im Binnenmarkt (ABl. L 376 vom 27.12.2006, S.36ff.) (im Folgenden
„Dienstleistungs-RL“).
17 Vgl. EU-Kommission, Pressemitteilung vom 13.8.2014, abgedruckt in EuZW 2014, S.684, im
Wesentlichen identisch auf http://europa.eu/rapid/press-release_IP-14-917_de.htm (zuletzt aufge-
rufen am 31.3.2023).
I. Überblick und Denition
86
bestand darin, dass von Mietwageninteressenten je nach Herkunftsland online für die
gleiche Leistung verschiedene Preise verlangt wurden, ohne dass dies für die Anbie-
ter mit unterschiedlichen Kosten verbunden war.18 Beispielsweise erfuhr ein Mietin-
teressent aus Deutschland bei der Online-Anmietung eines Autos im Vereinigten
Königreich einen Preisaufschlag von 100%, nachdem er während der Buchung sein
Herkunftsland angegeben hatte. Die Europäische Kommission führt in ihrer Presse-
mitteilung aus: „Die Preisunterschiede zwischen den verschiedenen länderspezi-
schen Internetseiten ein und derselben Autovermietung können erheblich sein. Doch
oft bestehen sie für die gleiche Dienstleistung am gleichen Standort und von demsel-
ben Anbieter. Die Kosten für die Erbringung solcher Dienste dürften sich daher nicht
aufgrund des Wohnsitzes des Kunden erheblich unterscheiden. Eine unterschiedliche
Behandlung von Verbrauchern aus verschiedenen EU-Ländern ist somit nicht ge-
rechtfertigt.“19 Sie stellt damit auch auf das Verhältnis zwischen Kosten und Gewinn
der Anbieter ab und macht deutlich, dass unterschiedliche Preise aufgrund unter-
schiedlich hoher Kosten unproblematisch wären. Freilich gilt es hier zu beachten,
dass diese Aussage nicht ohne Weiteres auf inländische Sachverhalte übertragen wer-
den kann, da sie im Kontext der Dienstleistungsfreiheit innerhalb der Europäischen
Union getätigt wurde. Ähnliche Vorwürfe hatte die EU-Kommission auch im Jahr
2003 vor dem Hintergrund zahlreicher Verbraucherbeschwerden gegenüber Luft-
fahrtunternehmen erhoben.20 Auch diese sollen Kunden aufgrund ihres Wohnsitzes
preislich diskriminiert haben, was zu Preisunterschieden von bis zu 300% für identi-
sche Flugtickets geführt hat.21
Das zweite Charakteristikum der Denition von Stigler ist die Verwendung des
Begriffs „similar“. Er selbst präsentiert keine vertiefte Erläuterung dieses Begriffs.
Nach hiesigem Verständnis wird damit deutlich gemacht, dass Preisdiskriminierung
auch dann vorliegen kann, wenn die Produkte bzw. Dienstleistungen, welche an
verschiedene Kunden zu verschiedenen Preisen verkauft werden, nicht völlig iden-
tisch sind. Es geht stattdessen darum, ob es sich aus Sicht der Kunden im Kern um
das gleiche Produkt handelt, welches mehr oder weniger stark modiziert wurde
oder unter verschiedenen Bedingungen angeboten wird. Die Produkte müssen so
ähnlich sein, dass sie grundsätzlich austauschbar sind, auch wenn sie als unter-
schiedlich hochwertig wahrgenommen werden. Durch das Abstellen auf „Ähnlich-
keit“ werden mehr Sachverhalte vom Begriff der Preisdiskriminierung erfasst. In
18 Zum rechtlichen Hintergrund vgl. Art.20 II Dienstleistungs-RL und den darauf basierenden §5
Dienstleistungs-Informationspichten-Verordnung.
19 Siehe http://europa.eu/rapid/press-release_IP-14-917_de.htm (zuletzt aufgerufen am 31.3.2023).
20 Vgl. EU-Kommission, Pressemitteilung vom 7.6.2004, abgedruckt in EuZW 2004, S.387, im
Wesentlichen identisch auf http://europa.eu/rapid/press-release_IP-04-720_de.htm (zuletzt aufge-
rufen am 31.3.2023).
21 Vgl. den Text der Pressemitteilung: „Die (…) Beschwerden bezogen sich auf identische Flugti-
ckets. Die beanstandeten Preisunterschiede standen somit nicht in Zusammenhang mit dem Kauf-
datum, der Möglichkeit zur Änderung einer Reservierung oder sonstigen Dienstleistungsmerkma-
len, die den Kostenunterschied erklären könnten. Die Preisunterschiede hingen offenbar nur mit
dem Wohnort des Kunden zusammen.“
Kapitel 6: Preisdiskriminierung
87
diesem Sinne führt auch die OECD zutreffend aus: „The meaning of the word ‘si-
milar’ in this denition is important, since products may differ in quantity, quality,
purpose, over time, and in the circumstance in which they are sold.“22
Dieser offene und damit auslegungsbedürftige Begriff führt zu einer gewissen Un-
schärfe der Denition, da der Übergang vom „ähnlichen“ zum nicht mehr ähnlichen
Produkt ießend ist und eine genaue Abgrenzung in Einzelfällen schwierig sein dürfte.
Ihrer Bestimmung wohnt immer auch eine wertende Komponente inne. Ein wesentli-
cher Vorteil ist allerdings, dass nur so auch die Fälle des sog. Versionings erfasst sind.23
Versioning ist ein Unterfall von Preisdiskriminierung 2. Grades und bedeutet, dass das
an sich gleiche Produkt in Ausführungen verschiedener Qualität vermarktet wird. Der
Kunde wählt „seinen Preis“ dadurch aus, dass er sich für eine Variante entscheidet (sog.
Selbstselektion). Durch das Anbieten unterschiedlicher Qualitätsstufen werden ver-
schiedene Kundengruppen mit verschiedenen Präferenzen angesprochen.24 Ein alltäg-
liches Beispiel hierfür sind Bücher, die als Taschenbuch und als gebundene Ausgabe
auf den Markt kommen.25 Inhaltlich sind diese Ausgaben identisch, da sie denselben
Text beinhalten. Dem typischen Käufer wird es in aller Regel primär um das Lesen des
Buchs als solches gehen. Die Produkte sind also im Sinne der Denition „ähnlich“. Die
gebundene Ausgabe wird als höherwertiger wahrgenommen und deutlich teurer ver-
kauft. Der Preisaufschlag geht dabei typischerweise deutlich über die Mehrkosten des
Produzenten für die aufwändigere Herstellung hinaus, womit sein Gewinn steigt.26
Diese in der Relation höheren Gewinnmargen bei den höherwertigen Varianten eines
Produkts sind beim Versioning typisch.27 Preisdiskriminierung liegt nach der hier ver-
wendeten Denition vor, da das gleiche (bzw. nach der hier verwendeten Denition
„ähnliche“) Produkt an verschiedene Kunden zu verschiedenen Preisen verkauft wird
und dabei Gewinne produziert werden, die in unterschiedlicher Relation zu den ange-
fallenen Kosten stehen.28 Diese Art der Marktsegmentierung durch Produktdifferenzie-
rung kann auch durch eine künstliche Verschlechterung des Produkts herbeigeführt
werden. So hat IBM in den 1990er-Jahren seinen „LaserPrinter Series E“ in zwei Ver-
sionen verkauft, wobei die günstigere Variante langsamer gedruckt hat als die (doppelt
so) teure. Um diesen Effekt herbeizuführen, hatte IBM in die eigentlich „schnelle“
Variante des Druckers einen Chip eingebaut, der den Druckvorgang künstlich verlang-
samt hat.29 Abgesehen davon waren die Modelle baugleich. Die Kunden konnten nach
22 Organisation for Economic Co-operation and Development (OECD), Price Discrimination,
2016, S.6.
23 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 351.
24 Varian, Intermediate Microeconomics, 92014, S.485.
25 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 351; The White House, Big Data
and Differential Pricing, 2015, S.5.
26 Motta, Competition Policy, 2004, S.491. Vgl. dazu auch Stigler, The Theory of Price, 41987,
S.210 und Varian, in: Schmalensee/Willig (Hrsg.), Handbook of Industrial Organization, 1989,
S.597, 598f.
27 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 351.
28 Es handelt sich um Preisdiskriminierung 2. Grades, siehe dazu unten Kap.6, III. 2.
29 The White House, Big Data and Differential Pricing, 2015, S.5; Zuiderveen Borgesius/Poort, J
Consum Policy 40 (2017), 347, 351.
I. Überblick und Denition
88
ihrer Präferenz auswählen, ob sie lieber den schnell druckenden, teuren, oder den lang-
samen und dafür günstigen Drucker kaufen möchten. Die höhere Gewinnmarge pro
Stück ist in diesem Fall besonders deutlich: Abgesehen von den zusätzlichen, vermut-
lich zu vernachlässigenden Kosten für den Chip und seinen Einbau stellt die komplette
Differenz zwischen dem günstigen und dem hochwertigen Modell einen zusätzlichen
Gewinn für IBM dar. Da es sich um „ähnliche“ Produkte gehandelt hat, liegt Preisdis-
kriminierung nach der hier vertretenen Denition vor.
3. Value-based Pricing und risk-based Pricing
Im Folgenden wird unter Preisdiskriminierung in der Gestalt von Preispersonalisie-
rung die Situation verstanden, dass der Preis für ein bestimmtes Gut bzw. für eine
bestimmte Dienstleistung in Abhängigkeit von der mit den Methoden des Prolings
„berechneten“ bzw. vermuteten Zahlungswilligkeit des Kunden, also seinen Präfe-
renzen, festgesetzt wird (sog. value-based Pricing).30 Der Preis orientiert sich also
nicht (nur) an den entstandenen Kosten, sondern auch an der Zahlungswilligkeit des
Betroffenen. Dementsprechend werden die Fälle ausgenommen, welche unter den
Begriff risk-based Pricing fallen. Letzteres liegt vor, wenn verschiedene Preise ver-
schiedene Risiken für den Anbieter widerspiegeln.31 Klassisches Beispiel hierfür
sind Versicherungen, bei denen der individuell verlangte Tarif (zumindest auch) von
individuellen Risikofaktoren abhängt. Je nach Art der Versicherung haben solche
Faktoren wie Alter oder Wohnort des Versicherungsnehmers Einuss auf die ver-
langte Versicherungsprämie. Im Gegensatz zu diesen relativ groben, verallgemei-
nernden Faktoren gibt es auch stärker individualisierte Modelle, z.B. Telematik-
Tarife für Kraftfahrzeuge. Bei diesen wird die zu zahlende Prämie noch stärker an
den jeweiligen Versicherungsnehmer angepasst, indem sein Fahrverhalten bei-
spielsweise durch eine im Auto installierte „Telematik-Box“ oder anhand einer
Smartphone-App erfasst wird und je nach Fahrstil (z.B.Brems- und Beschleuni-
gungsverhalten) und festgestellter Risikofreude des Fahrers im Laufe der Zeit ange-
passt wird.32 Sofern die im Einzelfall bestimmten Preise bloß Ausdruck des Risikos
sind, welches die Versicherung abdeckt, die relative Gewinnmarge aber bei den ver-
schiedenen Kunden grundsätzlich gleich bleibt, liegt keine Preisdiskriminierung
(und dementsprechend erst recht keine Preispersonalisierung) vor.
30 Vgl. The White House, Big Data and Differential Pricing, 2015, S.6.
31 Dass., Big Data and Differential Pricing, 2015, S.7; Competition and Markets Authority (CMA),
The Commercial Use of Consumer Data, 2015, S.92. Terminologisch abweichend Locher, ZWeR
16 (2018), 292, 293, die diese Vorgehensweise mit dem Begriff „Scoring“ bezeichnet.
32 Zu den technischen Details siehe Klimke, r+s 2015, 217, 218.
Kapitel 6: Preisdiskriminierung
89
II.Voraussetzungen für Preisdiskriminierung
Um Preisdiskriminierung betreiben zu können, müssen grundsätzlich drei Voraus-
setzungen gegeben sein: Der Anbieter muss ein gewisses Maß an Marktmacht inne-
haben; er muss in der Lage sein, Arbitrage (also den Weiterverkauf des Gutes bzw.
der Dienstleistung) zu verhindern oder zumindest zu beschränken; und er muss (zu-
mindest ungefähre) Kenntnis des Reservationspreises seiner Kunden haben.
1. Gewisser Grad anMarktmacht
Solange perfekter Wettbewerb herrscht, kann ein Anbieter grundsätzlich nicht auf
Dauer erfolgreich Preise verlangen, welche vom Marktpreis abweichen. Der Markt-
preis entspricht in diesem hypothetischen Modell den Grenzkosten. Um überhaupt
Preise setzen zu können, welche von diesem Wert abweichen, muss ein Unterneh-
men zwingend ein gewisses Maß an Marktmacht innehaben.33 Letzteres gilt demzu-
folge auch, wenn der Anbieter Preisdiskriminierung betreibt.34 Die notwendige
Marktmacht kann im Online-Bereich z.B. aus hohen Wechselkosten für Kunden,
Skaleneffekten, Verbundvorteilen, Intransparenz oder Netzwerkeffekten resultie-
ren.35 Allerdings besteht kein unmittelbarer Zusammenhang zwischen dem Ausmaß
der Marktmacht von Unternehmen und dem Ausmaß ihres Einsatzes von Preisdis-
kriminierung.36 Aus der Marktmacht des Unternehmens lassen sich also keine pau-
schalen Schlüsse ziehen: Auch Unternehmen mit eher geringer Marktmacht können
differenzierte Preise verlangen. Dies überrascht nicht, denn auf den meisten Märk-
ten ist Preisdiskriminierung der Regelfall und kommt unabhängig von der Unter-
nehmensgröße zum Einsatz.37
Diese Erkenntnisse sind für die Einordnung und Bewertung der rechtlichen Zu-
lässigkeit von Preisdiskriminierung im Online-Handel relevant. Ein Unternehmen
muss nicht im kartellrechtlichen Sinne marktbeherrschend sein, um Preisdiskrimi-
nierung betreiben zu können. Zugleich lässt sich aus dem Umstand, dass ein Unter-
nehmen Preisdiskriminierung betreibt, nicht auf besondere Marktmacht oder gar
Marktbeherrschung schließen. Hieraus folgt wiederum, dass die Frage nach der
rechtlichen Zulässigkeit von Preisdiskriminierung keinesfalls in jeder Konstellation
auch eine kartellrechtliche ist.
33 McAfee/Mialon/Mialon, Economics Letters 92 (2006), 360; Organisation for Economic Co-
operation and Development (OECD), Price Discrimination, 2016, S.9.
34 McAfee/Mialon/Mialon, Economics Letters 92 (2006), 360; Organisation for Economic Co-
operation and Development (OECD), Personalised Pricing in the Digital Era, 2018, S.13.
35 Organisation for Economic Co-operation and Development (OECD), Personalised Pricing in the
Digital Era, 2018, S.13; Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 351.
36 McAfee/Mialon/Mialon, Economics Letters 92 (2006), 360, 366; Organisation for Economic
Co-operation and Development (OECD), Price Discrimination, 2016, S.9.
37 Vgl. Muraca/Maggiolino, ECLR 40 (2019), 483.
II.Voraussetzungen für Preisdiskriminierung
90
2. Verhinderung von Arbitrage
Preisdiskriminierung ist nur möglich, wenn Arbitrage, also „die Möglichkeit, Preisun-
terschiede risikofrei zur Gewinnerzielung zu nutzen“,38 per se ausgeschlossen oder
praktisch eingeschränkt ist. Der vom Anbieter angestrebte Effekt von Preisdiskrimi-
nierung– die Steigerung der Produzentenrente bzw. des Gewinns durch Abschöpfung
der Konsumentenrente– kann auf längere Sicht gesehen nicht eintreten, wenn Kun-
den, die ein Gut (oder eine Dienstleistung) zu einem bestimmten Preis gekauft haben,
dieses für einen höheren Preis an andere Kunden weiterverkaufen, welche beim sel-
ben Anbieter sonst einen noch höheren Preis gezahlt hätten.39 Dies gilt für alle Formen
von Preisdiskriminierung. Gewährt ein Anbieter z.B.Mengenrabatt (Preisdiskrimi-
nierung 2. Grades), wird der für ihn positive Effekt langfristig wieder reduziert oder
gänzlich zunichte gemacht, wenn einzelne Kunden größere Mengen des Produkts
kaufen– wodurch für sie der Stückpreis sinkt– und es dann stückweise zu einem Preis
weiterverkaufen, der über dem von ihnen gezahlten Stückpreis, aber unter dem Ein-
zelpreis des Anbieters liegt.40 Ein praktisches Beispiel für Arbitrage ist der Parallelim-
port von Arzneimitteln: Wenn die Hersteller diese in verschiedenen Ländern zu unter-
schiedlichen Preisen verkaufen, erschwert der Bezug der Produkte aus „günstigeren“
Drittländern diese Form von Preisdiskriminierung.41
Ein solcher Weiterverkauf zwischen den Kunden muss also unmöglich sein oder
aus anderen Gründen nicht oder nur eingeschränkt stattnden, damit Preisdiskrimi-
nierung funktionieren kann. Die Art des Gutes spielt eine entscheidende Rolle. Bei
vielen beweglichen Gütern ist der Weiterverkauf grundsätzlich unproblematisch
möglich und Arbitrage aus Sicht des Anbieters durchaus ein potenzielles Hinder-
nis.42 Bei manchen Gütern, wie z.B. solchen, die verderblich sind oder deren Wei-
terverkauf mit besonders hohen Transaktionskosten einhergeht, ist Arbitrage hinge-
gen per se unmöglich oder eingeschränkt.43 Dies gilt vor allem auch für viele Arten
von ofine genutzten Dienstleistungen, bei denen der Kunde konkret benannt und
nicht ohne Weiteres austauschbar ist. Beispiele dafür sind die Buchung eines Hotel-
zimmers sowie der Kauf von Flugtickets bzw. personengebundenen Frühbucherti-
ckets bei der Bahn.44 Das letztgenannte Beispiel (Sparangebote der Bahn) zeigt
anschaulich das Bestreben, Arbitrage durch gezielte Maßnahmen zu verhindern:
38 Locher, ZWeR 16 (2018), 292, 294.
39 Bar-Gill, U. Chi. L. Rev. 86 (2019), 217, 227; Ezrachi/Stucke, Virtual Competition, 2016,
S.86f.; Organisation for Economic Co-operation and Development (OECD), Price Discrimina-
tion, 2016, S.9.
40 Motta, Competition Policy, 2004, S.492.
41 Locher, ZWeR 16 (2018), 292, 294.
42 Organisation for Economic Co-operation and Development (OECD), Personalised Pricing in the
Digital Era, 2018, S.13.
43 Bar-Gill, U.Chi. L.Rev. 86 (2019), 217, 227; Maggiolino, Bocconi Legal Studies Research Pa-
per No. 2984840 2017, 1, 11.
44 Organisation for Economic Co-operation and Development (OECD), Personalised Pricing in the
Digital Era, 2018, S.13; Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 351.
Kapitel 6: Preisdiskriminierung
91
Weil die Tickets personengebunden sind, kann kein Zweitmarkt entstehen. Für die
Erbringung der Dienstleistung ist die Personalisierung aber unnötig.45 Für den An-
bieter gibt es verschiedene weitere Möglichkeiten, Arbitrage aktiv zu unterbinden:
So kann er z.B. den Verkauf eines Produkts an Dritte oder Reimporte vertraglich
untersagen oder Garantie- und Serviceleistungen im Falle des Weiterverkaufs ein-
schränken.46 Auch das Personalisieren des Produkts senkt die Möglichkeit bzw.
Wahrscheinlichkeit des Weiterverkaufs.
3. Kenntnis des Reservationspreises
Die dritte zwingende Voraussetzung für Preisdiskriminierung ist Kenntnis des Re-
servationspreises der Kunden. Der Anbieter muss zumindest näherungsweise erken-
nen können, wie viel dem Kunden oder bestimmten Kundengruppen ein konkretes
Gut bzw. eine Dienstleistung wert ist. Dementsprechend kann er mit Preisdiskrimi-
nierungsmaßnahmen keinen Erfolg haben, wenn alle Kunden anonym sind und ein
homogenes Kaufverhalten an den Tag legen.47
Perfekte Preisdiskriminierung, für die u.a. die exakte Kenntnis des Reservati-
onspreises eines bestimmten Kunden notwendig ist, ist aus verschiedenen Gründen
auch in einer digitalisierten Welt nahezu ein Ding der Unmöglichkeit. Im Standard-
modell der neoklassischen Theorie ergibt sich der Reservationspreis als Ausdruck
der maximalen Zahlungswilligkeit der Kunden rein nach ihren Präferenzen.48 Diese
sind subjektiv und dementsprechend heterogen. Sie bestimmen sich u.a. nach dem
erwarteten Nutzen, den der Kauf mit sich bringen wird. Die Präferenzen– und die
daraus resultierende Wertschätzung eines Produkts bzw. einer Dienstleistung– wer-
den aber darüber hinaus auch von den Vorstellungen der Kunden über die Eigen-
schaften des Kaufgegenstands beeinusst. Fehlvorstellungen schlagen auf die Höhe
des Reservationspreises durch, sofern die Kunden etwa aufgrund von Unwissenheit
(oder auch aufgrund einer Täuschung bzw. Irreführung) von einer falschen Tatsa-
chengrundlage ausgehen.49 Fehlvorstellungen können sich auch auf das eigene zu-
künftige Verhalten des Kunden beziehen und so bei diesem beispielsweise einen
Reservationspreis bewirken, der eigentlich zu hoch ist. So überschätzen Kunden
von Fitnessstudios in vielen Fällen ihre Selbstdisziplin, was zu einer irrationalen,
weil ökonomisch situativ nicht optimalen Auswahl bei mehreren zur Wahl gestellten
Vertragsoptionen (etwa mit unterschiedlicher Laufzeit bzw. Kündigungsmöglich-
45 Locher, ZWeR 16 (2018), 292, 294.
46 Ezrachi/Stucke, Virtual Competition, 2016, S. 86f.; Maggiolino, Bocconi Legal Studies Re-
search Paper No. 2984840 2017, 1, 11; Motta, Competition Policy, 2004, S.492f.
47 Organisation for Economic Co-operation and Development (OECD), Price Discrimination,
2016, S.9.
48 Bar-Gill, U.Chi. L.Rev. 86 (2019), 217, 228. Es wird unterstellt, dass Zahlungswilligkeit mit
der entsprechenden Zahlungsfähigkeit einhergeht.
49 Vgl. ders., U.Chi. L.Rev. 86 (2019), 217, 228f.
II.Voraussetzungen für Preisdiskriminierung
92
keiten) führt.50 Der Schwerpunkt der Fehlvorstellung kann sich auch auf den ver-
langten Preis beziehen. Ein Beispiel dafür sind etwa Säumnisgebühren, die unter
Umständen im Rahmen der Nutzung einer Kreditkarte von der Bank verlangt wer-
den können. Fallen diese wider Erwarten an– weshalb der vom Karteninhaber zu
zahlende Geldbetrag planwidrig steigt –, lag de facto eine preisliche Fehlvorstel-
lung beim Kunden vor.51
Aus diesen Überlegungen ergibt sich, dass das Zustandekommen des Reservati-
onspreises von ganz verschiedenen Faktoren abhängt. Er ist aufgrund seines subjek-
tiven Charakters situativ, oftmals irrational, fehleranfällig und Schwankungen un-
terworfen.52 Dennoch stehen Anbietern mittlerweile immer bessere technische
Möglichkeiten zur Verfügung, die es zumindest in der Theorie erlauben, die Reser-
vationspreise konkreter Kunden näherungsweise zu bestimmen. Nach gegenwärti-
gem Stand der Technik basiert dies nahezu immer auf Pauschalierungen, Schätzun-
gen und Hochrechnungen und lässt sich damit in der Regel unter den Begriff des
Prolings i.S.v. Art.4 Nr.4 DSGVO subsumieren.
Stets ist es notwendig, dass die Kunden entweder aus Sicht des Anbieters unter-
scheidbar sind oder ihre unterschiedlichen Präferenzen selber durch ihr Kaufverhal-
ten nach außen zu erkennen geben.53 Der letztgenannte Fall wird als Selbstselektion
bezeichnet. Der Preis wird in dieser Konstellation nicht aktiv an den konkreten
Kunden angepasst (etwa aufgrund von dessen Alter, Status, Gruppenzugehörigkeit,
erkannter oder vermuteter Präferenzen). Stattdessen wählt der Kunde „seinen“ Preis
aus mehreren, vom Anbieter jedermann angebotenen Optionen aus. Selbstselektion
ist damit von ihrer Grundkonzeption her datenschutzrechtlich neutral, da der Anbie-
ter keinerlei Informationen über den konkreten Kunden benötigt.
Wenn man die Kenntnis des Reservationspreises als Voraussetzung für Preisdis-
kriminierung betrachtet, ist es zunächst unerheblich, wie er allgemein und im Ein-
zelfall zustande kommt. Für den Anbieter kommt es nur auf die Höhe an– und da-
rauf, diese möglichst präzise erkennen zu können. Der Reservationspreis wird im
Rahmen von ökonomischen Untersuchungen in der Regel als xes Datum behan-
delt. Das Gesagte zeigt aber, dass Anbieter auf ihn durchaus Einuss nehmen kön-
nen: Eine Beeinussung, eventuell Manipulation des Kunden mittels Einwirken auf
seine Vorstellungen kann diesen zu einer Zahlungsbereitschaft verleiten, die eigent-
lich nicht von seinen Präferenzen gedeckt ist.54
50 Siehe dazu umfassend Della Vigna/Malmendier, Amer. Econ. Rev. 96 (2006), 694ff.
51 Bar-Gill, U.Chi. L.Rev. 86 (2019), 217, 229.
52 Ezrachi/Stucke, Virtual Competition, 2016, S.97.
53 Organisation for Economic Co-operation and Development (OECD), Price Discrimination,
2016, S.9.
54 Bar-Gill, U.Chi. L.Rev. 86 (2019), 217, 229f. Siehe dazu auch Botta/Wiedemann, Eur. J.Law.
Econ. 50 (2020), 381, 384f.
Kapitel 6: Preisdiskriminierung
93
III.Arten von Preisdiskriminierung
Seit den Ausführungen von Pigou werden in der Ökonomie drei verschiedene Grade
von Preisdiskriminierung unterschieden.55 Auch die vorliegende Arbeit orientiert
sich an dieser Einteilung. Sie ist neutral und beschreibend. Ihr wohnt weder eine
Wertung noch eine Aussage über die jeweilige rechtliche Zulässigkeit oder Fragen
der Verteilungsgerechtigkeit inne. Nicht alle Formen von Preisdiskriminierung las-
sen sich eindeutig in die im Folgenden dargestellte Klassizierung einordnen, zu-
mal sehr häug Mischformen vorkommen.56 Auch ist in vielen Fällen nicht klar
bestimmbar, ob überhaupt Preisdiskriminierung vorliegt oder ob ein bestimmter
Preis das Ergebnis dynamischer Preisfestsetzung ist (sog. Dynamic Pricing).57 Im
letztgenannten Fall ist der sinkende oder steigende Preis bloßer Ausdruck von An-
gebot und Nachfrage und stellt damit gerade keine Preisdiskriminierung angesichts
verschiedener Käufer oder Käufergruppen dar.58 Diese Art von dynamischer Preis-
setzung wird häug in Echtzeit umgesetzt, womit eine Abgrenzung von Preisdiskri-
minierung in der Praxis oftmals schwierig ist.
Bereits an dieser Stelle werden erste Einschätzungen getroffen, welche Rolle
das Datenschutzrecht spielt, wenn Anbieter Preisdiskriminierung betreiben. Für
diesen Zweck ist der Blick auf die Grundprinzipien, die sich aus der von Pigou
vorgenommenen Einteilung ergeben, sehr nützlich, auch wenn ihnen eine gewisse
Verallgemeinerung innewohnt. Es wird im Folgenden aus Gründen der Einfach-
heit unterstellt, dass der Anbieter zugleich der datenschutzrechtlich Verantwortli-
che gem. Art.4 Nr.7 DSGVO ist. Zudem wird die betroffene Person i.S.d. Art.4
Nr.1 DSGVO als Kunde bezeichnet. Gemeint ist damit ein tatsächlicher Käufer
bzw. ein Kaunteressent einer vom Anbieter online angebotenen Ware oder
Dienstleistung.
55 Pigou, The Economics of Welfare, 31929, S.278f.
56 Vgl. Varian, in: Schmalensee/Willig (Hrsg.), Handbook of Industrial Organization, 1989,
S.597, 600.
57 Ezrachi/Stucke, Virtual Competition, 2016, S.87f.
58 Obergfell, ZLR 2017, 290, 292; Organisation for Economic Co-operation and Development
(OECD), Personalised Pricing in the Digital Era, 2018, S.9; Paal, GRUR 2019, 43. Vgl. dazu auch
Europäische Kommission, Leitlinien zur Umsetzung/Anwendung der Richtlinie 2005/29/EG über
unlautere Geschäftspraktiken, 2016, S.165 und Schleusener, in: Stüber/Hudetz (Hrsg.), Praxis der
Personalisierung im Handel, 2017, S.71, 76. Auch das konkrete Wettbewerbsumfeld und die be-
stehende Kapazitätsauslastung spielen hier eine Rolle, vgl. Zurth, AcP 221 (2021), 514, 516.
III.Arten von Preisdiskriminierung
94
1. Preisdiskriminierung 1. Grades
a. Denition
Preisdiskriminierung 1. Grades (sog. perfekte Preisdiskriminierung) liegt vor, wenn
der Anbieter von jedem Kunden für ein konkretes Gut bzw. eine konkrete Dienst-
leistung exakt den Reservationspreis verlangen kann.59 Neben den bereits beschrie-
benen, allgemeinen Voraussetzungen ist es also notwendig, dass der Anbieter ge-
naue Kenntnis über die Präferenzen des Kunden hat. Preisdiskriminierung 1. Grades
ist (nahezu) immer ein rein hypothetisches Modell, da es kaum möglich ist, den
Reservationspreis des Einzelnen eindeutig zu bestimmen.60
Praktische Fälle von Preisdiskriminierung 1. Grades sind dementsprechend äußerst
rar.61 Ein Beispiel, welches dem Konzept eines individuell „maßgeschneiderten“ Preises
zumindest nahe kommt, sind Studiengebühren für private Universitäten in den USA.Da-
bei ist es nicht unüblich, dass Studienplatzbewerber (und ihre Eltern) den Hochschulen
gegenüber ihre nanzielle Lage detailliert offenlegen. Diese und andere Kriterien– wie
z.B. das zu erwartende spätere Einkommen des Bewerbers oder sein Abschneiden in
einem Eignungstest– werden herangezogen, um die regulären Studiengebühren mittels
der Vergabe von Stipendien, individuellen Nachlässen etc. an die Zahlungsfähigkeit bzw.
Zahlungswilligkeit des Bewerbers anzupassen und ggf. abzusenken.62 Diese Art der
Preissetzung ist nicht immer „perfekt“, da es auch Bewerber gibt, die bereit wären, mehr
als diesen errechneten Preis zu bezahlen.63
Auch wenn Proling und verwandte Methoden dem Anbieter bei Vorliegen von aus-
reichend Datenmaterial gewisse Erkenntnisse über die Zahlungsbereitschaft eines Kun-
den vermitteln können, handelt es sich letztlich meistens nur um eine ungefähre Annä-
herung an den Reservationspreis.64 Dies kommt daher, dass nach momentanem Stand
der Technik in der Regel nur grob zwischen verschiedenen Käufergruppen mit jeweils
unterschiedlicher Zahlungsbereitschaft unterschieden werden kann.
59 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 351; Motta, Competition Policy,
2004, S.492; Varian, Intermediate Microeconomics, 92014, S.480.
60 European Commission, Consumer Market Study on Online Market Segmentation through perso-
nalised Pricing/Offers in the European Union, 2018, S.34; Paal, GRUR 2019, 43, 48; Varian, In-
termediate Microeconomics, 92014, S. 482; Zuiderveen Borgesius/Poort, J Consum Policy 40
(2017), 347, 351. Vgl. dazu auch Shiller, First-Degree Price Discrimination using Big Data,
2014, S.1.
61 Varian, Intermediate Microeconomics, 92014, S.482f.
62 Ezrachi/Stucke, Virtual Competition, 2016, S.86; Organisation for Economic Co-operation and
Development (OECD), Price Discrimination, 2016, S.7. Vgl. zu den ökonomischen Auswirkungen
dieser Preissetzungsmethoden instruktiv Waldfogel, The Journal of Industrial Economics
63 (2015), 569ff.
63 Ezrachi/Stucke, Virtual Competition, 2016, S.86 und Organisation for Economic Co-operation
and Development (OECD), Price Discrimination, 2016, S.7 sprechen deshalb beide von „near
perfect price discrimination“.
64 Maggiolino, Bocconi Legal Studies Research Paper No. 2984840 2017, 1, 5.
Kapitel 6: Preisdiskriminierung
95
b. Datenschutzrechtliche Relevanz
Aus datenschutzrechtlicher Sicht ist für Preisdiskriminierung 1. Grades der Um-
stand prägend, dass der Anbieter– die technische Machbarkeit der Berechnung des
Reservationspreises unterstellt– zwingend personenbezogene Daten des Kunden
verarbeiten muss. Konzeptionell ist sie ohne Informationen über den individuellen
Kunden nicht durchführbar, denn der Preis wird ja gerade an ihn als Individuum
angepasst. Die Informationen, aus denen sich der Reservationspreis ergibt, müssen
sich also zwingend „auf eine identizierte oder identizierbare natürliche Per-
son“65 beziehen und sind mithin personenbezogene Daten. Es ist hierbei unerheb-
lich, mit welcher Methode der Reservationspreis genau bestimmt wird. Spätestens
in dem Moment, wenn einem konkreten Kaunteressenten ein individualisierter
Preis zugewiesen und angeboten wird, ist der Anwendungsbereich der Datenschutz-
Grundverordnung gem. Art.2 I DSGVO eröffnet.66
2. Preisdiskriminierung 2. Grades
a. Denition
Preisdiskriminierung 2. Grades bedeutet, dass der Preis nicht von der Person des
Kunden und dessen Eigenschaften abhängig gemacht wird, sondern davon, wie
viele Einheiten des Produkts er kauft.67 Der klassische Fall ist der, dass der Stück-
preis für ein Gut bei steigender Abnahmemenge sinkt (Mengenrabatt), weshalb
auch von nicht-linearer Preissetzung gesprochen wird. Kaufen verschiedene Kun-
den die gleiche Menge des Gutes, so zahlen sie jeweils den gleichen Preis; kaufen
sie verschiedene Mengen des Gutes, kann der Stückpreis variieren. Der im Wesent-
lichen gleiche Effekt tritt bei sog. zweiteiligen Tarifen auf. Von solchen spricht man,
wenn jeder Kunde einen xen Grundpreis zahlt, zu dem je nach individuellem Kon-
sum weitere, variable Kosten hinzukommen, wie es etwa bei Telefontarifen teil-
weise der Fall ist. Mit steigendem Konsum wird der Stückpreis des konsumierten
Guts– wie auch beim klassischen Mengenrabatt– immer niedriger.68
Preisdiskriminierung 2. Grades ist aber nicht notwendig rein quantitativer Natur.
Auch das bereits beschriebene Versioning, also das Anbieten des im Kern gleichen
Produkts in qualitativ unterschiedlichen Ausführungen, wird unter diesen Begriff
65 Art.4 Nr.1 DSGVO.
66 Vgl. ausführlich dazu Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 356–358
und unten Kap.11, I. 1. a. dd.
67 Dies., J Consum Policy 40 (2017), 347, 351f.; Motta, Competition Policy, 2004, S.494; Varian,
Intermediate Microeconomics, 92014, S.483.
68 Motta, Competition Policy, 2004, S.494f.; Organisation for Economic Co-operation and De-
velopment (OECD), Price Discrimination, 2016, S.7.
III.Arten von Preisdiskriminierung
96
subsumiert.69 Ökonomisch betrachtet ist Versioning vergleichbar mit dem Gewäh-
ren von Mengenrabatt.70 Der Kunde selbst trifft die Entscheidung, welchen Preis er
zahlt, indem er die für ihn passende Qualitätsstufe kauft. Er wählt „seinen“ Preis aus
den ihm vorliegenden Optionen selber aus. Es geht dem Anbieter darum, durch das
Bereitstellen verschiedener Angebote die Kunden nach ihrer Zahlungsbereitschaft zu
sortieren: Kunden mit hoher Zahlungsbereitschaft sollen dazu gebracht werden, die hö-
herwertigen Produkte zu kaufen; Kunden mit niedriger Zahlungsbereitschaft sollen
dazu gebracht werden, die qualitativ weniger hochwertigen Produkte zu kaufen.
Auf diese Weise versuchen z. B. Fluggesellschaften, zwischen privat und ge-
schäftlich reisenden Passagieren zu differenzieren und die Preise für Flugtickets an
die Zahlungsbereitschaft bestimmter Kundengruppen anzupassen.71 Diese Art von
Gewinnmaximierung wird auch als Yield Management bezeichnet. Es werden dabei
ganz verschiedene Methoden kombiniert verwendet,72 von denen sich einige unter
den Begriff der Preisdiskriminierung 2. Grades subsumieren lassen. So richten sich
Flugtickets, bei denen Hin- und Rückug unter der Woche stattnden, eher an Ge-
schäftsleute und sind im Schnitt dementsprechend deutlich teurer als Flüge über das
Wochenende, welche eher von privat Reisenden (z.B.Touristen) gekauft werden,
die in der Regel eine niedrigere Zahlungsbereitschaft aufweisen.73 Es handelt sich
dabei nicht um Preisdiskriminierung 1. Grades, denn der Reservationspreis des Ein-
zelnen ist der Fluggesellschaft nicht bekannt. Stattdessen wählt jeder Reisende „sei-
nen“ Preis selber aus, indem er sich für einen konkreten Flug entscheidet. Nicht
immer, aber im Durchschnittsfall wird die Fluggesellschaft so von den Geschäfts-
leuten einen höheren Preis als von den privat Reisenden verlangen können. Aus
demselben Grund spielt es für den Preis des Tickets typischerweise eine Rolle, wie
lange im Vorhinein es gekauft wird.74 Je kurzfristiger die Buchung erfolgt, desto
wahrscheinlicher ist es, dass es sich um einen weniger preissensitiven Käufer, wie
etwa einen geschäftlich Reisenden, handelt. Gerade der letztgenannte Aspekt (stei-
69 Varian, Intermediate Microeconomics, 92014, S.485. Zum Begriff Versioning siehe auch The
White House, Big Data and Differential Pricing, 2015, S.5.
70 Varian, Intermediate Microeconomics, 92014, S.485.
71 Ders., Intermediate Microeconomics, 92014, S.485.
72 Ezrachi/Stucke, Virtual Competition, 2016, S.87.
73 Motta, Competition Policy, 2004, S.494 Fn. 112; Varian, Intermediate Microeconomics, 92014,
S.485f.
74 In der Regel setzen Fluggesellschaften bei jedem angebotenen Flug für jede Buchungsklasse
interne Ticket-Kontingente fest, die jeweils eine xe Anzahl Tickets zu einem bestimmten Preis
enthalten. Sobald ein Kontingent ausverkauft ist und das nächste in den Verkauf geht, steigt der
Preis. Dies führt zu dem Effekt, dass der Ticketpreis in der Regel ansteigt, je näher das Abugda-
tum rückt. Der Preis hängt darüber hinaus aber auch noch von zahlreichen anderen Faktoren ab,
wie z.B.Ferien- und Messeterminen sowie historischen Flugdaten über die Auslastung bestimm-
ter Strecken zu bestimmten Daten. Erfahrungswerte aus der Vergangenheit werden zudem laufend
mit dem Ticketverkauf abgeglichen, um ggf. die für einen bestimmten Flug verlangten Preise nach
oben oder unten zu korrigieren. Diese Verfahren laufen nicht nur automatisiert ab. Menschliche
Entscheider überwachen den Ticketverkauf und greifen regelmäßig korrigierend ein, z.B. um ak-
tuelle politische Ereignisse, welche Auswirkungen auf die Nachfrage nach Flugtickets haben, be-
rücksichtigen zu können (siehe dazu umfassend Hecking, Die Zeit 21.07.2016).
Kapitel 6: Preisdiskriminierung
97
gende Preise bei näherrückendem Abugdatum) ist zugleich Ausdruck von sog. dy-
namischer Preisfestsetzung (Dynamic Pricing), also des Zusammenspiels von Angebot
und Nachfrage: Je weniger Tickets noch verfügbar sind, desto teurer werden sie.75
Diese Arten von Preisdifferenzierung führen dazu, dass Passagiere im selben
Flieger in der gleichen Buchungsklasse unterschiedliche Preise für ihr Ticket ge-
zahlt haben, obwohl die Kosten der Fluggesellschaft für den Transport jeweils
gleich groß sind. Die verschiedenen angebotenen Buchungsklassen („Economy“,
„Business“ etc.) sind zudem typisch für Versioning als Variante von Preisdiskrimi-
nierung 2. Grades. Das im Kern gleiche Produkt wird qualitativ in verschiedenen
Varianten angeboten: Reisende in der Business Class erhalten im Vergleich zu de-
nen in der Economy Class verschiedene Arten von Annehmlichkeiten, zahlen dafür
aber überproportional mehr.76 Qualitative Preisdiskriminierung liegt auch dann vor,
wenn ein Flugticket dahingehend exibel ist, dass der Flug umgebucht werden kann.
An den aufgeführten Beispielen zeigt sich, dass der für Preisdiskriminierung 2.
Grades wesentliche Grundsatz der Selbstselektion sich auf verschiedene Aspekte
des Produktes beziehen kann (quantitative, qualitative, zeitliche etc.). Allen genann-
ten Beispielen ist zudem gemein, dass die Höhe der verlangten Preise nicht davon
abhängig gemacht wird, wer im Einzelfall tatsächlich das Ticket bucht: Auch ein
Geschäftsreisender zahlt den günstigeren „Touristentarif“, wenn die Geschäftsreise
sich über ein Wochenende erstreckt, und auch ein Tourist mag bereit sein, den hö-
heren Preis für kurzfristig gebuchte Tickets oder für solche in der „Business Class“
zu zahlen. Es werden also zwar Gruppen von Passagieren mit unterschiedlicher
Preissensitivität gebildet (Geschäftsleute und privat Reisende) und die Preise dem-
entsprechend gesetzt. Ob die Gruppenzugehörigkeit auch im Einzelfall zu bejahen
ist, weiß die Fluggesellschaft in den genannten Beispielen aber nicht. Hätte sie po-
sitive Kenntnis von der Gruppenzugehörigkeit eines konkreten Kunden und würde
den Preis darauf aufbauend individualisieren, z.B. während des Buchungsvorgangs,
läge Preisdiskriminierung 3. Grades77 vor.
75 Vgl. dazu auch Ofce of Fair Trading, Personalised Pricing, 2013, S.11.
76 Graef, Colum. J. Eur. L. 24 (2018), 541, 544; Varian, Intermediate Microeconomics, 92014,
S.486. Vgl. in diesem Kontext auch die anschaulichen Ausführungen von Jules Dupuit zu den
verschiedenen Buchungsklassen in den französischen Zügen des 19. Jahrhunderts, aus dem Fran-
zösischen übersetzt von Ekelund, Q.J. Econ. 84 (1970), 268, 275: „It is not because of the few
thousand francs which would have to be spent to put a roof over the third-class carriages or to
upholster the third-class seats that some company or other has open carriages with wooden ben-
ches. … What the company is trying to do is to prevent the passengers who can pay the second-class
fare from traveling third class; it hits the poor, not because it wants to hurt them, but to frighten the
rich. … And it is again for the same reason that the companies, having proved almost cruel to
third-class passengers and mean to second-class ones, become lavish in dealing with rst-class
passengers. Having refused the poor what is necessary, they give the rich what is superuous.“
77 Siehe dazu unten Kap.6, III. 3.
III.Arten von Preisdiskriminierung
98
b. Datenschutzrechtliche Relevanz
Um Preisdiskriminierung 2. Grades zu betreiben, müssen dem Anbieter von ihrer
Grundkonzeption her keine Informationen über den jeweiligen Kunden vorliegen. Da
dieser „seinen“ Preis selber auswählt (sog. Selbstselektion), ist diese Vorgehensweise
datenschutzrechtlich grundsätzlich neutral. Der Preis wird nicht an den Kunden ange-
passt; die Kunden sind aus Sicht des Anbieters austauschbar, ohne dass dies die Preis-
gestaltung beeinussen würde. Es handelt sich damit um eine „indirekte“ Form der
Diskriminierung.78 Hier zeigt sich ein wesentlicher Unterschied zu den Fällen von
Preisdiskriminierung 1. und 3. Grades. Bei diesen ist es möglich, dass der Kunde den
Preissetzungsmechanismus des Anbieters (selber oder mit technischen Hilfsmitteln)
durchschaut und dahingehend zu seinem Vorteil nutzt, dass er eine niedrigere Zah-
lungsbereitschaft vorgibt, als bei ihm eigentlich besteht.79 Dies ist nur möglich, weil
der Preis an den konkreten Käufer angepasst wird. Bei Preisdiskriminierung 2. Grades
ist eine derartige Täuschung des Anbieters nicht möglich. Die Preise werden von ihm
abstrakt vorgegeben. Dies macht ihn unabhängig davon, ob er Zugriff auf personen-
bezogene Daten über seine Kunden hat oder nicht. Zugleich kann ein Anbieter durch-
aus damit werben, dass er sich besonders „datensparsam“ verhält und von Personali-
sierung jedweder Art absieht. Mit Blick auf diejenigen Kunden, die gesteigerten Wert
auf Datenschutz und den Schutz ihrer Privatsphäre allgemein legen, dürfte diese Aus-
sage durchaus einen Wettbewerbsvorteil darstellen. Aus Sicht des Anbieters stellt sich
letztlich die Frage, welches Geschäftsmodell für ihn lukrativer ist: Das werbewirksam
„datensparsame“ oder dasjenige, welches im größtmöglichen Umfang von Personali-
sierung Gebrauch macht und dementsprechend auf anderen Wegen den Umsatz
steigert.
Die eben beschriebene „Unabhängigkeit“ vom Zugang zu personenbezogenen
Daten gilt zum einen gegenüber den Kunden. Zugleich besteht sie gegenüber Wett-
bewerbern: Umfassender Zugang zu personenbezogenen Kundendaten bringt im
Rahmen von Preisdiskriminierung 2.Grades keinen unmittelbaren Wettbewerbs-
vorteil. Allerdings benötigt der Anbieter Daten auch bei Preisdiskriminierung
2. Grades: Er muss zwar nicht wissen, welche Eigenschaften ein konkreter Käufer
hat oder welche Gruppenzugehörigkeit er aufweist. Dennoch ist er darauf angewie-
sen, die Marktgegenseite dahingehend zu kennen, dass er sein Angebot auf be-
stimmte Käufergruppen zuschneiden kann. Personenbezogene Daten i.S.d. Art.4
Nr.1 DSGVO sind dafür grundsätzlich nicht notwendig, wohl aber abstrakte (ggf.
anonymisierte) Vergleichsdaten nach dem Verständnis des hier verwendeten Modells.80
Die grundsätzlich festgestellte datenschutzrechtliche Neutralität von Preisdiskrimi-
nierung 2.Grades gilt allerdings nicht ausnahmslos. So sind etwa bestimmte Fälle des
Versionings durchaus datenschutzrechtlich relevant. In der Digitalökonomie gibt es eine
erkennbare Tendenz zu einer stärkeren Personalisierung von Produkten und Dienstleis-
78 Organisation for Economic Co-operation and Development (OECD), Personalised Pricing in the
Digital Era, 2018, S.9.
79 Varian, Intermediate Microeconomics, 92014, S.483.
80 Siehe oben Kap.3, II. 1.
Kapitel 6: Preisdiskriminierung
99
tungen. Um ein Produkt für einen konkreten Kunden zu personalisieren, ist die Verarbei-
tung personenbezogener Daten notwendig. Dies kann, je nach Fallgestaltung, durchaus
als spezielle, singuläre– also kundenbezogene– Form der qualitativen Produktvariation
(Versioning) beschrieben werden.81 Der Anbieter passt sowohl den Preis als auch das
Produkt mithilfe der Verarbeitung personenbezogener Daten an. Diese Situation ist be-
sonders: Das für Preisdiskriminierung 2.Grades typische „passive“ Reagieren der An-
bieter-Seite auf die Präferenzen der Nachfragerseite nimmt in diesen Fällen eine andere
Gestalt an. Das Angebot wird nicht mehr nur abstrakt an die Bedürfnisse der Marktge-
genseite angepasst, sondern zugleich für den einzelnen Kunden personalisiert. Sofern
der Anbieter den Preis dabei (auch) in Abhängigkeit von der Zahlungsbereitschaft des
konkreten Kunden bestimmt oder anderweitig personenbezogene Daten verarbeitet, be-
steht datenschutzrechtliche Relevanz.
3. Preisdiskriminierung 3. Grades
a. Denition
Preisdiskriminierung 3. Grades ist die in der Praxis wohl am meisten verbreitete
Form differenzierter Preise. Sie liegt vor, wenn verschiedene Gruppen von Kunden
für das gleiche Gut bzw. die gleiche Dienstleistung verschiedene Preise zahlen
(„Gruppenpreise“).82 Dabei zahlt jedes Gruppenmitglied den gleichen Preis, unab-
hängig von der Anzahl der gekauften Einheiten.83 Die gemeinsamen Eigenschaften
der Gruppenmitglieder stehen im Vordergrund.84 Der im Einzelfall verlangte Preis
ergibt sich aus der Gruppenzugehörigkeit und wird dem konkreten Kunden vom
Anbieter dementsprechend „zugewiesen“. Die Zugehörigkeit zu einer solchen
Gruppe kann auch vorübergehender Natur sein.85 Der Kunde sucht sich also– im
Gegensatz zu Preisdiskriminierung 2. Grades– „seinen“ Preis nicht aus. Der indivi-
81 Vgl. dazu Organisation for Economic Co-operation and Development (OECD), Personalised
Pricing in the Digital Era, 2018, S.8: „In digital markets where offers tend to be highly customised,
it is also plausible that rms tailor both prices and products to consumers, resulting in a very
granular second-degree price discrimination (or ‘versioning’).“
82 European Commission, Consumer Market Study on Online Market Segmentation through perso-
nalised Pricing/Offers in the European Union, 2018, S.34. Nach dem Verständnis der hiesigen
Denition geht es genauer formuliert darum, ob die Gruppenmitglieder für ein ähnliches, also
vergleichbares Gut bzw. Dienstleistung Preise zahlen, bei denen eine unterschiedliche Relation
zwischen Kosten und Gewinn besteht. Vgl. oben Kap.6, I. 2.
83 Varian, Intermediate Microeconomics, 92014, S.487; ders., in: Schmalensee/Willig (Hrsg.),
Handbook of Industrial Organization, 1989, S.597, 617. Eine Kombination dieses Vorgehens mit
Mengenrabatt (Preisdiskriminierung 2. Grades) ist häug anzutreffen.
84 European Commission, Consumer Market Study on Online Market Segmentation through perso-
nalised Pricing/Offers in the European Union, 2018, S.34.
85 Organisation for Economic Co-operation and Development (OECD), Price Discrimination,
2016, S.7.
III.Arten von Preisdiskriminierung
100
duelle Preis ist stattdessen von der Gruppenzugehörigkeit vorherbestimmt, was frei-
lich voraussetzt, dass der Anbieter diese erkennen kann.86
Es geht auch hier darum, den Markt zu segmentieren und verschiedene Nachfra-
gegruppen zu unterscheiden. Je preissensitiver das durchschnittliche Gruppenmit-
glied ist, desto niedriger ist der verlangte Preis. Anders formuliert führt eine grup-
penspezisch höhere Preiselastizität zu niedrigeren Preisen für die betroffenen
Gruppenmitglieder.87 Typisches Beispiel sind Studenten- und Seniorenrabatte sowie
verschiedene Preise für Käufer mit Wohnsitz in verschiedenen Ländern.88 Derlei
Gruppenpreise basieren konzeptionell auf Pauschalisierungen, die sich zum einen
aus ökonomischen Erkenntnissen und Erfahrungen, häug aber auch aus Fairness-
Gesichtspunkten ergeben. Es wird z.B. pauschal davon ausgegangen, dass Studen-
ten und Senioren weniger einkommensstark sind als Arbeitnehmer, weshalb von
einer höheren Preissensitivität ausgegangen und ihnen ein Rabatt beispielsweise im
Theater oder im Kino eingeräumt wird.89 Eine Diskriminierung nach Wohnsitz des
Kunden90 basiert auf den unterschiedlichen Pro-Kopf-Einkommen verschiedener
Länder und unterstellt, dass der durchschnittliche Wohnsitzinhaber je nach Land
eine unterschiedliche Kaufkraft und damit einhergehende Zahlungsbereitschaft auf-
weist.91 Diese Annahmen sind ihrer Natur nach manchmal unzutreffend. So gibt es
wohlhabende Studenten, die den Rabatt eigentlich nicht bräuchten, sowie wohlha-
bende Bürger in ärmeren Ländern und arme Bürger in reicheren Ländern, deren
Pro-Kopf-Einkommen nicht dem Landesdurchschnitt entspricht. Je gröber und
pauschaler die Gruppen bestimmt werden, desto weiter entfernt sich im Durch-
schnitt der verlangte Preis vom Reservationspreis der einzelnen Kunden.
Die hier genannten Beispiele (Studentenrabatte etc.) sind typisch für Preisdiskrimi-
nierung 3.Grades und in den allgemein bekannten Formen durchaus auch gesellschaft-
lich akzeptiert. Wie sie zustande kommen, ist für Kunden und andere Marktteilnehmer
leicht nachvollziehbar, vor allem wenn ihnen neben der ökonomischen auch eine soziale
Komponente innewohnt. Diese Transparenz schafft Akzeptanz bei den Kunden.92 Die
86 Vgl. European Commission, Consumer Market Study on Online Market Segmentation through
personalised Pricing/Offers in the European Union, 2018, S. 34; Organisation for Economic
Co-operation and Development (OECD), Price Discrimination, 2016, S.7.
87 Vgl. Varian, Intermediate Microeconomics, 92014, S.488; ders., in: Schmalensee/Willig (Hrsg.),
Handbook of Industrial Organization, 1989, S.597, 618.
88 European Commission, Consumer Market Study on Online Market Segmentation through perso-
nalised Pricing/Offers in the European Union, 2018, S. 34; Organisation for Economic Co-
operation and Development (OECD), Price Discrimination, 2016, S.7.
89 Ezrachi/Stucke, Virtual Competition, 2016, S. 86. Diesen Rabatten wohnen auch eine soziale
Komponente und eine der Kulturförderung inne.
90 Vgl. dazu Wojtal, Shopping ohne Grenzen?, 2015, S.82, wonach eine Diskriminierung aufgrund
der Staatsangehörigkeit zumindest im Dienstleistungsbereich sehr selten ist. Stattdessen wird auf
den (zumeist anhand der IP-Adresse bestimmten und damit nur vermuteten) Wohnsitz des Betrof-
fenen abgestellt.
91 Dies., Shopping ohne Grenzen?, 2015, S.57f.
92 Townley/Morrison/Yeung, YEL 36 (2017), 683, 704. Vgl. auch Maggiolino, Bocconi Legal Stu-
dies Research Paper No. 2984840 2017, 1, 12.
Kapitel 6: Preisdiskriminierung
101
konkrete Ausgestaltung von Preisdiskriminierung 3.Grades kann aber auch deutlich
komplexere und undurchsichtigere Formen annehmen. Die preisrelevanten Gruppen
können auch sehr fein gegliedert und speziell sein. Sie können sich überlappen und mit
Blick auf die im Rahmen der Preissetzung berücksichtigten Faktoren, also vor allem die
Eigenschaften der Gruppenmitglieder, ein theoretisch unbegrenztes Maß an Komplexi-
tät annehmen. Dies gilt vor allem, wenn die Gruppenbildung ausschließlich nach öko-
nomischen Kriterien erfolgt, also grundsätzlich in Abhängigkeit von der Zahlungsfähig-
keit und Preiselastizität der Gruppenmitglieder. Daraus folgt auch, dass die relevanten
„Kundengruppen“ sich dem unbefangenen Betrachter nicht unbedingt von selbst er-
schließen müssen. Der soziale Aspekt von Preisdiskriminierung tritt zudem bei einer
rein ökonomischen Betrachtungsweise völlig zurück, wenn auch die Preissensitivität
der Gruppenmitglieder häug mit sozialem Status, Alter etc. korrelieren wird.93
b. Datenschutzrechtliche Relevanz
Aus Sicht des Datenschutzrechts ergeben sich hieraus mehrere Konsequenzen. Zu-
nächst spielt die Quelle der Informationen eine Rolle, also wie genau der Anbieter
von der Gruppenzugehörigkeit erfährt und dieses Wissen nutzt, um den „richtigen“
Gruppenpreis zu verlangen. Hilfreich ist in diesem Kontext die von Zuiderveen Bor-
gesius und Poort beschriebene Kategorisierung von drei Arten der Informationsbe-
schaffung, die sich Anbieter zu Nutze machen können: Aktive Mitteilung der Daten
vom Kunden selbst (Kategorie 1), eigene Erhebung der Daten (Kategorie 2), Erhe-
bung der Daten durch bzw. mithilfe von Dritten (Kategorie 3).94 Diese Methoden
kommen häug kombiniert zum Einsatz.
Die erste Kategorie erfasst diejenigen Fälle, bei denen der Kunde die notwendi-
gen Informationen bewusst und freiwillig dem Anbieter gegenüber preisgibt. Dies
ist die typische Vorgehensweise bei den weit verbreiteten Gruppenrabatten, wie
z.B. beim Studentenrabatt. Die Preisgabe des notwendigen personenbezogenen Da-
tums (in diesem Fall das Bestehen des Studentenstatus) wird dem Betroffenen frei-
gestellt. Er wählt selber aktiv seine Preisgruppe aus, indem er seine Gruppenzuge-
hörigkeit mitteilt oder die Angaben etwa in einem Nutzerprol bzw. Kundenkonto
angibt. Für den Anbieter ist es meistens zudem recht einfach, die getroffene Angabe
zu verizieren.95 Ihm kommt es insofern zu Gute, dass Preisdiskriminierung 3.Gra-
des anhand objektiv feststellbarer Kriterien durchgeführt wird. Mit Blick auf das
93 Vgl. dazu auch Varian, Intermediate Microeconomics, 92014, S.488.
94 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 350. Eine ganz ähnliche Eintei-
lung nimmt das Ofce of Fair Trading, Personalised Pricing, 2013, S.12 vor. Dieses unterscheidet
bezüglich der Herkunft der Daten zwischen „volunteered“ (entspricht Kategorie 1), „observed“
(entspricht Kategorie 2) und „collected“ (Hier wird nicht explizit auf das Sammeln durch Dritte
abgestellt. Die genannten Beispiele sowie der Bezug auf den Einsatz von Cookies legen ein sol-
ches aber nahe.).
95 In der Praxis geschieht dies durch Übersendung einer Immatrikulationsbescheinigung oder
durch die zwingende Verwendung einer E-Mail-Adresse, die die Zugehörigkeit zu einer Universi-
tät/Hochschule voraussetzt.
III.Arten von Preisdiskriminierung
102
Leitbild der informationellen Selbstbestimmung ist diese Vorgehensweise durchaus
positiv zu bewerten: Der Kunde gibt die notwendige Information freiwillig und in
Kenntnis der Konsequenzen preis. Er behält insofern die Kontrolle über die sich auf
ihn beziehenden personenbezogenen Daten und kann sich (in gewissen Grenzen)
auch dafür entscheiden, Informationen zurückzuhalten. Jedem Betroffenen steht es
damit frei, „grundsätzlich selbst über die Preisgabe und Verwendung seiner persön-
lichen Daten zu bestimmen.“96
In der zweiten Kategorie werden die notwendigen personenbezogenen Daten vom
Anbieter online gesammelt, ohne dass der Kunde sich unbedingt dieses Umstands be-
wusst ist und dies möchte.97 Ein Anbieter, der Preisdiskriminierung z.B. aufgrund des
Wohnsitzes betreiben möchte, bedient sich dafür in der Regel der IP-Adresse des Kun-
den. Diese gibt nämlich Auskunft über den (ungefähren) Standort des vom Kunden
verwendeten Endgeräts und ist ohne Weiteres vom Anbieter erfassbar.98 Auf dem End-
gerät gespeicherte Cookies oder Beacons dienen zudem u.a. dazu, das Surfverhalten des
Kunden zu beobachten und auszuwerten.99 Die datenschutzrechtliche Schlüsselfrage ist
hier, ob (bzw.: ab wann) die vom Anbieter gesammelten Informationen es erlauben, auf
die Identität des Kunden zu schließen, ob also personenbezogene Daten verarbeitet wer-
den i.S.d. Art.2 I, 4 Nr.1 DSGVO.Nach hier vertretener Ansicht ist dies bereits in dem
Moment der Fall, wenn der Anbieter erstmalig Daten zum Zwecke der Preispersonali-
sierung erhebt.100 Sobald personenbezogene Daten zur Preissetzung verwendet werden,
muss eine Rechtsgrundlage gem. Art.6 I DSGVO für die Datenverarbeitung vorliegen.
Die dritte Kategorie ist eng mit der zweiten verwandt. Sie umfasst die Fälle, in
denen Daten über den Kunden von Dritten gesammelt und zusammengeführt wer-
den, ohne dass dies dem Nutzer unbedingt bewusst ist. So können sog. Afliated Ad
Networks oder Afliated Websites das Surfverhalten einzelner Nutzer anhand von
Cookies nachvollziehen und auf diese Weise verschiedene Arten von Informationen
sammeln und zusammenführen.101 Die drohende Beeinträchtigung der informatio-
nellen Selbstbestimmung ist der Natur nach ähnlich wie beim zuvor beschriebenen
Datensammeln durch den Anbieter (Kategorie 2): Auch hier werden Daten über den
Kunden gesammelt, um daraus für den Anbieter nutzbare Erkenntnisse abzuleiten.
Durch den größeren Umfang der Datensammlung steigt potenziell die Gefahr für
die informationelle Selbstbestimmung des Einzelnen. Dieser wird „durchschauba-
rer“, was gerade auch für Preisdiskriminierung genutzt werden kann.
96 So die „klassische“ Formulierung des BVerfG, NJW 1984, 419, 422 (Volkszählungsurteil).
97 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 350.
98 Dies., J Consum Policy 40 (2017), 347, 350. Die IP-Adresse ist freilich nur ein Anhaltspunkt für
den Wohnsitz des Betroffenen. So ist es diesem z.B. ohne Weiteres möglich, mithilfe eines Proxy-
Servers eine andere Länderkennung vorzutäuschen.
99 Zu den technischen Hintergründen vgl. Competition and Markets Authority (CMA), The Com-
mercial Use of Consumer Data, 2015, S.36f.
100 Siehe dazu ausführlich unten Kap.11, I. 1. a. dd.
101 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 350.
Kapitel 6: Preisdiskriminierung
103
4. Gemeinsamkeiten, Unterschiede und datenschutzrechtliche
Überlegungen
Die hier behandelten Arten von Preisdiskriminierung weisen Gemeinsamkeiten und
Unterschiede auf. Allen ist gemein, dass sie vom Anbieter typischerweise eingesetzt
werden, um Konsumentenrente abzugreifen und so den eigenen Gewinn zu steigern.
In gewissen Konstellationen kommen zudem soziale Erwägungen hinzu (z.B. be-
sonders günstige Preise für Theaterbesuche von Schulklassen), welche allerdings
im Online-Handel in der Regel keine Rolle spielen und deshalb im Folgenden nicht
weitergehend behandelt werden.
Im Rahmen der eigentlichen Preisbestimmung stellt bei Preisdiskriminierung 1. und
3. Grades der Kunde den Bezugspunkt für die Preissetzung dar: Sofern die übrigen Vo-
raussetzungen für das Setzen individualisierter Preise vorliegen, hängt es maßgeblich
von seinen individuellen Eigenschaften (Preisdiskriminierung 1. Grades) bzw. von sei-
ner Gruppenzugehörigkeit (Preisdiskriminierung 3. Grades) ab, welcher Preis verlangt
wird. Daher muss ein Informationsuss bestehen, der dem Anbieter diese Preisfestset-
zung erlaubt: Er benötigt zwingend gewisse relevante Informationen, die sich auf den
Kunden beziehen. Diese erhält er entweder vom Kunden selbst oder von Dritten.
Der Reservationspreis einzelner Kunden ist eine Eigenschaft, die nicht unmittel-
bar und objektiv festgestellt oder beobachtet werden kann. Bei dahingehenden Da-
tenverarbeitungen handelt es sich um Hochrechnungen, also das Erzeugen neuer
Daten (welche Auskunft über die Zahlungswilligkeit geben) aus den bereits gegebe-
nen.102 Damit geht zwingend die Verarbeitung personenbezogener Daten und mithin
die Anwendbarkeit des Datenschutzrechts einher. Preisdiskriminierung 1.Grades in
ihrer „Reinform“, also die genaue Bestimmung des Reservationspreises, stellt ein
wertvolles Arbeitsmodell dar. Da die dafür nötigen subjektiven, inneren Präferen-
zen und Eigenschaften des Betroffenen aber nicht mit der nötigen Genauigkeit „von
außen“ bestimmt werden können, handelt es sich in der Praxis in nahezu allen Fäl-
len um ein rein hypothetisches Ziel. Anders verhält es sich mit Preisdiskriminierung
3. Grades, welche praktikabel ist und häug zum Einsatz kommt. Erkauft wird diese
Praktikabilität damit, dass die Verwendung von Gruppenpreisen konzeptionell auf
Pauschalisierungen beruht: Die Gruppenzugehörigkeit des Einzelnen wird pauschal
mit einem bestimmten Preis verknüpft. Durch das Abstellen auf objektiv feststell-
bare, äußere Eigenschaften des Kunden, wie z.B. sein Alter, ist Preisdiskriminie-
rung 3. Grades relativ leicht umzusetzen, führt in der Regel aber zu ungenauen Er-
gebnissen. Eine solche grobe Gruppeneinteilung führt zu Preisen, die dem
Reservationspreis des Einzelnen näherkommen als Einheitspreise. Sie stellen aber
eben auch nur Näherungswerte dar. Wenn die im Rahmen von Preisdiskriminierung
3. Grades eingesetzten Gruppen feiner, vielschichtiger und zielgenauer werden,
kann zumindest in der Theorie preislich eine äußerst hohe Präzision erreicht wer-
den– die Gruppen werden spezieller und der Gruppenpreis nähert sich dem Reser-
102 Organisation for Economic Co-operation and Development (OECD), Personalised Pricing in
the Digital Era, 2018, S.11.
III.Arten von Preisdiskriminierung
104
vationspreis seiner Mitglieder immer weiter an. Die Bestimmung der Gruppenzuge-
hörigkeit ist Schlüssel für die Bestimmung des Preises. Ohne Kenntnis über zumindest
eine Eigenschaft des Betroffenen („Alter?“, „Student?“, „Bestandskunde?“ etc.) ist
die Einordnung in die richtige Gruppe unmöglich. Aus diesem Grund werden auch
hier zwingend personenbezogene Daten über den konkreten Kunden verarbeitet und
das Datenschutzrecht ist anwendbar.
Preisdiskriminierung 2. Grades unterscheidet sich in wesentlichen Punkten von
der 1. und 3.Grades. Der Grundsatz der Selbstselektion hat zur Folge, dass es für
den Anbieter egal ist, wer kauft– die Käufer sind austauschbar und zahlen alle den
gleichen Preis, sofern sie im gleichen Zeitpunkt das Gut bzw. die Dienstleistung in
der gleichen Menge, auf der gleichen Qualitätsstufe etc. erwerben. Der Anbieter
muss nichts über den konkreten Käufer wissen, was über die für die Kaufabwick-
lung unbedingt notwendigen Informationen hinausgeht. Preisdiskriminierung
2. Grades hat deshalb keine datenschutzrechtliche Relevanz, sofern sie nicht mit
anderen Arten von Preisdiskriminierung oder sonstigen Preissetzungsmethoden, für
die die Verarbeitung personenbezogener Daten notwendig ist, kombiniert zum Ein-
satz kommt. In der Praxis ist Preisdiskriminierung 2. Grades oftmals die „zweit-
beste“, aber dafür einzig praktikable Wahl des Anbieters: Wenn er im Einzelfall
nicht feststellen kann, wer bei ihm kauft, kann er den Preis nicht individualisieren.
Stattdessen richtet er sein Angebot von vornherein auf verschiedene Gruppen von
Nachfragern aus.103 Er bietet etwa Mengenrabatte oder Preisvorteile bei frühzeiti-
gem Kauf an oder produziert das gleiche bzw. nach hiesiger Denition „ähnliche“
Produkt in verschiedenen qualitativen Ausführungen. Die Käufer offenbaren ihre
Gruppenzugehörigkeit selber, indem sie das für sie passende Produkt auswählen
und kaufen. Im (in der Regel hypothetischen) Idealfall erreicht der Anbieter mit den
verschiedenen Angeboten immer die „richtigen“ Käufer, also diejenigen mit der
passenden Zahlungsbereitschaft. Preisdiskriminierung 2. Grades hat für den Anbie-
ter den Vorteil, dass sie von den Kunden in aller Regel nicht als ungerecht wahrge-
nommen wird, da sie grundsätzlich transparent ist und kein Gefühl der Benachteili-
gung entsteht.104 Auch die datenschutzrechtliche Neutralität ist für Anbieter in der
Praxis durchaus vorteilhaft: Es erwachsen für sie weniger rechtliche Verpichtun-
gen (etwa mit Blick auf datenschutzrechtliche Auskunftsrechte) und Risiken (etwa
mit dem Blick auf Bußgelder, vgl. Art.83 V DSGVO). So führt auch das Ofce of
Fair Trading des Vereinigten Königreichs (seit 2014: Competition and Markets Au-
thority) im Kontext von Online-Preisdiskriminierung aus: „The research and evi-
dence we have collected indicates that businesses are trying to identify different
sorts of customer and segment their customer base into ne groups, rather than
seeking to identify who individuals are. They are very aware of the potential adverse
consumer reaction to actual or perceived invasions of their customers’ privacy“.105
103 Dies gilt auch in den Fällen, in denen der Anbieter zwar personalisieren könnte, davon aber
Abstand nimmt, weil er z.B. negative Auswirkungen auf den Ruf seines Unternehmens fürchtet.
104 Vgl. dazu Maggiolino, Bocconi Legal Studies Research Paper No. 2984840 2017, 1, 11f.
105 Ofce of Fair Trading, Personalised Pricing, 2013, S.13.
Kapitel 6: Preisdiskriminierung
105
Um den Bedürfnissen der Marktgegenseite zu entsprechen, passen die Anbieter
also ihr Angebot entsprechend an. Konsequent weitergedacht führt Preisdiskrimi-
nierung 2. Grades damit nicht nur zur Anpassung von Preisen, sondern– im Gegen-
satz zu Preisdiskriminierung 1. und 3. Grades– auch zu einer Veränderung des An-
gebots. Für den Anbieter wäre der (hypothetische) Idealfall derjenige, dass er es
schafft, mit einem fein ausdifferenzierten Angebot möglichst genau die Zahlungs-
bereitschaft aller Kunden abzudecken. Praktisch ist dies kaum möglich, da Preisdis-
kriminierung 2. Grades (ebenso wie diejenige 3. Grades) mit Verallgemeinerungen
arbeiten muss und zudem den Variationen des Produktangebots Grenzen gesetzt
sind. Dennoch besteht strukturell eine Wechselwirkung zwischen beiden Marktsei-
ten, die beim Einsatz von Preisdiskriminierung 1. und 3. Grades in diesem Ausmaß
nicht zu erwarten ist. Unter dem Gesichtspunkt der informationellen Selbstbestim-
mung ist diese Preissetzungsmethode positiv zu bewerten, da sie datenschutzrecht-
lich neutral ist.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International
Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Ver-
vielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, so-
fern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur
Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der ge-
nannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. So-
fern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betref-
fende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten
Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
III.Arten von Preisdiskriminierung
107
Kapitel 7: Preispersonalisierung
I.Vorüberlegungen
1. Preispersonalisierung als Unterfall von Preisdiskriminierung
Der vorhergegangene Abschnitt hat eine allgemeine Denition des Begriffs Preis-
diskriminierung entwickelt, welche auf der Denition von Stigler aufbaut und diese
konkretisiert. Zudem wurden die in der ökonomischen Literatur beschriebenen all-
gemeinen Voraussetzungen für die erfolgreiche Umsetzung von Preisdiskri-
minierung sowie die drei traditionell unterschiedenen Grade beschrieben, von-
einander abgegrenzt und mit Blick auf ihre datenschutzrechtliche Relevanz
analysiert.
Im Folgenden widmet sich die Untersuchung personalisierten Preisen im Online-
Kontext. Hierbei handelt es sich um Formen von Preisdiskriminierung, welche im
Online-Handel gegenüber Verbrauchern beim Verkauf von Gütern oder Dienst-
leistungen zum Einsatz kommen und Preise in Abhängigkeit von den Eigenschaften,
Präferenzen und Handlungen der Verbraucher bestimmen. Synonym zum Begriff
„personalisierte Preise“ werden im Folgenden die Ausdrücke Personalised Pricing
sowie Preispersonalisierung verwendet. Die OECD deniert das Setzen personali-
sierter Preise zutreffend als „any practice of price discriminating nal consumers
based on their personal characteristics and conduct, resulting in prices being set as
an increasing function of consumers’ willingness to pay“.1 Die Preissetzung hängt
damit nicht nur von den entstandenen Kosten ab, sondern auch von der (vom An-
1 Organisation for Economic Co-operation and Development (OECD), Personalised Pricing in the
Digital Era, 2018, S.9. Ganz ähnlich formuliert die britische Competition and Markets Authority
(CMA), Pricing Algorithms, 2018, S.36: „We dene personalised pricing as the practice where
businesses may use information that is observed, volunteered, inferred, or collected about indivi-
duals’ conduct or characteristics, to set different prices to different consumers (whether on an in-
dividual or group basis), based on what the business thinks they are willing to pay.“
© Der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9_7
108
bieter) vermuteten bzw. berechneten Zahlungsbereitschaft des konkreten Kunden.
Keine personalisierten Preise nach dieser Denition liegen bei sog. A/B-Tests vor.
Bei diesen werden zwar für das gleiche Produkt verschiedene Preise verlangt, wes-
halb sie für außenstehende Beobachter in der Praxis von personalisierten Preisen
oftmals nur mit großem technischen Aufwand bzw. gar nicht zu unterscheiden sind.2
Es handelt sich aber nicht um eine Personalisierung der Preise aufgrund der
Zahlungsbereitschaft des Einzelnen, sondern um das bloße Testen der Kunden-
reaktionen auf verschiedene Preise.3 So wird ausgetestet, welcher Preis überhaupt
verlangt werden kann.
Personalisierte Preise sind immer ein Unterfall von Preisdiskriminierung. Der
Begriff Preisdiskriminierung ist also weiter und geht nicht zwangsläug mit einer
Personalisierung einher. Dementsprechend wird Preisdiskriminierung 2. Grades,
welche von ihrer Grundkonzeption her datenschutzrechtlich neutral ist und keine
Personalisierung von Preisen, sondern zumeist eine bloße Anpassung des Angebots
an die Marktverhältnisse darstellt, grundsätzlich außen vor gelassen. Ausgenommen
von der folgenden Untersuchung sind des Weiteren solche Geschäftsmodelle, bei
denen der Kunde keine nanzielle Gegenleistung für das Gut bzw. die Dienst-
leistung erbringt.4
2. Rahmenbedingungen im Online-Handel
Die datengetriebene Wirtschaft schafft im Online-Handel Rahmenbedingungen,
welche Preisdiskriminierung und personalisierte Preise gegenüber Endverbrauchern
grundsätzlich begünstigen oder in manchen Fällen überhaupt erst ermöglichen. Wie
bereits gesehen müssen drei Voraussetzungen erfüllt sein: Der Anbieter muss eine
gewisse Marktmacht innehaben; er muss Arbitrage verhindern oder zumindest be-
2 Vgl. European Commission, Consumer Market Study on Online Market Segmentation through
personalised Pricing/Offers in the European Union, 2018, S.172.
3 Organisation for Economic Co-operation and Development (OECD), Personalised Pricing in the
Digital Era, 2018, S.9.
4 Siehe Drexl, in: Franceschi/Schulze (Hrsg.), Digital Revolution, 2019, S.19, 37 Rn.60 zu der
oftmals schwierigen Abgrenzung von Nutzer-Daten, welche eine Gegenleistung im vertragsrecht-
lichen Sinne darstellen, und der Bereitstellung von Daten als reine Obliegenheit des Nutzers, wel-
che der Verbesserung der Qualität bestimmter Online-Dienste, wie z. B. sozialen Netzwerken,
dient. Im Kontext des Vorschlags für eine Richtlinie des Europäischen Parlaments und des Rates
über bestimmte vertragsrechtliche Aspekte der Bereitstellung digitaler Inhalte (COM(2015) 634
nal) vgl. auch Metzger, AcP 216 (2016), 817, S.848ff. zu der Frage, welche vertraglichen Pich-
ten zur Datenpreisgabe für Verbraucher entstehen können. Die Richtlinie wurde schließlich 2019
erlassen: Richtlinie (EU) 2019/770 des Europäischen Parlaments und des Rates vom 20. Mai 2019
über bestimmte vertragsrechtliche Aspekte der Bereitstellung digitaler Inhalte und digitaler Dienst-
leistungen (ABl. L136 vom 22.5.2019, S.1ff.). Die Umsetzung erfolgte in Deutschland durch das
Gesetz zur Umsetzung der Richtlinie über bestimmte vertragsrechtliche Aspekte der Bereitstellung
digitaler Inhalte und digitaler Dienstleistungen vom 25.6.2021, BGBl. 2021 I, S.2123, in Kraft
getreten am 1.1.2022.
Kapitel 7: Preispersonalisierung
109
schränken können; und er muss (zumindest näherungsweise) Kenntnis des jeweili-
gen Reservationspreises einzelner Kunden haben.5 Auch wenn diese Voraus-
setzungen erfüllt sind, bedeutet dies aber nicht zwingend, dass Preispersonalisierung
für den Anbieter auch tatsächlich praktikabel ist. In der Praxis kommt Personalised
Pricing trotz der an sich günstigen Rahmenbedingungen erstaunlich selten vor, im
Gegensatz zu anderen Formen der nicht preisbezogenen Online- Personalisierung
(wie etwa die Anpassung der Reihenfolge angezeigter Suchergebnisse basierend auf
dem vorherigen Surfverhalten des Nutzers).6 Die Frage, wie und in welchem Um-
fang personalisierte Preise tatsächlich kommuniziert werden und welche Umstände
Anbieter ggf. davon abhalten, erfährt deshalb im Folgenden gesonderte Beachtung.
Die ersten beiden der drei genannten allgemeinen Voraussetzungen liegen häug
vor: Online-Anbieter sowie -Plattformen haben dank direkter und indirekter Netz-
werkeffekte in vielen Fällen eine gewisse, in einigen Fällen eine bedeutende Markt-
macht inne.7 Der Weiterverkauf von Gütern oder Dienstleistungen, welche online
von Verbrauchern erworben wurden, ist zwar zu einem gewissen Grad denkbar, aber
oftmals unmöglich (z.B. im Fall von Flugtickets) oder zumindest umständlich.8
Arbitrage ndet in diesen Fällen nicht in bedeutendem Umfang statt und stellt daher
kein strukturelles Hindernis für Anbieter dar.9 Eine gewisse Rolle spielt in diesem
Kontext auch, wie transparent die Preissetzung aus Sicht des Kunden ist. Wie sich
noch zeigen wird, haben Anbieter grundsätzlich ein Interesse daran, Preis-
personalisierung zu verschleiern, sodass der Kunde gar nicht merkt, dass „sein“
Preis ein anderer ist als der für andere Kunden.10 Sinkende Preistransparenz und
fehlgeleitete Vorstellungen über den Marktpreis machen damit einen Weiterverkauf
zwischen Kunden unwahrscheinlicher.
Die Erfüllung der dritten Voraussetzung (Bestimmung des Reservationspreises)
ist komplizierter– hier klaffen die theoretisch gegebenen Möglichkeiten und die
Praxis weit auseinander. Der Anbieter muss zumindest grobe Anhaltspunkte dafür
haben, wie viel der Kunde in einer konkreten Situation zu zahlen bereit ist, da an-
sonsten die Personalisierung von Preisen nicht möglich ist. Die (näherungsweise)
Bestimmung des Reservationspreises ist in den letzten Jahren grundsätzlich ein-
facher und praktikabler geworden.11 Aufgrund der Digitalisierung und der stärkeren
Vernetzung können Unternehmen in aller Regel über ihre Kunden (und über andere
5 Siehe dazu ausführlich oben Kap.6, II.
6 Vgl. zusammenfassend z.B. European Commission, Consumer Market Study on Online Market
Segmentation through personalised Pricing/Offers in the European Union, 2018, S.258f. Siehe
dazu unten Kap.7, IV.
7 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 351.
8 Dies., J Consum Policy 40 (2017), 347, 351.
9 Vgl. Wagner/Eidenmüller, ZfPW 2019, 220, 224.
10 Diese Aussage gilt nur für Fälle unmittelbarer Preispersonalisierung. Bei mittelbarer Preis-
personalisierung wird dem Kunden gegenüber offengelegt, dass er einen anderen Preis zahlt als
andere, verbunden mit einer Rechtfertigung. Siehe dazu unten Kap.7, IV. 1.
11 Organisation for Economic Co-operation and Development (OECD), Personalised Pricing in the
Digital Era, 2018, S.13.
I.Vorüberlegungen
110
Besucher ihrer Webseiten) mehr Daten sammeln. Die heutigen Geschäftsmodelle
sind damit nicht mehr nur auf solche Daten angewiesen, welche von den Kunden
selber aktiv mitgeteilt wurden. Anbieter können auch selber Daten über ihre Kun-
den erheben, ohne dass diesen dies unbedingt bewusst sein muss.12 Zugleich können
die gesammelten Daten verwendet werden, um aus ihnen weitergehende Schlüsse
abzuleiten.13 Das damit einhergehende Wissen über das Kaufverhalten von Kunden
kann durchaus dazu eingesetzt werden, um ihnen gegenüber Preise direkt oder in-
direkt anzupassen. Auch hier gilt allerdings, dass die praktische Umsetzung– also
die tatsächliche Anpassung des Preises, der von einem Kunden verlangt wird– nicht
so einfach ist, wie es die Theorie vermuten lässt.
3. Weiteres Vorgehen
Der Diskrepanz zwischen den bestehenden theoretischen Möglichkeiten, von Ver-
brauchern personalisierte Preise zu verlangen, und dem nur sehr begrenzten prakti-
schen Vorkommen trägt die Untersuchung im Folgenden dadurch Rechnung, dass
sie zunächst auf vorwiegend theoretischer Basis den Bogen zum Begriff des Pro-
lings i.S.v. Art.4 Nr.4 DSGVO schlägt und personalisierte Preise zu dem in die-
sem Kontext bereits beschriebenen 3-stugen Modell in Bezug setzt. Diese theore-
tische Betrachtung geht grundsätzlich von (aus Anbietersicht) besonders günstigen,
also Idealbedingungen aus, ohne aber praktische Grenzen außen vor zu lassen und
ein gänzlich unrealistisches Szenario zu skizzieren. Der theoretische Abschnitt be-
inhaltet somit auch bewusst praxisbezogene Überlegungen und Erkenntnisse aus
der Praxis. Im Anschluss wird das Vorkommen personalisierter Preise in der Praxis
vor allem anhand empirischer Studien und bekannt gewordener Einzelfälle be-
leuchtet, um die Gründe für die unternehmerische Zurückhaltung zu verstehen.
Diese zweigliedrige Untersuchung zielt darauf ab, ein umfassendes Bild personali-
sierter Preise zu zeichnen. Dieses soll auch möglichst dann noch Bestand haben,
wenn die Praxis sich ändert und personalisierte Preise an Bedeutung gewinnen.
Letzteres ist durchaus denkbar:14 Heutzutage ist auf Verbraucherseite bereits akzep-
tiert, dass in manchen Bereichen für die gleiche bzw. vergleichbare Leistung unter-
schiedliche Preise verlangt werden. So gilt es durchaus als normal, dass beispiels-
weise bei der Buchung eines Flugtickets die Passagiere auf dem gleichen Flug und
in der gleichen Klasse in Abhängigkeit vom Buchungszeitpunkt unterschiedlich viel
bezahlen. Hierbei handelt es sich in aller Regel nicht um personalisierte Preise,
sondern um die Auswirkungen von Angebot und Nachfrage sowie Preisdis-
kriminierung 2. und 3. Grades.15 Die in diesem Kontext de facto entgegengebrachte
Akzeptanz kann sich im Laufe der Zeit auch auf personalisierte Preise ausweiten.
12 Dass., Personalised Pricing in the Digital Era, 2018, S.11.
13 Dass., Personalised Pricing in the Digital Era, 2018, S.10f.
14 So im Ergebnis auch Locher, ZWeR 16 (2018), 292, 304.
15 Siehe dazu bereits oben Kap.6, III. 2. a.
Kapitel 7: Preispersonalisierung
111
Preissetzungsmethoden im Flugsektor sind eine gute Blaupause für solch eine sich
wandelnde gesellschaftliche Akzeptanz: Das Yield Management US-amerikanischer
Fluggesellschaften– also die automatisierte, dynamische Anpassung von Ticket-
preisen mit dem Ziel der Gewinnmaximierung16– wurde nach seiner Einführung
von der breiten Öffentlichkeit zunächst kritisch bewertet, im Laufe der Zeit aber
akzeptiert.17 Im Kontext von Personalised Pricing könnte durchaus ein ähnlicher
Effekt eintreten: Die dynamischen Ticketpreise, welche die Folge von Yield Ma-
nagement sind, wirken aus Kundensicht oftmals wie personalisierte Preise. Zudem
zeitigen sie für die Betroffenen ähnliche wirtschaftliche Auswirkungen (ver-
schiedene Kunden zahlen verschiedene Preise für die gleiche Dienstleistung). Eine
wachsende gesellschaftliche Akzeptanz wäre folglich nicht überraschend.
Ein solcher Trend zu mehr personalisierten Preisen kann auch dadurch gefördert
werden, dass vermehrt das Produkt als solches– und damit einhergehend der Preis–
an den Kunden angepasst wird, womit die Vergleichbarkeit der Produkte und der
Preise sinkt bzw. erschwert wird.18 Die Personalisierung kann sich unmittelbar auf
das Produkt als solches beziehen oder durch die Anpassung produktnaher Konditio-
nen bewirkt werden (z.B. durch besondere Garantieleistungen, Versandarten oder
Zahlungsmodalitäten). Preisvergleichsportale, die im digitalen Wettbewerb für Ver-
braucher oftmals eine Schlüsselfunktion bei der Kaufentscheidung spielen,19 kön-
nen ihre Funktion in diesen Fällen nicht mehr wie vorgesehen erfüllen. Die ge-
schaffene Informationsasymmetrie senkt die Vergleichbarkeit von Preisen und
schafft damit zugunsten des Anbieters ein strukturelles Hindernis personalisierter
Preise teilweise aus der Welt, nämlich die Vergleichbarkeit von Produkten und Prei-
sen. Produktpersonalisierung kann zudem den Weiterverkauf (Arbitrage) er-
schweren oder, sofern dieser aufgrund der Personalisierung unmöglich ist, gänzlich
ausschließen.
16 Vgl. die Denition von Kimes, The Cornell H.R.A.Quarterly 35 (1994), 22, 23: „Yield manage-
ment is a method that can help a rm sell the right inventory unit to the right customer at the right
time and for the right price. It guides the decision of how to allocate undifferentiated units of limi-
ted capacity to available demand in a way that maximizes prot or revenue. The question is, how
much should one sell at what price and to which market segment?“.
17 Townley/Morrison/Yeung, YEL 36 (2017), 683, 707; Xia/Monroe/Cox, Journal of Marketing
68 (2004), 1, 6.
18 Vgl. Xia/Monroe/Cox, Journal of Marketing 68 (2004), 1, 8f.
19 Competition and Markets Authority (CMA), Digital Comparison Tools Market Study, 2017,
S.22ff.
I.Vorüberlegungen
112
II.Personalisierte Preise inder Theorie
1. Preisdiskriminierung und Online-Preispersonalisierung
Preisdiskriminierung und Personalised Pricing haben im Online-Bereich durch die
Digitalisierung eine andere Qualität bekommen als in der analogen Welt. Proling
i.S.d. Art.4 Nr.4 DSGVO kann Preissetzungsmethoden als Grundlage dienen, die
konzeptionell Preisdiskriminierung 3. Grades darstellen. Sie erlauben damit das
Setzen personalisierter Preise.
Klassische Gruppenrabatte, wie sie von der Preisdiskriminierung 3. Grades be-
kannt sind, sind zumeist durch ihre (oftmals grobe) Pauschalisierung gekenn-
zeichnet: Der Preis hängt beispielsweise pauschal davon ab, ob der Kunde ein
Student ist oder nicht. Eine feinere Differenzierung in Form einer feineren Segmen-
tierung des Nachfragemarktes ndet in diesen Fällen nicht statt. Im digitalen Um-
feld ist das zugrunde liegende Preissetzungskonzept das gleiche– die Umsetzung
ist aber potenziell deutlich präziser.20 Statt pauschal und einseitig bestimmte Grup-
pen vorab zu denieren, werden mit statistischen Methoden Gruppen deniert, die
eine bestimmte Preissensitivität aufweisen, um den Reservationspreis zu be-
stimmen. Bei diesen Gruppen handelt es sich z.B. um bestimmte „Käufer-Typen“.
Es gilt dann, den Betroffenen– also den Kunden, für den der Anbieter im Einzelfall
den Preis bestimmen möchte – in die richtige Gruppe einzuordnen, um von der
Gruppenzugehörigkeit wiederum auf seinen Reservationspreis schließen zu kön-
nen. Der Anbieter muss also Informationen über den Betroffenen erlangen, denn
nur so kann dieser in die „richtige“ Gruppe eingeordnet und der Preis dement-
sprechend an ihn angepasst werden. Ein Fluss personenbezogener Daten über den
Betroffenen an den Anbieter ist damit zwingend notwendig. Die auf diese Weise
erzielbaren Ergebnisse sind in der Theorie äußerst präzise und können mit Blick auf
ihre Präzision an perfekte Preisdiskriminierung heranreichen.21 Da der individuelle
Reservationspreis als subjektives, inneres Merkmal des Betroffenen aber nicht be-
kannt ist, sondern anhand externer Faktoren indirekt bestimmt wird, liegt bei per
Proling personalisierten Preisen nach hiesigem Verständnis keine Preisdis-
kriminierung 1. Grades vor.22
Bei dieser Art und Weise der Preisfestsetzung handelt es sich um Preisdis-
kriminierung 3. Grades, da die Gruppenzugehörigkeit den Preis bestimmt.23 Die
automatisierte Auswertung großer Datenmengen erlaubt in der Theorie allerdings
die Bildung viel feinerer Gruppen, da mehr empirische und statistische Informatio-
nen über das Kaufverhalten von Kunden zusammengeführt werden können, um
20 Dass., Pricing Algorithms, 2018, S.36.
21 Dass., Pricing Algorithms, 2018, S.36.
22 So auch Locher, ZWeR 16 (2018), 292, 303. Vgl. dazu auch Centre on Regulation in Europe
(Cerre), Big Data and Competition Policy: Market Power, Personalised Pricing and Advertising,
2017, S.40.
23 Townley/Morrison/Yeung, YEL 36 (2017), 683, 690.
Kapitel 7: Preispersonalisierung
113
Preise im Einzelfall zu setzen. Statt beispielsweise nur pauschal der Gruppe „Stu-
denten“ einen Rabatt zu gewähren, können viel präzisere Gruppen deniert werden,
wodurch (zumindest theoretisch) auch ganz individuelle Faktoren des jeweils Be-
troffenen berücksichtigt werden können. Datengetriebene Preisdiskriminierung
orientiert sich also an objektiv feststellbaren äußeren Merkmalen der Kunden. Sie
wird individueller und präziser, da die zur Preisbestimmung angewendeten Grup-
pen potenziell sehr feingliedrig und vielschichtig sind. Die Gruppenzugehörigkeit
wird anhand von Eigenschaften und Verhalten des Betroffenen bestimmt und gibt
wiederum Auskunft über seine zu erwartende Preissensitivität.24 Damit lässt sie
näherungsweise die Bestimmung des Reservationspreises zu. Je mehr individuelle
Faktoren über das Verhalten und die Eigenschaften von natürlichen Personen be-
kannt sind, desto feiner können die Gruppen gebildet werden– und desto präziser
geben sie Auskunft über den Reservationspreis ihrer Mitglieder.25
2. Konzeptionelle Überschneidungen mit Proling i.S.d. Art.4
Nr.4 DSGVO
Diese datengetriebene Variante von Preisdiskriminierung 3. Grades entspricht kon-
zeptionell und mit Blick auf ihren chronologischen Ablauf dem datenschutzrecht-
lichen Begriff des Prolings, wie er in Art. 4 Nr.4 DSGVO deniert wird.26 Wie
bereits festgestellt27 basiert auch Proling methodisch auf dem Konzept, Wissen
über das Verhalten vieler (in der Vergangenheit) zu nutzen, um daraus, bezogen auf
den Einzelfall, Schlussfolgerungen für die Zukunft zu ziehen. Proling läuft in der
Regel so ab, dass Vergleichsgruppen aus großen Datensätzen herausgeltert werden
(sog. Grouping oder Clustering) und der Betroffene anhand der über ihn vor-
liegenden Informationen in die Gruppe eingeordnet wird, der er mit Blick auf seine
persönlichen Aspekte (Eigenschaften, Präferenzen etc.) am ehesten entspricht. Im
Umkehrschluss eröffnet das Wissen, dass der Betroffene angesichts der über ihn
bekannten persönlichen Aspekte einer bestimmten Gruppe zugehörig ist, dem An-
bieter weiteres Wissen: Weitere persönliche Aspekte des Betroffenen, welche dem
Anbieter bisher nicht bekannt waren, können aus den in den Vergleichsdaten ent-
haltenen bekannten persönlichen Aspekten der anderen Gruppenmitglieder ab-
geleitet werden.
Verkürzt formuliert meint der datenschutzrechtliche Begriff Proling i. S. d.
Art.4 Nr.4 DSGVO das datengestützte Bewerten der persönlichen Aspekte einer
24 Dies., YEL 36 (2017), 683, 690.
25 Ezrachi/Stucke, Virtual Competition, 2016, S.101f.
26 Graef, Colum. J. Eur. L. 24 (2018), 541, 551; Martini, in: Paal/Pauly (Hrsg.), Datenschutz-
Grundverordnung/Bundesdatenschutzgesetz, 32021, Art.22 Rn.21a DSGVO; Zuiderveen Borge-
sius/Poort, J Consum Policy 40 (2017), 347, 362. Vgl. auch Goodman, Eur. Data Prot. L. Rev.
2 (2016), 493, 500.
27 Siehe oben Kap.2, II.
II.Personalisierte Preise inder Theorie
114
natürlichen Person. In den nicht abschließenden28 Regelbeispielen des Art.4 Nr.4
DSGVO wird Preisdiskriminierung nicht genannt. Datengetriebene Preisdis-
kriminierung im Online-Handel fällt aber sowohl mit Blick auf den Wortlaut der
Norm als auch mit Blick auf ihren Sinn und Zweck unter die Legaldenition des
Prolings. Bereits in dem Moment, in dem Daten erstmalig zum Zwecke der Preis-
personalisierung erhoben werden, liegt eine automatisierte Verarbeitung personen-
bezogener Daten i.S.d. Art.4 Nr.4, 2 und 1 DSGVO vor.29 Der Bestimmung des
Reservationspreises wohnt sowohl eine analytische als auch eine vorhersagende
Komponente inne (vgl. dazu den Wortlaut des Art.4 Nr.4 DSGVO: „zu analysieren
oder vorherzusagen“). Es geht im Kern immer um die Frage, zu welchem Preis der
Käufer ein bestimmtes Gut oder eine bestimmte Dienstleistung noch zu kaufen be-
reit ist. Bestimmt werden also die momentanen Präferenzen und Eigenschaften des
Betroffenen, um vorherzusagen, ob er einen bestimmten Preis akzeptieren (und das
Produkt oder die Dienstleistung kaufen) wird oder nicht.30 Das Bestimmen des
Reservationspreises anhand der Eigenschaften und Präferenzen eines Kunden dient
also dazu, seine persönlichen Aspekte „wirtschaftliche Lage“, „persönliche Vor-
lieben“, „Interessen“ und „Verhalten“ zu bewerten i.S.d. Art.4 Nr.4 DSGVO.
3. Anwendbarkeit des 3-stugen Modells
Da die Berechnung personalisierter Preise konzeptionell dem datenschutzrecht-
lichen Begriff des Prolings i.S.d. Art.4 Nr.4 DSGVO entspricht, kann im Rah-
men ihrer Beschreibung und rechtlichen Bewertung auf das im Rahmen dieser
Arbeit im Kontext von Proling entwickelte 3-stuge Modell zurückgegriffen wer-
den. Dieses erlaubt es, den Ablauf von datengetriebener Preisdiskriminierung in der
Form personalisierter Preise zu strukturieren und damit in tatsächlicher und recht-
licher Hinsicht greifbar zu machen. Das Modell wird grundsätzlich „idealisiert“
beschrieben. Es nimmt die Situation in den Blick, in der datengetriebene Preisdis-
kriminierung ungehindert möglich ist und keinen bzw. kaum realen Beschränkungen
unterliegt. Dieser hypothetische Ablauf wäre aus Sicht des Anbieters der ideale, da
er unterstellt, dass der Reservationspreis des Kunden in jedem Einzelfall exakt be-
stimmt und vollständig von diesem in voller Höhe verlangt werden kann. Dies wie-
28 Vgl. den Wortlaut der Norm („insbesondere um“) sowie Ernst, in: Paal/Pauly (Hrsg.),
Datenschutz- Grundverordnung/Bundesdatenschutzgesetz, 32021, Art.4 Rn.37 DSGVO.
29 Siehe dazu ausführlich unten Kap.11, I. 1. a. dd.
30 Davon zu trennen ist die Frage, wie der Anbieter das gewonnene Wissen nutzt. Nur in seltenen
Fällen wird er tatsächlich den vollen von ihm berechneten Reservationspreis vom Kunden ver-
langen: Zum einen wird er im Zweifel den verlangten Preis niedriger ansetzen, um der Gefahr zu
begegnen, dass ein falscher, weil zu hoher Reservationspreis angenommen wurde. Darüber hinaus
lässt der Wettbewerb das vollständige Ausreizen der Zahlungswilligkeit des Kunden oftmals gar
nicht zu (Organisation for Economic Co-operation and Development (OECD), Personalised Pri-
cing in the Digital Era, 2018, S.11).
Kapitel 7: Preispersonalisierung
115
derum entspräche von der Präzision her gesehen perfekter Preisdiskriminierung31
und wäre für Anbieter am lukrativsten, da sie in dieser Konstellation bei jeder
einzelnen Transaktion die Konsumentenrente komplett abschöpfen könnten.32 Ge-
rade bei dieser letztgenannten Situation handelt es sich um ein hypothetisches
Konstrukt, welches in dieser „lehrbuchhaften“ Form in der Praxis aus verschiedenen
Gründen nahezu gar nicht vorzunden ist. Aus diesem Grund nimmt die Unter-
suchung des Ablaufs der Preissetzung vor dem Hintergrund des 3-stugen Modells
gerade nicht nur die hypothetischen Idealumstände in den Blick, sondern auch fak-
tische Umstände und Phänomene, welche Anbieter in der Praxis daran hindern,
Preispersonalisierung tatsächlich umzusetzen. Die Untersuchung widmet sich nur
dem Verhältnis zwischen Anbietern (die im Online-Handel Waren und Dienst-
leistungen unmittelbar an Endverbraucher verkaufen) und ihren Kunden. Vom Be-
griff „Kunde“ sind auch potenzielle Kunden umfasst– also etwa solche, die eine
Anbieter-Seite aufrufen, um sich über Preise zu informieren. Anhand der so ge-
fundenen, modellhaften Struktur lassen sich anschließend die praktischen Hinder-
nisse analysieren, welche sich Anbietern gegenüber aufgrund tatsächlicher sowie
rechtlicher Beschränkungen ergeben.
III.Ablauf der Preissetzung nach dem 3-stugen Modell
Das zu Beginn dieser Arbeit beschriebene 3-stuge Modell unterscheidet im Kon-
text von Proling drei grundsätzlich nacheinander33 ablaufende Schritte. Diese
Schritte lassen sich übertragen auf den Ablauf personalisierter Preissetzungs-
methoden: Beschaffung von Daten mit weiterer Unterscheidung zwischen dem
Sammeln bzw. anderweitigen Beschaffen abstrakter Vergleichsdaten einerseits und
personenbezogener Daten bezogen auf den Betroffenen andererseits (Stufe 1); Be-
stimmung des Reservationspreises durch Auswertung der Daten per Proling (Stufe
2); Bestimmung des Preises, der dem Kunden im Einzelfall angezeigt oder auf an-
dere Weise kommuniziert wird, also Entscheidungsndung und Umsetzung der ge-
troffenen Entscheidung (Stufe 3).
31 Da der jeweilige Reservationspreis aber jeweils nicht als per se bekannt vorausgesetzt wird,
sondern eine Annäherung an ihn über die Bildung von (extrem feinen, präzisen) Gruppen statt-
ndet, liegt keine Preisdiskriminierung 1. Grades vor.
32 Vgl. Varian, Intermediate Microeconomics, 92014, S.481f.
33 Das Modell beschreibt den Ablauf von Proling und dem Fällen/Ausführen von Entscheidungen
chronologisch. Freilich ießen die Erkenntnisse, die sich auf den jeweils nachgelagerten Stufen
ergeben, in die vorgelagerten Stufen ein, um die Ergebnisse qualitativ zu verbessern. So wird
z. B. registriert, ob ein Kunde mit einem bestimmten Kundenprol (also einer bestimmten
Gruppenzugehörigkeit) das Produkt zu dem errechneten personalisierten Preis tatsächlich gekauft
hat oder nicht. Diese Information wird dann zukünftig als abstraktes Vergleichsdatum auf Stufe 1
berücksichtigt. Die chronologische Betrachtungsweise erleichtert die Unterscheidung der einzel-
nen Stufen, darf aber nicht darüber hinwegtäuschen, dass es sich eher um ein Netzwerk, also eine
deutlich komplexere Struktur handelt.
III.Ablauf der Preissetzung nach dem 3-stugen Modell
116
1. Datenbeschaffung (Stufe 1)
Mit zunehmendem Zugriff auf Daten steigt das Wissen, welches Anbieter über ihre
Kunden und über Kundenverhalten im Allgemeinen haben– und damit grundsätz-
lich auch die Möglichkeit, die Zahlungsbereitschaft Einzelner zu bestimmen.34 Im
digitalen Umfeld bestehen, nicht zuletzt aufgrund moderner Tracking- und anderer
Datenverarbeitungs-Technologien, grundsätzlich äußerst weitreichende Möglich-
keiten, Daten jedweder Art zwecks Auswertung zu sammeln und zusammenzu-
führen.35 Anbieter, welche personalisierte Preise verlangen möchten, müssen die
dafür notwendigen Daten nicht unbedingt selber sammeln: Weitere Möglichkeiten
der Datenbeschaffung sind z. B. der Kauf von Datensätzen oder auch Unter-
nehmenskäufe bzw. Zusammenschlüsse von Unternehmen, womit dem kaufenden
bzw. aufnehmenden Unternehmen Zugang zu relevanten Daten eröffnet wird.36 Im
theoretischen Idealfall haben Anbieter somit Zugriff auf extrem große Datensätze,
welche Auskunft geben über das Kaufverhalten von Kunden in verschiedenen Situ-
ationen und angesichts verschiedener Preise. Notwendig ist der Zugriff auf be-
sonders große, vielfältige und inhaltlich korrekte Datenmengen, welche ver-
schiedene Konstellationen abdecken. In diesen abstrakten Vergleichsdaten müssten
sämtliche relevanten Informationen darüber enthalten sein, welcher Kundentyp
welche Produkte in welcher Situation zu welchem Preis zu kaufen bereit ist. Rele-
vant sind dabei nicht nur die persönlichen Aspekte des Betroffenen, sondern darü-
ber hinausgehend auch situative Faktoren, wie z.B. die Tageszeit. Auf dieser Stufe
geht es nur um die wertungsfreie Sammlung von Daten: Das Auswerten der Daten
mit den Mitteln des Prolings und mit dem Ziel der Bestimmung des Reservations-
preises eines Kunden– womit das Erschaffen „neuer“ Daten einhergeht– ist der
Datenbeschaffung nachgelagert.
Mit Blick auf die Quelle solcher Daten, die geeignet sind, um mit ihnen Preisdis-
kriminierung in der Form personalisierter Preise zu betreiben, unterschied das Of-
ce of Fair Trading in einer Veröffentlichung aus dem Jahr 2013 zwischen drei
übergeordneten Gruppen, namentlich „observed“ (Daten, die vom Anbieter selber
„beobachtet“ und gesammelt werden), „volunteered“ (Daten, die aktiv vom Kun-
den an den Anbieter übermittelt werden) und „collected“ (Daten, die sich auf das
Verhalten des Kunden auf anderen Webseiten beziehen).37 In die Kategorie „obser-
ved“ fallen demnach Informationen wie z.B., welches Produkt gekauft wurde, das
34 Vgl. Centre on Regulation in Europe (Cerre), Big Data and Competition Policy: Market Power,
Personalised Pricing and Advertising, 2017, S.40 und Ofce of Fair Trading, Personalised Pricing,
2013, S.12.
35 European Commission, Consumer Market Study on Online Market Segmentation through perso-
nalised Pricing/Offers in the European Union, 2018, S.49; Schleipfer, ZD 2017, 460, 460f.;
Schmidt/Babilon, K&R 2016, 86, 86f.
36 Bar-Gill, U.Chi. L.Rev. 86 (2019), 217, 225; European Commission, Consumer Market Study
on Online Market Segmentation through personalised Pricing/Offers in the European Union,
2018, S.49.
37 Ofce of Fair Trading, Personalised Pricing, 2013, S.12.
Kapitel 7: Preispersonalisierung
117
Endgerät, über das der Kunde den Online-Shop ansteuert, sein Betriebssystem, sein
(aus der IP-Adresse ersichtlicher) Standort, sein Status als Neu- oder Bestands-
kunde sowie frühere Einkäufe. „Volunteered“ sind z.B. seine Adressdaten, sein
Geburtsdatum und Antworten, welche von ihm im Rahmen von Online- Kun-
denbefragungen des Anbieters gegeben wurden. Die Kategorie „collected“ bezieht
sich auf Daten, welche z.B. mithilfe von Cookies gesammelt werden und Auskunft
über das Online-Verhalten des Kunden geben. In diesem Rahmen geht es beispiels-
weise darum, ob der Kunde den Online-Shop des Anbieters direkt angesteuert hat
oder ob ein Preisvergleichsportal ihn weitergeleitet hat. In diese Kategorie fallen
auch das Surfverhalten des Kunden und sein Online-Kaufverhalten.38
Innerhalb dieser übergeordneten Gruppen kann weiter differenziert werden hin-
sichtlich des Inhalts der verwendeten Daten. Eine im Auftrag der Europäischen
Kommission erstellte Studie aus dem Jahr 2018 unterscheidet beispielsweise ver-
schiedene Kategorien von Daten, welche zum Zweck der Preisdiskriminierung ge-
sammelt werden.39 Die nicht abschließende Liste umfasst 11 Kategorien, welche
anhand von Beispielen erläutert werden. Zu den Kategorien gehören u.a. Daten
über die nanziellen Verhältnisse des Betroffenen (Einkommen, Bonitätswerte),
Kontaktdaten (Anschrift, E-Mail-Adresse, Telefonnummer), Transaktionsdaten
(z.B. über vergangene Käufe), sozio-demograsche Daten (Alter, Ethnie, Bildungs-
stand, Haushaltseinkommen etc.), Standortdaten, Daten über das Verhalten des Be-
troffenen und seine Interessen (besuchte Webseiten, angeklickte Werbung, Beiträge
in sozialen Netzwerken, auf Webseiten und Blogs etc.), technische Daten (IP-Ad-
resse, Informationen über das verwendete Endgerät und den verwendeten Browser),
Daten über bestehende Sozialkontakte (Familien- und Freundeskreis) sowie Daten,
die aus öffentlichen Registern abgefragt werden können (z.B. öffentliche Wähler-
register oder Insolvenzen).40
Diese abstrakten Vergleichsdaten sind zu unterscheiden von personenbezogenen
Daten, die sich im Einzelfall auf konkrete Kunden beziehen und zwingend not-
wendig sind, um Preise zu personalisieren. Diese Daten stellen den Schlüssel zu
dem in den abstrakten Vergleichsdaten enthaltenen Wissen dar. Im Idealfall haben
Anbieter Zugriff auf ein vollständiges Prol jedes konkreten Kunden, welches
inhaltlich zutreffende Informationen über sämtliche für die Preisbestimmung rele-
vanten persönlichen Aspekte enthält.
38 Dass., Personalised Pricing, 2013, S.12.
39 European Commission, Consumer Market Study on Online Market Segmentation through perso-
nalised Pricing/Offers in the European Union, 2018, S.50f.
40 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union, 2018, S.50f.
III.Ablauf der Preissetzung nach dem 3-stugen Modell
118
2. Datenauswertung: Bestimmung des Reservationspreises
(Stufe 2)
Die dem Anbieter zur Verfügung stehenden Daten werden automatisiert ausgewertet,
um den Reservationspreis des Betroffenen zu bestimmen. Dies ist das eigentliche
Proling: Die personenbezogenen Daten des Betroffenen werden zu den vor-
handenen abstrakten Vergleichsdaten in Relation gesetzt und mit dem Ziel ana-
lysiert, eine Bewertung seines persönlichen Aspekts „Reservationspreis“ zu gene-
rieren. Die zweite Stufe schließt im theoretischen Idealfall mit der Erkenntnis, dass
der Kunde einen bestimmten Preis zu zahlen bereit ist bzw. das Produkt gar nicht
oder nur zu einem Preis kaufen würde, der unterhalb der Grenzkosten des Anbieters
liegt und für diesen deshalb nicht mehr protabel ist.
Der Reservationspreis als innerer Vorgang des Kunden ist keine Variable, die
objektiv messbar oder anderweitig unmittelbar feststellbar wäre.41 Er kann metho-
disch nur indirekt bestimmt werden, nämlich anhand der Feststellung, ob Kunden
ein Produkt zu einem bestimmten Preis kaufen oder nicht.42 Anbietern bleibt damit
nur die Möglichkeit, im Rahmen des Prolings Schlussfolgerungen aus dem Ver-
halten anderer, „vergleichbarer“ Kunden in vergleichbaren Situationen zu ziehen
und diese Erkenntnisse in concreto auf den einzelnen Kunden zu übertragen und
situationsabhängig zur Entscheidungsndung zu nutzen.43
Vor allem Daten, die vom Kunden nicht aktiv mitgeteilt, sondern stattdessen vom
Anbieter oder Dritten über diesen erhoben wurden, können grundsätzlich einiges
über den Betroffenen aussagen. So ist beispielsweise die Kenntnis des Surfver-
haltens hilfreich, um die Interessen des Betroffenen oder seine Preissensitivität zu
bestimmen. Demograsche Daten geben Hinweise auf die Kaufkraft und -willigkeit
des Betroffenen. Gleiches gilt für Daten über sein Kaufverhalten: Ist der Betroffene
eher ein schneller „Impuls-Käufer“, oder verhält er sich preissensitiv und recher-
chiert Preise, indem er die Seiten verschiedener Anbieter aufsucht oder Preisver-
gleichsportale nutzt? Hat er sich das gleiche oder ein ähnliches Produkt bereits auf
anderen Seiten angesehen?44
Naturgemäß handelt es sich– selbst die besten Rahmenbedingungen unterstellt
bei den auf diese Art und Weise gefundenen Erkenntnissen aber nur um Näherungs-
werte. Diese beruhen auf Wahrscheinlichkeitsberechnungen und erlauben dement-
sprechend nur näherungsweise Aussagen.45 Mit steigender Datenmasse und besserer
Software zum Auswerten steigt die Präzision der Ergebnisse. Allerdings dürfte es
auch in der Theorie nur in seltenen Ausnahmefällen möglich sein, den genauen
Reservationspreis zu bestimmen. Dafür wäre nämlich letztlich Zugriff auf die
41 Locher, ZWeR 16 (2018), 292, 303.
42 Ezrachi/Stucke, Virtual Competition, 2016, S.96; Organisation for Economic Co-operation and
Development (OECD), Personalised Pricing in the Digital Era, 2018, S.11.
43 Ezrachi/Stucke, Virtual Competition, 2016, S.96; Locher, ZWeR 16 (2018), 292, 303.
44 Vgl. die Beispiele bei Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 356f.
45 Siehe oben Kap.2, III.
Kapitel 7: Preispersonalisierung
119
subjektiven, inneren Wünsche und Präferenzen der Kunden notwendig, um jeweils
„ihren“ Preis im Einzelfall zutreffend erkennen zu können. Diese Präferenzen sind
Schwankungen unterworfen, oftmals irrational– und somit selbst unter den besten
Rahmenbedingungen nicht in allen Fällen bestimmbar. Der Kunde kann seinen
Reservationspreis oftmals selber nicht eindeutig benennen, zumal dieser auch durch
äußere Umstände beeinusst wird und generell situationsabhängig ist.46
Auch wenn datengetriebene Preisdiskriminierung den Reservationspreis eines
Kunden in der Theorie also sehr präzise anhand seiner Eigenschaften und seines
Verhaltens vorhersagen kann, bestehen systembedingte, dem Proling inne-
wohnende Unschärfen. Weitere praktische Erwägungen reduzieren in der Regel die
Genauigkeit der Ergebnisse: Es stehen zu wenige abstrakte Vergleichsdaten und zu
wenige personenbezogene Daten über den konkreten Kunden zur Verfügung. Die
Beschränkungen für Anbieter sind damit tatsächlicher Natur: Es gibt nicht so viel
Datenmaterial, dass jede denkbare Situation und jeder konkrete Einzelfall präzise
abgebildet werden könnte. Im Anwendungsbereich des europäischen Datenschutz-
rechts bestehen zudem rechtliche Hürden, welche das Datensammeln und -spei-
chern regulieren und damit einschränken. Die Präzision hängt also letztlich auch
davon ab, auf welches Datenmaterial der Anbieter faktisch und rechtlich Zugriff hat
und welche Analysemethoden ihm zur Verfügung stehen. Beispiele aus der Praxis
bestätigen, dass die Ergebnisse in der Regel recht pauschal sind und nur grobe Aus-
sagen getroffen werden können.47 Diese Unschärfe wohnt auch fortgeschrittenen
Verfahren zur Preisbestimmung inne. Diese mögen zwar im Einzelfall präzise sein.
Eine hohe Präzision der Masse an Kunden gegenüber zu erreichen, scheint aber in
der Praxis nach dem heutigen Stand der Technik nicht möglich zu sein.
3. Entscheidungsndung und -ausführung: Tatsächliches
Einfordern personalisierter Preise (Stufe 3)
Kennt der Anbieter den Reservationspreis des Kunden, stellt sich ihm die Frage, wie
er dieses Wissen nutzbar machen soll. In der Praxis wird die ihm vorliegende
kundenbezogene Information eher grob und tendenziell sein und sich auf einen
preislichen Spielraum beziehen, in dem sich der Reservationspreis vermutlich be-
ndet. Es geht für den Anbieter auf der letzten Stufe des Modells darum, eine Ent-
scheidung über die preisbezogene Kommunikation mit dem Kunden zu treffen und
diese in die Tat umzusetzen. Dem Anbieter stellen sich zwei übergeordnete Fragen,
welche sich inhaltlich teilweise beeinussen: Welcher Preis wird zu welchem Zeit-
punkt vom Kunden verlangt? Und: Wie wird dieser Preis dem Kunden gegenüber
kommuniziert?
46 Ezrachi/Stucke, Virtual Competition, 2016, S.97.
47 Siehe dazu unten Kap.7, IV.
III.Ablauf der Preissetzung nach dem 3-stugen Modell
120
a. Art und Grenzen der Preiskommunikation
Mit Blick darauf, wie der Preis dem Kunden gegenüber kommuniziert wird, gibt es
mehrere Möglichkeiten. Naheliegend wäre es zunächst, dass der Anbieter den Preis
auf seiner Webseite bei den Kunden, über die ihm für diesen Zweck ausreichend
Informationen vorliegen, unmittelbar individuell anpasst.48 Jeder Kunde bekäme di-
rekt „seinen“ Preis angezeigt. Wenn dafür nicht ausreichend Informationen über
einen Kunden vorliegen, wird stattdessen ein Einheitspreis verwendet.
Dem Anbieter stellen sich in dieser Konstellation zwei verschiedene, teilweise
miteinander zusammenhängende Herausforderungen. Zum einen muss er in der
Lage sein, den Kunden in ausreichendem Maße zu identizieren, um den Preis
überhaupt aufgrund seiner Attribute anpassen zu können. Ist ihm dies nicht mög-
lich, kann er von vornherein kein Personalised Pricing betreiben. Zudem muss er
nach Möglichkeit vermeiden, dass seine Kunden die Preispersonalisierung erkennen
und negativ bewerten. Im zweiten Problemkreis geht es also darum, die Personali-
sierung entweder gänzlich zu verschleiern oder sie kommunikativ dergestalt zu be-
gleiten, dass sie von den Kunden nicht als grundlose Schlechterbehandlung Einzel-
ner wahrgenommen wird. In diesem Kontext wird sich zeigen, dass eine
ausschließlich ökonomische Betrachtungsweise nicht zielführend ist: Der tatsäch-
liche Einsatz personalisierter Preissetzungsmethoden kann langfristig nur unter Be-
rücksichtigung psychologischer und verhaltensökonomischer Erkenntnisse erfolg-
reich sein. Dies liegt daran, dass Kunden nicht als rein rationale, ökonomisch
denkende Marktteilnehmer agieren, sondern stattdessen auch Aspekte wie die wahr-
genommene Fairness eines Preises (bzw. des Verhaltens eines Unternehmens) eine
bedeutende Rolle für ihr Kaufverhalten spielen.49
aa. Problem der zuverlässigen Kunden-Identizierung
Die genaue Identizierung einzelner Kunden ist online allein schon aus technischen
Gründen nicht immer durchgängig möglich. Dies liegt daran, dass der Anbieter
nicht in jeder Situation erkennen kann, wer gerade seine Seite besucht und sich über
Produkte und Preise informiert. Der Anbieter müsste aber, um Preise mit einem ge-
wissen Grad an Komplexität zu personaliseren, mit dem Kunden grundsätzlich be-
48 Eine konkrete Identizierung des Kunden ist spätestens im Moment des Vertragsschlusses not-
wendig. Es ist ohne Weiteres denkbar, dass das Verfahren des Anbieters dergestalt konzipiert ist,
dass er tatsächlich erst im Moment des eigentlichen Kaufes von der Identität des Kunden Kenntnis
nimmt. Wird der Preis z.B. angepasst, weil dem Anbieter durch ein Cookie angezeigt wird, dass
der Kunde von einer Preisvergleichsseite auf die Seite des Anbieters weitergeleitet wurde, kennt
dieser die Identität des Kunden (zunächst) nicht und hat ohne Zugriff auf externe Informationen
(z.B. über den Provider des Kunden) auch keine praktikable und rechtmäßige Möglichkeit, davon
Kenntnis zu nehmen. Die Frage, ab welchem Moment bzw. in welchen Konstellationen personen-
bezogene Daten i.S. d. Art.4 Nr.1 DSGVO verarbeitet werden, ist für die Anwendbarkeit des
Datenschutzrechts relevant. Siehe dazu ausführlich unten Kap.11, I. 1. a.
49 Vgl. dazu auch Kimes, The Cornell H.R.A.Quarterly 35 (1994), 22, 24.
Kapitel 7: Preispersonalisierung
121
reits in dem Moment das richtige Prol verknüpfen– und dafür ggf. auch Daten von
externen Quellen in Echtzeit abrufen –, in dem dieser Preise zu sehen bekommt.
Ansonsten kann der irritierende Effekt eintreten, dass demselben Kunden in ver-
schiedenen Situationen verschiedene Preise angezeigt werden.50
Es gibt zahlreiche technische Möglichkeiten, Webseiten-Besucher über ver-
schiedene Seiten und durchaus auch über verschiedene Endgeräte zu tracken, also
zu verfolgen (sog. Web-Tracking).51 Dafür ist es nicht mehr zwingend notwendig,
Cookies auf dem Endgerät des Nutzers zu speichern.52 Efzientes Tracking (etwa in
der Form des sog. Browser Fingerprintings) ist mittlerweile auch dergestalt mög-
lich, dass die Verfolgung des Nutzers anhand solcher technischer Informationen
ausgeführt wird, die vom Endgerät beim Aufruf einer Webseite zwangsläug ge-
sendet oder zum Abruf bereitgestellt werden und die u.a. dazu dienen, dass die
aufgerufene Webseite richtig dargestellt wird.53 Aus diesen Informationen wird ein
Hashwert generiert, welcher den sog. Fingerprint darstellt. Dieser Fingerprint er-
laubt es, das im konkreten Einzelfall verwendete Endgerät zuzuordnen und ggf.
wiederzuerkennen.54 Dies bedeutet, dass über die eingesetzten Endgeräte Kunden
wiedererkannt und als derselbe Nutzer identiziert werden können, ohne dass zwin-
gend darüber hinausgehend ihre tatsächliche Identität bekannt ist.55 Endgeräte von
Apple sind sogar mit einem jeweils individuellen Identier for Advertisements ver-
sehen, mit dessen Hilfe einzelne Nutzer– ihre Einwilligung vorausgesetzt– über
verschiedene Webseiten bzw. Apps hinweg getrackt werden können.56 Ist die Identi-
tät dem Anbieter nicht bekannt, erstreckt sich sein Erkenntnisgewinn aber primär
auf das vorhergegangene Surfverhalten eines ihm ansonsten „unbekannten“, anony-
men Nutzers. Ein solches Tracking, auch bekannt als Probabilistic Matching, ist
z.B. auch recht leicht möglich beim Verfolgen derjenigen Nutzer, die beim Surfen
etwa mit ihrem Google-Account oder Facebook-Prol eingeloggt sind.57 Eine
(ziemlich) sichere Identizierungsmöglichkeit ist etwa auch dann gegeben, wenn
der Kunde sein Smartphone per Fingerabdruck oder Gesichtsscan entsperrt hat und
dem Anbieter dies bekannt ist. Abgesehen von den letztgenannten und vergleich-
baren Fällen, in denen die Identität des Kunden dem Anbieter aufgrund des Log-ins
ohnehin offengelegt ist, funktionert Individualisierung aber beispielsweise ggf.
schon dann nicht mehr zuverlässig, wenn mehrere Personen das gleiche Endgerät
50 Schleusener, in: Stüber/Hudetz (Hrsg.), Praxis der Personalisierung im Handel, 2017, S.71, 78.
51 Vgl. zu den technischen Hintergründen Schleipfer, ZD 2017, 460, 460f.
52 Hanloser, ZD 2018, 213, 213f.
53 Ders., ZD 2018, 213, 214; Schmidt/Babilon, K&R 2016, 86. Zu den zum Fingerprinting ver-
wendeten Informationen gehören z.B. der Browser, das Betriebssystem, die Spracheinstellungen
und die Bildschirmauösung des Endgeräts.
54 Hanloser, ZD 2018, 213, 214; Schmidt/Babilon, K&R 2016, 86.
55 Vgl. umfassend dazu Zuiderveen Borgesius, Improving Privacy Protection in the Area of Beha-
vioural Targeting, 2015, S.15ff.
56 Siehe dazu bereits Wiedemann, CR 2021, 425, 427 Rn.8.
57 Tanner, MIT Technology Review 01.07.2015.
III.Ablauf der Preissetzung nach dem 3-stugen Modell
122
verwenden.58 Selbst moderne Tracking-Technologien liefern dementsprechend
nicht in allen Fällen zuverlässige Ergebnisse.59 Hinzu kommt, dass Nutzer die
Möglichkeit haben, etwa durch das Löschen von Cookies, die Verwendung ver-
schiedener Browser oder den Einsatz speziell dafür gemachter Programme ihre
Online- Identität zu einem gewissen Grad zu verbergen oder in ihrem Sinne zu ver-
ändern. Anbieter haben damit oftmals das Problem, dass sie nicht sicher wissen, wer
gerade ihre Seite besucht. Dies erschwert Formen der Preispersonalisierung, die ein
gewisses Maß an Komplexität annehmen sollen.
Es ist technisch ohne Weiteres möglich, Preise erst dann zu personalisieren bzw.
sie dem Kunden erst dann erstmalig anzuzeigen, nachdem der Kunde sich– etwa
mit seinem Kundenkonto oder über das Prol eines sozialen Netzwerks– eingeloggt
hat. Eine solche Webseitengestaltung ist allerdings in der Regel unpraktikabel, da
die damit einhergehende Intransparenz, verbunden mit dem Zwang, ein Kunden-
konto anzulegen oder eine Verknüpfung mit dem eigenen Prol auf einem sozialen
Netzwerk herzustellen, zahlreiche Kunden abschrecken dürfte.
bb. Verschleierung oder Rechtfertigung der Diskriminierung
Sofern ein online angezeigtes Angebot sich ausschließlich im Preis (und nicht etwa
mit Blick auf weitere Konditionen) ändert, bedeutet dies, dass die Situation auf-
treten kann, dass Kunden realisieren, dass ihnen zum gleichen Zeitpunkt für das
identische Produkt auf der Webseite des Anbieters bloß aufgrund ihrer verschiedenen
Nutzerprole und ohne einen darüber hinausgehenden Grund verschiedene Preise
angezeigt werden. Hierbei handelt es sich um den zweiten eingangs beschriebenen
Problemkreis, denn damit geht die ernsthaft drohende Beeinträchtigung des Rufs
des Unternehmens einher.60 Dies ist für Anbieter hoch problematisch. Für Kunden
spielt es nämlich eine bedeutende Rolle, welchen Preis andere Kunden für das glei-
che Gut gezahlt haben.61 Eine offensichtliche „Ungleichbehandlung“ der Kunden
wird von diesen in aller Regel als unfair und unethisch empfunden und damit als
abzulehnendes unternehmerisches Verhalten bewertet.62 Dies zeigt, dass die
Zahlungsbereitschaft des Einzelnen keine xe, isoliert bestehende und objektiv fest-
stellbare Größe ist. Sie ist zu einem gewissen Teil relativ, kann im Laufe der Zeit
schwanken und ist von– aus ökonomischer Sicht teilweise irrationalen– äußeren
58 Schleusener, in: Stüber/Hudetz (Hrsg.), Praxis der Personalisierung im Handel, 2017, S.71, 78.
Vgl. dazu auch Schleipfer, CR 2015, 113.
59 Schmidt/Babilon, K&R 2016, 86.
60 Schleusener, in: Stüber/Hudetz (Hrsg.), Praxis der Personalisierung im Handel, 2017, S.71, 85
(„hohes Gefahrenpotenzial für die Anbieter“).
61 Xia/Monroe, Journal of Economic Psychology 31 (2010), 884, 893.
62 Vgl. Ezrachi/Stucke, Virtual Competition, 2016, S.123f.; Gleixner, VuR 2020, 417, 417f.; Mag-
giolino, Bocconi Legal Studies Research Paper No. 2984840 2017, 1, 10–12; Malc/Mumel/Pisnik,
J.Bus. Res. 69 (2016), 3693, 3694 und Poort/Zuiderveen Borgesius, in: Kohl/Eisler (Hrsg.), Data-
Driven Personalisation in Markets, Politics and Law, 2021, S.174, 178–183.
Kapitel 7: Preispersonalisierung
123
Faktoren abhängig. Das Bedürfnis nach Gleichbehandlung ist rein ökonomisch be-
trachtet irrational, denn aus Kundensicht kommt es eigentlich nur darauf an, wie
hoch der zu zahlende Preis im Verhältnis zum persönlichen Nutzen ist, den der Kauf
erwarten lässt.63 Im Kontext dieser Fairness-Erwägungen spielt bei Online-
Sachverhalten der Umstand eine prägende Rolle, dass aufgrund der einfachen
Kommunikationswege zu erwarten ist, dass eine derart unmittelbare Form der Preis-
personalisierung schnell publik wird.64 So zeigt sich beispielsweise bei verhaltens-
ökonomischen Laboruntersuchungen, bei denen zwecks Simulation verschiedener
Kunden-Anbieter-Interaktionen freiwillige Versuchsteilnehmer zum Einsatz kamen,
welchen Einuss Preistransparenz auf die Bereitschaft von Anbietern hat, Preise zu
personalisieren.65 So wurde etwa herausgefunden, dass 77% der Anbieter Preis-
personalisierung betreiben, wenn ihnen bewusst ist, dass ihre Kunden nicht wissen,
was andere Kunden für das gleiche Gut gezahlt haben. Wenn auf Kundenseite hin-
gegen Preistransparenz herrscht (d.h. die Kunden wissen, welchen Preis die ande-
ren Kunden zu zahlen haben), sinkt diese Zahl auf 33,7%.66 Dies belegt, dass die
Aspekte Fairness und Preistransparenz nicht unabhängig voneinander betrachtet
werden können.
Für die öffentliche Wahrnehmung der eingangs beschriebenen, von den Kunden
als ungerecht empfundenen Art von Preispersonalisierung gibt es ein prominentes
Beispiel. Als in den Medien bekannt wurde, dass Amazon.com in den USA im Jahr
2000 (laut Unternehmensangabe bloß testweise) für einen kurzen Zeitraum von Be-
standskunden höhere Preise für bestimmte DVDs verlangte als von Neukunden, zog
dies in der Öffentlichkeit ein denkbar negatives Echo nach sich.67 Diese negative
Kundenreaktion ist damit zu erklären, dass es aus Verbrauchersicht zwar ohne Wei-
teres akzeptiert ist, dass verschiedene Anbieter für das gleiche Gut oder die gleiche
Dienstleistung verschiedene Preise verlangen. Kunden empnden es allerdings als
gravierenden Verstoß gegen gesellschaftliche, und damit ungeschriebene soziale
Normen, wenn ein Anbieter von verschiedenen Kunden im gleichen Zeitpunkt für
das gleiche Gut oder die gleiche Dienstleistung unterschiedliche Preise verlangt.68
Es wurde empirisch nachgewiesen, dass Kunden dergestalt personalisierte Preise
als unfair empnden, womit ein Vertrauensverlust und eine gesunkene Kaufbereit-
schaft einhergehen.69 Kunden erwarten grundsätzlich, dass ein Anbieter für ein be-
stimmtes Produkt von vergleichbaren Kundengruppen die gleichen Einheitspreise
verlangt.70 Es geht ihnen bei der Bewertung der Fairness des Preises also nicht nur
63 Zurth, AcP 221 (2021), 514, 536.
64 Leibbrandt, European Economic Review 121 (2020), 1, 2.
65 Zum genauen Versuchsdesign siehe ders., European Economic Review 121 (2020), 1, 4.
66 Ders., European Economic Review 121 (2020), 1, 8.
67 Siehe dazu ausführlich unten Kap.7, IV. 2. a.
68 Garbarino/Maxwell, J. Bus. Res. 63 (2010), 1066, 1067 und 1070f.; Xia/Monroe, Journal of
Economic Psychology 31 (2010), 884, 885.
69 Garbarino/Maxwell, J.Bus. Res. 63 (2010), 1066ff. passim. Vgl. auch Xia/Monroe/Cox, Journal
of Marketing 68 (2004), 1.
70 Maggiolino, Bocconi Legal Studies Research Paper No. 2984840 2017, 1, 11; Xia/Monroe/Cox,
Journal of Marketing 68 (2004), 1, 3f.
III.Ablauf der Preissetzung nach dem 3-stugen Modell
124
um dessen Höhe per se. Stattdessen spielt– auch dies rein ökonomisch betrachtet
teilweise irrational– der Vergleich mit Referenzpreisen, und hierbei vor allem mit
den von anderen Kunden gezahlten Preisen, eine bedeutende Rolle.71 Anders formu-
liert hängt die Kundenwahrnehmung, ob ein Preis fair ist oder nicht, nicht nur von
dessen Höhe, sondern auch von den Motiven ab, welche den Anbieter zur Preis-
setzung veranlassen. Dabei spielt es auch eine Rolle, inwieweit er z.B. die Gründe
für einen Preisanstieg selber zu vertreten hat. Preiserhöhungen aus purem Gewinn-
streben werden als unfair, solche, die „unverschuldet“ aufgrund externer Faktoren
notwendig sind, eher als fair rezipiert.72
Anbieter haben daher ein besonderes Interesse daran, die Preisanpassung dem
Kunden gegenüber so gut wie möglich zu verschleiern, sodass dieser die in seiner
Person begründete Preisgestaltung möglichst gar nicht mitbekommt. Je weniger
vergleichbar zwei Transaktionen sind, desto eher werden Preisunterschiede von den
Kunden als „fair“ akzeptiert.73 Der Idealfall ist aus Anbietersicht demzufolge ge-
geben, wenn die Transaktionen so unterschiedlich erscheinen, dass sie gar nicht
miteinander verglichen werden können. Dieses Ziel kann z.B. dergestalt erreicht
werden, dass nicht nur der Preis, sondern das ganze an den Kunden gerichtete An-
gebot an diesen angepasst wird. Der Anbieter kann das Produkt als solches persona-
lisieren oder den Kauf mit verschiedenen Rahmenbedingungen kombinieren, etwa
einer erweiterten Garantie. Dies verringert die Möglichkeit, dass Kunden Preise
unmittelbar miteinander vergleichen.74 Zudem wird mit Preisunterschieden
typischerweise das Einhergehen von qualitativen Unterschieden assoziiert, womit
der (in Wahrheit personalisierte) Preis eher gerechtfertigt erscheint.75 Der „Trick“
liegt also neben der Absenkung der Vergleichbarkeit darin, dass der Kunde das Pro-
dukt anders wahrnimmt und ihm eine andere Wertigkeit zuordnet.76
Eine andere, für den Anbieter etwas praktikablere Methode ist es, den Preis dann
anzupassen, wenn der Kunde sich eines Preisvergleichsportals bedient und dort
nach einem bestimmten Produkt sucht. Manche Anbieter bieten ihre Produkte inner-
halb dieser Portale günstiger an. Dies hat für sie den Vorteil, dass die Wahrschein-
lichkeit eines Verkaufs durch einen besseren Platz in der Reihung der Suchergeb-
nisse steigt. Nach der Weiterleitung vom Preisvergleichsportal auf die Seite des
Anbieters sieht der Kunde dann also einen Preis, der niedriger ist als derjenige, den
Kunden sehen, die die Seite direkt ansteuern.77 In diesem Fall hat der Kunde sich
wohl häug schon (zumindest auch) aufgrund des Preises für den Kauf bei einem
71 Arora/Dreze/Ghose u.a., Mark Lett 19 (2008), 305, 316f.
72 Kimes, The Cornell H.R.A.Quarterly 35 (1994), 22, 24; Xia/Monroe/Cox, Journal of Marketing
68 (2004), 1, 4f.
73 Schleusener, in: Stüber/Hudetz (Hrsg.), Praxis der Personalisierung im Handel, 2017, S.71, 84;
Xia/Monroe/Cox, Journal of Marketing 68 (2004), 1, 4 und 8f.
74 Vgl. Arora/Dreze/Ghose u.a., Mark Lett 19 (2008), 305, 317.
75 Xia/Monroe/Cox, Journal of Marketing 68 (2004), 1, 4 und 8f.
76 Kimes, The Cornell H.R.A.Quarterly 35 (1994), 22, 24.
77 Schleusener, in: Stüber/Hudetz (Hrsg.), Praxis der Personalisierung im Handel, 2017, S.71, 73.
Kapitel 7: Preispersonalisierung
125
bestimmten Händler entschieden, die Suche abgeschlossen und den Preisvergleich
beendet. Die Gefahr des Vorwurfs der „Kundenungleichbehandlung“ ist in dieser
Konstellation zwar weiterhin gegeben. Es ist aber eher unwahrscheinlich, dass diese
Praxis den Kunden auffällt.
Alternativ kann ein „offener Normverstoß“, den ein Anbieter durch personali-
sierte Preissetzungsmethoden begeht, aus Sicht der Verbraucher auch ganz oder zu-
mindest teilweise legitimiert sein. Es geht hier in erster Linie darum, wie der An-
bieter dem Kunden gegenüber die Preise kommuniziert und diesen mit den
Informationen versorgt, welche notwendig sind, um negative Kundenreaktionen
von vornherein zu unterbinden.78 Wenn dies gelingt, werden die negativen Effekte,
die das Unternehmen zu fürchten hat, abgeschwächt oder gänzlich aufgehoben.
Dies kann beispielsweise der Fall sein, wenn der Anbieter nachvollziehbare Gründe
für die Preisunterschiede präsentiert, sodass diese gar nicht als abzulehnende Un-
gleichbehandlung aufgefasst werden.79 Wenn Preisunterschiede begründet werden,
erhöht dies generell ihre Akzeptanz und sie werden von Kunden eher als „fair“ re-
zipiert. Der Anbieter kann z.B. versuchen zu suggerieren, dass die unterschied-
lichen Preishöhen die Folge ihm entstehender unterschiedlicher Kosten sind.80 Auch
lassen sich statusbezogene Rabatte, wie etwa solche für besonders treue Kunden
oder Senioren, schlüssig erklären.81 Stammkundenrabatt erfährt generell hohe Ak-
zeptanz.82 Die soziale Akzeptanz von Rabatten zugunsten bestimmter nanziell im
Durchschnitt schwächer gestellter Gruppen (Senioren, Studenten, Arbeitslose,
Schwerbehinderte etc.) ist bereits aus der analogen Welt im Kontext von Preisdis-
kriminierung 3. Grades hinlänglich bekannt.83 Es handelt sich um faktisch und so-
zial leicht nachvollziehbare Sachverhalte. Dies ermöglicht Anbietern die Um-
setzung dieser nanziellen Privilegierung.
Die Akzeptanz von Gruppenpreisen kommt allerdings dann an ihre Grenzen,
wenn Kunden den Preissetzungsmechanismus nicht nachvollziehen können und ihn
als intransparent empnden.84 Komplexe, undurchschaubare Preissetzungsme-
chanismen, an deren Ende individualisierte Preise stehen, wirken auf Kunden ab-
schreckend und zeitigen damit einen deutlich erhöhten Begründungsaufwand auf
Seiten des Anbieters. Zum einen fehlt diesen Preisen die leicht erkennbare soziale
Legitimation. Zum anderen kann die Methode, wie sie zustande kommen, auf die
Betroffenen aufgrund ihrer Intransparenz bedrohlich wirken. Der berechnete
Reservationspreis ist das Ergebnis einer Hochrechnung. Es handelt sich also um ein
indirekt ermitteltes personenbezogenes Datum, welches vom Betroffenen als sol-
ches nicht bewusst und freiwillig preisgegeben, sondern ohne sein Zutun berechnet
78 Xia/Monroe/Cox, Journal of Marketing 68 (2004), 1, 9.
79 Vgl. dazu auch Vaidyanathan/Aggarwal, J.Bus. Res. 56 (2003), 453, 461.
80 Vgl. Garbarino/Maxwell, J.Bus. Res. 63 (2010), 1066, 1071.
81 Vgl. Xia/Monroe, Journal of Economic Psychology 31 (2010), 884, 893.
82 Schleusener, in: Stüber/Hudetz (Hrsg.), Praxis der Personalisierung im Handel, 2017, S.71, 85.
83 Graef, Colum. J.Eur. L. 24 (2018), 541, 557; Townley/Morrison/Yeung, YEL 36 (2017), 683, 704.
84 Maggiolino, Bocconi Legal Studies Research Paper No. 2984840 2017, 1, 11.
III.Ablauf der Preissetzung nach dem 3-stugen Modell
126
wurde.85 Die Interaktion zwischen dem Kunden und dem Anbieter hat demnach eine
andere Qualität als eine (vom Kunden gewünschte) Preisanpassung aufgrund aktiv
mitgeteilter Informationen: Der Kunde hat sich weder „seinen“ Preis selber aus-
gesucht (wie es bei Preisdiskriminierung 2. Grades der Fall ist), noch hat er seine
Gruppenzugehörigkeit selber preisgegeben oder konnte die Zuordnung zu einer be-
stimmten, im Vorhinein denierten Gruppe im Vorfeld absehen (wie es bei Preisdis-
kriminierung 3. Grades der Fall ist).86 Der Kunde verliert damit die Kontrolle über
die Preisgestaltung, da diese ihm ohne seine Zustimmung „von außen“ aufoktroyiert
wird. Diese Form von „Objektivierung“ führt, sofern sie als solche wahrgenommen
wird, in aller Regel zu Ablehnung.87
Die Akzeptanz auf Kundenseite kann zudem nicht (nur) durch eine inhaltliche
Begründung des preislichen Unterschieds geschaffen werden, sondern auch durch
das Setzen verschiedener Anreize für Käufer aus verschiedenen Gruppen, so z.B. in-
dem Bestandskunden mit „Treuepunkten“ belohnt werden und Neukunden bei ihrer
ersten Bestellung einen „Neukundenbonus“ erhalten.88 Die de facto stattndende
Personalisierung wird damit verschleiert und wirkt aus Kundensicht nicht mehr wie
eine grundlose Ungleichbehandlung ansonsten „gleicher“ Kunden. Mit Blick auf
diese Beispiele ist es zudem bemerkenswert, dass die Kundenempndungen oft-
mals inkonsistent bzw. irrational sind. So bewerten Kunden Rabatte für Neukunden
gleichermaßen als fair wie Rabatte für besonders loyale Bestandskunden und ak-
zeptieren diese Art der Preispolitik– und dies, obwohl im ersten Fall die Bestands-
kunden mehr zahlen als Neukunden und im zweiten Fall weniger.89
Personalisierte Preissetzungsmethoden sind nicht unbedingt statisch und er-
schöpfen sich darin, einzelnen Kunden einmalig einen bestimmten Preis zuzu-
weisen und diesen dann „durchzusetzen“. Es handelt sich stattdessen häug um
exible Verfahren, wodurch Preise situativ– und vor dem Hintergrund des bereits
Gesagten auf möglichst subtile Art und Weise– angepasst werden können. So ver-
wenden Anbieter online zumeist Einheitspreise, welche grundsätzlich allen Web-
seitenbesuchern zunächst in gleicher Höhe angezeigt werden.90 Dies hat den Vorteil,
dass Preisanpassungen (unabhängig davon, wie sie umgesetzt werden) aus Kunden-
sicht in der Regel die Reduktion eines Referenzpreises darstellen.91 Diese Vor-
gehensweise verbinden Kunden grundsätzlich mit positiven Assoziationen. Die in-
dividualisierte Anpassung des Preises erfolgt somit indirekt. Oftmals anzutreffen
sind z.B.Rabatte, welche mittels Coupons/Gutscheinen oder anderen individuali-
85 Dies., Bocconi Legal Studies Research Paper No. 2984840 2017, 1, 11.
86 Dies., Bocconi Legal Studies Research Paper No. 2984840 2017, 1, 11.
87 Zur Thematik der Intransparenz automatisierter Verfahren vgl. Citron/Pasquale, Wash. L.Rev.
89 (2014), 1, 10f. (im Kontext von Kredit-Scoring).
88 Garbarino/Maxwell, J.Bus. Res. 63 (2010), 1066, 1070f.
89 Vgl. Townley/Morrison/Yeung, YEL 36 (2017), 683, 707f.
90 Diese mögen zwar aufgrund von dynamischer Preisgestaltung (als Ausdruck von Angebot und
Nachfrage) oder im Rahmen von A/B-Tests kurzfristig schwanken, dies stellt aber gerade keine
Personalisierung dar (siehe bereits oben Kap.7, I. 1.).
91 Vgl. Kimes, The Cornell H.R.A.Quarterly 35 (1994), 22, 24.
Kapitel 7: Preispersonalisierung
127
sierten Ermäßigungen eingeräumt werden. Wenn z.B. bei einem Kunden eine eher
höhere Preissensitivität vermutet wird, kann die Personalisierung des Preises da-
durch realisiert werden, dass dieser per E-Mail oder als Pop-up-Fenster in seinem
Browser einen Gutschein erhält, womit der letztlich tatsächlich verlangte Preis sei-
nem Reservationspreis entspricht oder sich diesem zumindest annähert. Ein Hin-
weis auf die erhöhte Preissensitivität eines Kunden und dementsprechender Anlass,
diesem einen Gutschein zukommen zu lassen, kann z.B. dann angenommen wer-
den, wenn dieser ein bestimmtes Produkt für einen längeren Zeitraum in seinem
Online- Warenkorb behält, den Kaufvorgang aber nicht abschließt.92
Solche exiblen Verfahren sind vor allem auch dann hilfreich, wenn zunächst nur
unzureichende Daten über die Preissensitivität eines Kunden vorliegen. Das Aus-
testen der individuellen Zahlungsbereitschaft kann dann z.B. dergestalt ablaufen,
dass einem erkennbar unentschlossenen Kunden, welcher mehrmals eine Seite be-
sucht hat, ohne dort etwas zu kaufen, ein Gutschein angeboten wird. Diese Vor-
gehensweisen haben für den Anbieter auch den Vorteil, dass die Personalisierung
der Preise von den Kunden nicht unbedingt als solche erkannt und das Vorgehen in
der Regel weder vom Kunden selbst noch von Dritten als unfair bewertet wird.93
Hinzu kommt, dass aus verhaltenspsychologischer Sicht ein „reduzierter Preis“,
also ein solcher, der von einem Referenzpreis (hier: der einheitlich angezeigte
Standardpreis) nach unten abweicht, einen besonderen, irrationalen Kaufanreiz
schafft.94 Die Personalisierung erfolgt dann also in Verbindung mit einer psycho-
logischen Beeinussung der Kunden.
b. Preishöhe
Der Anbieter muss abwägen, ob und ggf. inwieweit es die Umstände zulassen bzw.
gebieten, dass er im Einzelfall von seinem Einheitspreis– den er in Ermangelung
der Kenntnis des Reservationspreises sonst von jedem Kunden verlangen würde–
abweicht. Grundsätzlich lässt sich festhalten, dass (neben der zumindest groben
Kenntnis des Reservationspreises als Grundvoraussetzung) dabei vor allem die kon-
krete Wettbewerbssituation entscheidend ist. Die Höhe des verlangten Preises ent-
spricht mindestens den Kosten, die dem Anbieter selbst entstehen. Eine positive
Kaufentscheidung kann dieser grundsätzlich überhaupt nur erwarten, wenn der dem
Kunden angezeigte Preis höchstens dem ermittelten individuellen Reservationspreis
entspricht. Liegt dieser unter den Grenzkosten, ist ein Kauf grundsätzlich aus-
geschlossen– es sei denn, der Anbieter schafft es, auf den Kunden dergestalt Ein-
uss zu nehmen, dass sein Reservationspreis steigt (diese Situation wird an dieser
Stelle zunächst außen vor gelassen, d.h. der Reservationspreis wird als grundsätz-
lich xes Datum behandelt). Die gewählte Preishöhe hängt neben der wettbewerb-
lichen Situation in vielen Fällen vom gewählten Kommunikationsweg sowie ande-
92 Obergfell, ZLR 2017, 290, 293.
93 Vgl. Ezrachi/Stucke, Virtual Competition, 2016, S.111f.
94 Vgl. Kimes, The Cornell H.R.A.Quarterly 35 (1994), 22, 24.
III.Ablauf der Preissetzung nach dem 3-stugen Modell
128
ren situativen Aspekten ab. Bei dem genannten Beispiel eines zögernden, noch
unentschlossenen Kunden, welcher das Produkt erst kauft, sobald er eine Preis-
reduktion in Form eines Gutscheins erhält, ergibt sich die Annäherung an den
Reservationspreis über den „Umweg“ des Gutscheins beispielsweise gerade erst aus
diesem Zögern. Anbieter sind also teilweise auch darauf angewiesen, die Zahlungs-
bereitschaft mittels unmittelbarer Kundenkommunikation erst auszutesten.
In der Theorie wäre der Anbieter, sofern er den jeweiligen Reservationspreis
seiner Kunden kennt, bei rein ökonomischer, statischer Betrachtung in der Lage,
dank Personalised Pricing den Reservationspreis eines jeden Kunden in jeder Situ-
ation vollständig auszuschöpfen. Jeder Kunde würde das Maximum dessen be-
zahlen, was er zu zahlen bereit wäre. Dies hätte zur Folge, dass der Anbieter die
gesamte Konsumentenrente abgreifen kann. Diese Aussage ist lebensfern, denn sie
ist in ihrer Absolutheit nur in zwei Szenarien gültig, die beide zum heutigen Zeit-
punkt im Online-Handel in aller Regel nicht dauerhaft bzw. nicht in ausreichendem
Maße praktikabel sind. Die Analyse der Preishöhenbestimmung wählt hier dennoch
bewusst diesen hypothetischen Extremfall als Ausgangspunkt und untersucht,
warum er kaum eintreten kann. Auch wenn dieses Szenario in der Praxis kaum vor-
kommen wird, erlaubt diese Betrachtungsweise nämlich eine modellhafte, anschau-
liche Untersuchung der Rahmenbedingungen, denen sich Anbieter beim Prozess der
Preisgestaltung ausgesetzt sehen, und einen ersten Zugang zu Phänomenen, die im
Wettbewerbsprozess zutage treten können. Vor diesem Hintergrund wird vor allem
erkennbar, dass personalisierte Preise auf den Preiswettbewerb Einuss nehmen
und ihn intensivieren oder abschwächen können.95 Die genauen Auswirkungen hän-
gen von verschiedenen Faktoren ab und lassen sich deshalb nicht pauschal zu-
sammenfassen. Zugleich wird sich zudem zeigen, dass die Gefahr besteht, dass
unter bestimmten Voraussetzungen Rahmenbedingungen dafür entstehen können,
dass es im Kontext von personalisierten Preisen zu Absprachen zwischen Wett-
bewerbern oder auch zu bewusstem, wettbewerbsschädlichem Parallelverhalten bei
der Preissetzung kommt.
aa. Monopolsituation
Die erste Situation ist diejenige, dass der Anbieter eine Monopolstellung hält und
damit auf dem relevanten Markt der einzige Anbieter ist.96 Dies ist der „Lehrbuch-
fall“, der häug als ökonomisches Modell herangezogen wird, um Preisdis-
kriminierung zu erklären und zu untersuchen. Er erlaubt es, relativ leicht ihre
Auswirkungen mit Blick auf wirtschaftliche Efzienz, Wohlfahrt und Ver-
teilungsgerechtigkeit zu analysieren. Um eine Monopolstellung im Einzelfall
95 Townley/Morrison/Yeung, YEL 36 (2017), 683, 691–694.
96 Vgl. Bergmann/Fiedler, in: Loewenheim/Meessen/Riesenkampff u. a. (Hrsg.), Kartellrecht,
42020, Art.102 AEUV Rn.120 (im Kontext von Art. 102 AEUV). Nur das Innehaben eines ge-
wissen Grades an Marktmacht, nicht aber die Marktbeherrschung ist Voraussetzung dafür, Preis-
diskriminierung betreiben zu können (siehe bereits oben Kap.6, II. 1.).
Kapitel 7: Preispersonalisierung
129
feststellen zu können, müsste mithin eine Marktabgrenzung vorgenommen werden.
Das Vorliegen eines Monopols ist im Online-Handel beim Verkauf von Gütern und
Dienstleistungen an Endverbraucher allerdings nur in Ausnahmefällen tatsächlich
denkbar. Wahrscheinlicher ist stattdessen, dass unvollkommener Wettbewerb
herrscht, durchaus mit marktmächtigen Anbietern.97 Denkbar wäre ein (rechtliches)
Monopol in der Situation, dass der Anbieter Immaterialgüterrechte hält (etwa Pa-
tente, welche ihm die exklusive Produktion des Gutes erlauben).98 Generell würde
eine Monopolsituation Wettbewerber auf den Markt locken, die versuchen, ein
Substitut für das Monopolgut anzubieten.
Selbst wenn auf einem bestimmten Markt ein Monopol für eine bestimmte Art
von Gütern oder Dienstleistungen besteht, folgt daraus aber nicht, dass der Mono-
polist tatsächlich dauerhaft die Reservationspreise aller seiner Kunden ausreizen
kann. In diesem Fall wäre nämlich anzunehmen, dass sich ein Zweitmarkt für den
Weiterverkauf des Gutes entwickelt, sodass eine der drei Voraussetzungen von
Preisdiskriminierung – die Verhinderung des Weiterverkaufs des Gutes (Arbi-
trage)– gar nicht mehr gegeben wäre. Kunden mit niedrigerem Reservationspreis
könnten das Produkt kaufen und zu einem etwas höheren Preis an diejenigen Kun-
den verkaufen, die aufgrund ihres hohen Reservationspreises mehr dafür zu zahlen
bereit wären. Das Ausreizen des Preises wäre für den Monopolisten damit keine
dauerhaft gangbare Strategie. Diese Aussage ist nur gültig, sofern es sich nicht um
personalisierte Güter handelt oder um solche, die aus rechtlichen oder tatsäch-
lichen99 Gründen nicht weiterverkauft werden können. Hinzu kommt, dass Anbieter
in der Regel allerdings ohnehin eher nicht versuchen dürften, den Reservationspreis
komplett auszureizen. Die Bestimmungsverfahren – also das Proling – sind
systembedingt fehleranfällig. Es ist davon auszugehen, dass Anbieter einen „Puf-
fer“ einkalkulieren, um der Situation entgegenzuwirken, dass ein Preis gefordert
wird, der über dem Reservationspreis angesiedelt ist.100 Die Gründe hierfür sind
betriebswirtschaftlicher Natur: Die Situation, dass ein Kunde ein Produkt nicht
kauft, weil der verlangte Preis geringfügig über seinem Reservationspreis liegt (sog.
false positive101), führt dazu, dass der Anbieter keinen Gewinn macht. Liegt der ver-
langte und erhaltene Preis etwas unter dem Reservationspreis, lohnt sich das Ge-
schäft hingegen. Deshalb wird er eher einen niedrigeren Preis verlangen.102
Zu diesen ökonomischen Erwägungen kommen zudem verhaltenspsycho-
logische, in diesem Fall solche des Marketings hinzu: Aus Marketing-Gesichts-
punkten ist es für ein Unternehmen nicht empfehlenswert, seine Preispolitik immer
auf den höchstmöglichen (kurzfristigen) Gewinn auszurichten. Ein ausschließlich
97 Vgl. dazu auch Townley/Morrison/Yeung, YEL 36 (2017), 683, 691.
98 Vgl. Bergmann/Fiedler, in: Loewenheim/Meessen/Riesenkampff u. a. (Hrsg.), Kartellrecht,
42020, Art.102 AEUV Rn.122.
99 Hier ist vor allem an verderbliche oder anderweitig zeitkritische Waren zu denken.
100 Vgl. Organisation for Economic Co-operation and Development (OECD), Personalised Pricing
in the Digital Era, 2018, S.11 und Zurth, AcP 221 (2021), 514, 525.
101 Siehe dazu bereits oben Kap.2, III. 2.
102 Locher, ZWeR 16 (2018), 292, 303.
III.Ablauf der Preissetzung nach dem 3-stugen Modell
130
protorientiertes „Ausnutzen“ der Kunden stößt bei diesen auf starke Ablehnung
und kann, wenn es als solches erkannt wird, dem Unternehmen nachhaltig scha-
den.103 Auch wenn einzelne Kunden also einen hohen Reservationspreis aufweisen
und diesen im Einzelfall vielleicht auch tatsächlich zahlen würden, wird eine offen-
sichtliche, nicht gerechtfertigte Preispersonalisierung– vor allem auch von mit dem
Kunden bekannten Dritten und der Öffentlichkeit– als unfair betrachtet werden und
mittel- und langfristig dem Unternehmen schaden, da dieses dadurch das Vertrauen
seiner Kunden verlieren kann.104 Der bereits umrissene Amazon-Fall105 ist dafür das
beste Beispiel. Die mediale Kritik am Unternehmen war massiv und führte dazu,
dass Amazon.com sich zu einer öffentlichen Entschuldigung gezwungen sah, den
Betroffenen die entstandenen Differenzbeträge erstattete und versprach, diese Art
von Preispersonalisierung nicht mehr vorzunehmen.106 Der Vertrauensschaden, der
einem Unternehmen in einem solchen Fall droht, ist bedeutend.107 Dies unter-
streicht, dass Personalised Pricing häug nur über Umwege praktisch möglich ist.
Es wäre also verfehlt, davon auszugehen, dass der Reservationspreis des Kunden
ein xes, gegebenes Datum ist, an dem der Anbieter sich ohne Weiteres orientieren
kann. Stattdessen kann die individuelle Zahlungsbereitschaft beträchtlich und in
hoher Frequenz schwanken und hängt auch von externen Umständen des Einzelfalls
ab, deren jeweilige Bedeutung kaum vorhersehbar ist.108
Wenn stattdessen unvollkommener Wettbewerb herrscht, würde ein stetes voll-
ständiges Ausreizen des Reservationspreises bei dynamischer Betrachtungsweise
grundsätzlich dazu führen, dass Wettbewerber mit günstigeren Preisen in den Markt
ein- bzw. an den Kunden herantreten und der Anbieter seine Preise nicht dauerhaft,
sondern allenfalls für einen kurzen Zeitraum oder im Einzelfall ausreizen kann. Bei
unvollkommenem Wettbewerb kann die Intensität des Preiswettbewerbs – im
Gegensatz zu dem, was die statisch betrachtete Monopolsituation suggeriert
durchaus steigen, wenn Anbieter Preise personalisieren.109 Die Kunden protieren
dann von niedrigeren Preisen und einer generell gesteigerten Konsumentenwohl-
fahrt. Die genauen Auswirkungen auf die Höhe der verlangten Preise hängen aber
von verschiedenen komplexen Faktoren ab, wie etwa dem Umfang des Wissens
bzw. der personenbezogenen Daten, die den am Markt tätigen Anbietern über ihre
Kunden zur Verfügung stehen, der konkreten Markstruktur sowie der genauen
Kundenpräferenzen sowie Verhaltensweisen und Eigenschaften der Kunden.110
Dementsprechend kann die Intensität des Wettbewerbs auch absinken. Ein Aus-
reizen der Preise, wie es im Modell des Monopolisten, der von allen seinen Kunden
103 Siehe oben Kap.7, III. 3. a. bb.
104 Vaidyanathan/Aggarwal, J.Bus. Res. 56 (2003), 453. U.a. aus diesem Grund kommt das Prinzip
von Angebot und Nachfrage in der Praxis oftmals nur eingeschränkt zum Tragen.
105 Siehe oben Kap.7, IV. 2. a.
106 Miller, J.Tech. L. & Pol 19 (2014), 41, 48.
107 Vgl. Paal, GRUR 2019, 43, 48 (in Fußnote 72 auch auf den Amazon-Fall bezugnehmend).
108 Locher, ZWeR 16 (2018), 292, 303.
109 Townley/Morrison/Yeung, YEL 36 (2017), 683, 691–694.
110 Vgl. dies., YEL 36 (2017), 683, 691–697 m.w.N.
Kapitel 7: Preispersonalisierung
131
die Reservationspreise kennt, skizziert wird, ist dennoch in kaum einer Situation in
bedeutendem Umfang denkbar. Sobald Wettbewerber niedrigere Preise anbieten, ist
der Anbieter über kurz oder lang gezwungen, nachzuziehen– dieser Faktor be-
schränkt de facto seine Preissetzungsfreiheit.111 Kunden haben zahlreiche einfache
Möglichkeiten, die Preise der verschiedenen am Markt aktiven Anbieter zu ver-
gleichen, wie etwa die Nutzung von Preisvergleichswebseiten oder „ShopBots“.
Ein großer Teil von ihnen nimmt diese auch wahr.112 Vor allem diese Transparenz
schränkt die Möglichkeiten des Anbieters, personalisierte Preise einzusetzen, be-
deutend ein.113 Je nach Wettbewerbsintensität auf dem Markt für das verkaufte Gut
wird der tatsächlich erzielbare Preis also niedriger liegen, als es der Reservations-
preis des Einzelnen vielleicht vermuten lässt.114 Es kann damit festgehalten werden,
dass die Kenntnis des Reservationspreises nicht per se, sondern allenfalls in be-
sonders gelagerten Ausnahmefällen mit der tatsächlichen Fähigkeit einhergeht, die-
sen auch gänzlich abschöpfen zu können.
bb. Koordinierungssituation
Die zweite hypothetische Situation, in der ein Anbieter in der Lage ist, den
Reservationspreis einzelner Kunden jederzeit voll auszuschöpfen, ist anders ge-
lagert als das zuvor beschriebene Szenario. Sie stellt– zumindest zum jetzigen Zeit-
punkt– eher ein Gedankenspiel dar. Dennoch darf dieses angesichts des Fortgangs
der technischen Entwicklung nicht unerwähnt bleiben. Zudem erlaubt das Skizzie-
ren dieses „Extremfalls“ den Blick auf realistischere Szenarien.
Gemeint ist der Fall, dass alle Wettbewerber genauso verfahren wie der Anbieter
und von jedem Kunden immer genau dessen Reservationspreis verlangen. Der
einzelne Kunde wird immer mit dem gleichen Preis konfrontiert, wobei dieser von
Person zu Person schwanken kann. Hier wird also eine ganz andere Ausgangslage
skizziert als bei der zuvor beschriebenen Situation eines Monopolanbieters. Dort
wurde angenommen, dass nur der Anbieter das Produkt überhaupt anbieten kann
und darauf aufbauend analysiert, welche Beschränkungen „von außen“– sprich:
herrschende Wettbewerbsbedingungen und befürchtete Kundenrezeption – ihn
daran hindern, die Konsumentenrente gänzlich abzuschöpfen. Die nun analysierte
Situation geht hingegen von mindestens zwei Anbietern aus, die an sich zueinander
im Wettbewerb stehen, dennoch aber im Ergebnis den gleichen Preis für das gleiche
Gut verlangen und dabei die Zahlungsbereitschaft der Kunden ausreizen können.
Diese Konstellation hat zwei Voraussetzungen, die kumulativ erfüllt sein müss-
ten. Zunächst müssten alle Wettbewerber Zugriff auf das identische kundenbezogene
111 Schleusener, in: Stüber/Hudetz (Hrsg.), Praxis der Personalisierung im Handel, 2017, S.71, 80.
112 Vgl. dazu z.B. Competition and Markets Authority (CMA), Digital Comparison Tools Market
Study, 2017, S.22ff.
113 Schleusener, in: Stüber/Hudetz (Hrsg.), Praxis der Personalisierung im Handel, 2017, S.71, 81.
114 Vgl. dazu auch Stole, in: Armstrong/Porter (Hrsg.), Handbook of Industrial Organization, 2007,
S.2221, 2229f.
III.Ablauf der Preissetzung nach dem 3-stugen Modell
132
Datenmaterial haben und diese Daten mit dem gleichen Ergebnis auswerten– oder
aus anderen Gründen allesamt Kenntnis des Reservationspreises jedes relevanten
Kunden haben.115 Die zweite Voraussetzung wäre, dass alle Anbieter zudem den
Reservationspreis gänzlich ausreizen. Dass beide Voraussetzungen vorliegen, ist in
dieser extremen Form allenfalls in wenigen, speziellen Ausnahmefällen vorstellbar.
Hinzu kommt, dass die beschriebene Konstellation neue Wettbewerber auf den
Markt locken würde, die versuchen, die Preise ihrer Konkurrenten zu unterbieten.
Mit Blick auf die notwendige anbieterübergreifende Kenntnis des Reservations-
preises ist festzuhalten, dass grundsätzlich nicht allen Anbietern am Markt die glei-
chen Informationen über jeden Kunden zur Verfügung stehen. Die für die Preis-
personalisierung zwingend notwendigen personenbezogenen Daten sind nicht frei
verfügbar, sondern unterschiedlich zwischen den Anbietern verteilt.116 Sie müssen
vom Anbieter erst gesammelt oder anderweitig beschafft werden, z.B. durch Kauf
der Daten oder etwa auch mittels eines Zusammenschlusses. Die datenschutzrecht-
lichen Vorgaben setzen dieser Art von Datenverarbeitung und -handel rechtliche
Grenzen und behindern den Transfer personenbezogener Daten. Zwar ndet ein
Austausch von bzw. Handel mit Daten zwischen Unternehmen durchaus statt.117
Um Preispersonalisierung auf breiter Front mit Wirkung gegenüber jedem Kunden
zu etablieren, müssten aber für jeden einzelnen Kunden spezische Daten getauscht
werden, nämlich der Reservationspreis als solches oder ein Kundenprol, das die
zuverlässige Berechnung des Reservationspreises erlaubt. Unabhängig von der gro-
ßen Menge an qualitativ hochwertigen Daten, die für die Berechnung des
Reservationspreises notwendig sind, wäre dies datenschutzrechtlich mit Blick auf
Art.6 I S. 1 DSGVO kaum in zulässiger Weise zu realisieren und zudem kartell-
rechtswidrig (vgl. Art.101 AEUV bzw. §1 GWB). Auch wäre es allein schon aus
technischen Gründen kaum möglich, da sich das bereits beschriebene Problem der
eindeutigen Identikation einzelner Kunden118 stellen würde. Unabhängig von die-
sen rechtlichen Rahmenbedingungen wären viele Unternehmen auch gar nicht un-
bedingt bereit, diese Art von Daten mit ihren Wettbewerbern zu teilen, da die darin
enthaltenen Kundeninformationen einen Wettbewerbsvorteil darstellen. Das Aus-
maß, mit dem ein Anbieter Kundendaten sammelt, ist eine strategische Ent-
scheidung. Es kann demnach davon ausgegangen werden, dass Anbieter primär
Kenntnis über ihre eigenen Kunden haben, nicht aber über die ihrer Konkurren-
ten.119 Die notwendigen kundenbezogenen Informationen sind damit grundsätzlich
nicht allen Wettbewerbern ohne Weiteres zugänglich. Insofern herrscht zwischen
den Anbietern Informationsasymmetrie. Dies ist für den einzelnen Kunden tenden-
ziell durchaus nachteilig, denn die beschriebene Situation schränkt ihm gegenüber
115 Vgl. Schleusener, in: Stüber/Hudetz (Hrsg.), Praxis der Personalisierung im Handel, 2017,
S.71, 80.
116 Vgl. dazu auch Paal, GRUR 2019, 43, 45.
117 Vgl. dazu beispielsweise Competition and Markets Authority (CMA), The Commercial Use of
Consumer Data, 2015, S.37ff.
118 Siehe bereits oben Kap.7, III. 3. a. aa.
119 Vgl. Townley/Morrison/Yeung, YEL 36 (2017), 683, 696f.
Kapitel 7: Preispersonalisierung
133
den Preiswettbewerb ein: Je mehr Anbieter seinen Reservationspreis (zumindest
näherungsweise) kennen, desto wahrscheinlicher ist es, dass sie versuchen werden,
sich jeweils preislich zu unterbieten.120
Um die eingangs beschriebene Situation der anbieterübergreifenden Ausreizung
des Reservationspreises zu erreichen, müssten zudem entweder alle Anbieter immer
mit dem ausschließlichen Ziel der Gewinnmaximierung arbeiten (d.h. als Auto-
matismus den Reservationspreis tatsächlich in voller Höhe vom Kunden verlangen)
oder sie müssten sich über den verlangten Preis in kartellrechtswidriger Weise ab-
sprechen bzw. mithilfe von Preissetzungssoftware oder entsprechender Dienstleister
zum gleichen Preis kommen.
Der erste Unterfall (das Ausreizen des Preises per se) unterstellt, dass Unter-
nehmen die erkannte Preisspanne vollständig ausnutzen. Unter Wettbewerbs-
bedingungen kann der Anbieter seine Preise aber gerade nicht gänzlich frei setzen.
Wettbewerb schlägt sich grundsätzlich in den Preisen nieder: Jeder Anbieter wird
bei seiner Preissetzung durch die Preise seiner Wettbewerber beeinusst und be-
schränkt. Hinzu kommt, dass nicht jeder Anbieter zwangsläug stets mit dem Ziel
der Gewinnmaximierung handelt. Es ist z.B. durchaus denkbar, dass es einem An-
bieter (zunächst) primär darum geht, seinen Absatz auszuweiten, um sich auf einem
bestimmten Markt zu etablieren.121 Aufschlussreich ist in diesem Zusammenhang
auch der Blick auf die USA.Bis zum Erlass des (nur in Kalifornien gültigen) Cali-
fornia Consumer Privacy Act im Jahre 2018 gab es dort weder auf Bundesebene
noch auf Ebene der einzelnen Bundesstaaten ein generell anwendbares Daten-
schutzgesetz nach europäischem Vorbild. Stattdessen wurde auf sektorspezische
Datenschutzregulierung gesetzt.122 Dementsprechend war es lange Zeit möglich
(und ist es in den meisten US-Bundesstaaten auch heute noch), personenbezogene
Daten weitgehend frei von regulatorischen Einschränkungen zu verarbeiten. Daten-
austausch und -handel fanden zumindest bisher in großem Umfang auch tatsächlich
statt, vor allem mittels sog. Data Broker, die als Intermediäre agieren.123 Dennoch
ist nicht bekannt, dass Personalised Pricing gegenüber Endverbrauchern dort häu-
ger zum Einsatz gekommen ist als in Ländern der Europäischen Union. Von einem
ächendeckenden Einsatz personalisierter Preise, wie er hier skizziert wird, kann
erst recht keine Rede sein.
Der zweite Unterfall betrifft Situationen, in denen die Anbieter sich über die ver-
langten Preise aktiv absprechen oder sich in einer wettbewerblichen Situation be-
nden, in der aus anderen Gründen auch ohne Absprache die Preise über den Wett-
bewerbspreis steigen. Aktive anbieterübergreifende Preisabsprachen – die etwa
mittels Software umgesetzt werden – wären denkbar.124 Allerdings wären sie
120 Vgl. dies., YEL 36 (2017), 683, 695. Zu den ökonomischen Auswirkungen von Datenschutz-
regulierung vgl. auch grundlegend Shy/Stenbacka, J.Econ. Manag. Strategy 25 (2016), 539ff.
121 Schleusener, in: Stüber/Hudetz (Hrsg.), Praxis der Personalisierung im Handel, 2017, S.71, 80.
122 Siehe dazu bereits oben Kap.2, I. 2.
123 Vgl. Federal Trade Commission, Data Brokers– A Call for Transparency and Accountability,
2014 passim.
124 Siehe dazu grundlegend Ezrachi/Stucke, Virtual Competition, 2016, S.39ff.
III.Ablauf der Preissetzung nach dem 3-stugen Modell
134
offensichtlich kartellrechtlich unzulässig und bußgeldbewehrt (vgl. Art.101 AEUV
bzw. §1 GWB). Zudem wäre die technische Umsetzung und Koordinierung in
vielerlei Hinsicht äußerst schwierig. Aus diesen Gründen wird hier davon aus-
gegangen, dass sich keine bedeutende Zahl an Anbietern nden würde, die sich
tatsächlich an einer derartigen Absprache, die mit personalisierten Preisen ge-
koppelt ist, beteiligen würde und in technischer Hinsicht auch könnte.125
Interessanter ist die Frage, welche Auswirkungen algorithmenbasierte, auto-
matisierte Preissetzungsmethoden auf die Preishöhe im Einzelfall und bezogen auf
den Durchschnitt der Kunden haben können. Dynamische Preissetzungsmethoden
sind im Online-Handel heutzutage weit verbreitet. Sie erlauben es den Anbietern,
ihre Preise laufend und mit hoher Frequenz an Angebot und Nachfrage anzupassen
und dabei auch die von den Wettbewerbern verlangten Preise in Echtzeit zu berück-
sichtigen. Vor allem diese, aber auch ähnliche Konstellationen werden im kartell-
rechtlichen Schrifttum unter dem Stichwort Algorithmic Pricing diskutiert.126 Die
Diskussion bezieht sich dort nicht primär auf personalisierte Preise, sondern wird
eher mit Blick auf die Frage geführt, welche kartellrechtlichen Implikationen von
Algorithmen gesteuerte Preissetzungsmethoden aufweisen. Diskutiert wird, wie Al-
gorithmic Pricing einzuordnen ist, etwa als (grundsätzlich kartellrechtswidrige)
Absprache oder als (grundsätzlich zulässiges) bewusstes Parallelverhalten. Die Dis-
kussion bezieht sich zumeist auf die technischen Hintergründe bzw. abzusehenden
Entwicklungen, auf die Anwendbarkeit des Kartellrechts und auf die Frage, in-
wiefern es geboten ist (oder in Zukunft werden könnte), etwaige Regelungslücken
zu schließen. Im Kern geht es darum, ob bzw. inwiefern auf Algorithmen basierende
Preissetzungsmethoden den Preiswettbewerb beeinussen (können) und welche
Folgen dies für die verschiedenen Marktteilnehmer hat.
cc. Tacit Collusion als Folge algorithmenbasierter Preissetzungsmethoden?
Inspiriert von den zuvor angerissenen Diskussionen lassen sich Überlegungen im
Kontext von personalisierten Preisen im Online-Handel anstellen. Wenn man unter-
stellt, dass alle Anbieter (oder zumindest eine bedeutende Anzahl von ihnen) den
Reservationspreis eines konkreten Kunden für ein bestimmtes Gut kennen und ihm
gegenüber bezüglich der Preishöhe in Wettbewerb treten, wäre dies aus Sicht der
Anbieter eine besondere Situation. Die Marktgegenseite– auf der sich die Kunden
benden– wäre in diesem Fall besonders, denn die Anbieter stünden im Wettbewerb
um den konkreten, einzelnen Kunden, der Interesse an einem bestimmten, vom An-
bieter angebotenen Produkt hat. Anders formuliert besteht die Nachfragerseite hier
also aus einem Mosaik zahlreicher einzelner Kunden, die einzeln „umworben“ wer-
den. Aufgrund der Möglichkeit der Preispersonalisierung ergibt sich hier also ein
anderes Bild als in den Fällen, in denen dies nicht möglich ist. Die Anbieter segmen-
125 Vgl. dazu Competition and Markets Authority (CMA), Pricing Algorithms, 2018, S.43f.
126 Vgl. Ezrachi/Stucke, U.Ill. L.Rev. 2017 (2017), 1775ff.; Mehra, Minn. L.Rev. 100 (2016),
1323ff.; Paal, GRUR 2019, 43ff.
Kapitel 7: Preispersonalisierung
135
tieren die Marktgegenseite nicht mit „herkömmlichen“ Methoden, also etwa mittels
grob pauschalierter Gruppenpreise, sondern mit unmittelbar personalisierten Prei-
sen. Dies bedeutet, dass ein Preiswettbewerb dem einzelnen Kunden gegenüber ent-
stehen müsste, da jeder Anbieter ein Interesse daran hat, seine Wettbewerber zu
unterbieten. Denkbar wäre auch– und unter Efzienzgesichtspunkten zu begrüßen–
eine Steigerung des Absatzes, die sonst ohne Preispersonalisierung nicht eingetreten
wäre. Dies wäre der Fall, wenn der Reservationspreis des Kunden unter dem Preis
liegt, der sich ohne Preispersonalisierung einpendeln würde, aber für die Anbieter
immer noch Gewinn generiert.
Bemerkenswert ist die Fragestellung, wie diese Situation sich konkret auf das
Preisniveau den einzelnen Kunden gegenüber auswirken würde. Wenn alle Wett-
bewerber wissen, welchen Preis der konkrete, einzelne Kunde zu zahlen bereit ist,
löst sich die Bestimmung des von ihm verlangten Preises möglicherweise vom nor-
malen Wettbewerbsgefüge. Da Wettbewerb stattndet, kann an sich davon aus-
gegangen werden, dass der Preis sich tendenziell unter dem Reservationspreis des
Kunden ansiedelt. Dies liegt daran, dass jeder Anbieter grundsätzlich ein Interesse
daran hat, seine Konkurrenten beim Preis zu unterbieten.
Mit Blick auf die Preishöhe wäre zudem unter bestimmten Umständen eine be-
sondere Konstellation denkbar, welche dazu führt, dass der vom einzelnen Kunden
verlangte Preis im Vergleich zum Wettbewerbspreis ansteigt. Gemeint ist der Fall
koordinierter Effekte, welche das Ergebnis eines bewussten, erlaubten Parallelver-
haltens sind. Dieses Phänomen ist unter dem Begriff Tacit Collusion bekannt.127 Der
klassische Fall ist der, dass ein Oligopol einiger weniger, typischerweise ungefähr
gleich marktstarker Wettbewerber ohne sich abzusprechen in ein bewusstes Parallel-
verhalten eintritt und in der Folge die Intensität des Wettbewerbs zum Nachteil der
Kunden dämpft.128 Die Wettbewerber entscheiden sich in dieser Situation aufgrund
(spieltheoretischer) Überlegungen dahingehend, wie ihre jeweiligen Wettbewerber
sich verhalten werden, von echtem Wettbewerb abzusehen. Sie haben in dieser Kon-
stellation keinen Anreiz, den Preis ihrer Wettbewerber zu unterbieten, da sie davon
ausgehen müssen, dass die übrigen Wettbewerber dementsprechend nachziehen und
so mittelfristig für alle Beteiligten der Marktanteil gleich bleibt, der Gewinn aber
(aufgrund des von allen Beteiligten abgesenkten Preises) sinkt.129 Tacit Collusion
kommt grundsätzlich nur in oligopolistisch geprägten, konzentrierten Märkten
vor.130 Zwingend notwendig ist, dass hohe Markttransparenz herrscht. Ansonsten
wäre es für die Oligopolisten nicht möglich, Wettbewerbsvorstöße der anderen zu
127 Vgl. anschaulich Ezrachi/Stucke, Virtual Competition, 2016, S.56ff.
128 Thomas, in: Immenga/Mestmäcker (Hrsg.), Band 2. GWB – Kommentar zum Deutschen
Kartellrecht, 52014, §36 Rn.303f. (im Kontext der Fusionskontrolle).
129 Ders., in: Immenga/Mestmäcker (Hrsg.), Band 2. GWB– Kommentar zum Deutschen Kartell-
recht, 52014, §36 Rn.306f.
130 Freilich kann aus der Existenz eines Oligopols nicht per se auf das Vorliegen von „Tacit Collu-
sion“ geschlossen werden. Im Gegenteil gibt es viele oligopolistische Märkte, auf denen starker
Wettbewerb herrscht (ders., in: Immenga/Mestmäcker (Hrsg.), Band 2. GWB– Kommentar zum
Deutschen Kartellrecht, 52014, §36 Rn.307).
III.Ablauf der Preissetzung nach dem 3-stugen Modell
136
entdecken.131 Dies ist am ehesten bei homogenen Massengütern der Fall und weni-
ger bei personalisierten Produkten.132 Zudem müssen die Wettbewerber das Poten-
zial haben, Abweichler schnell zu „bestrafen“ oder, anders formuliert, schnell preis-
lich nachzuziehen, sodass dieser Wettbewerber seinen Marktanteil nicht dauerhaft
ausbauen kann.133 Der wettbewerbsschädliche Effekt liegt gerade darin begründet,
dass es sich für Wettbewerber angesichts der drohenden Gegenmaßnahmen der an-
deren nicht lohnt, in einen echten Preiswettbewerb einzutreten, sondern dass statt-
dessen stillschweigend, ohne direkte Absprache, ein mehr oder weniger einheit-
licher Preis akzeptiert und auf „echten“ Wettbewerb verzichtet wird.
Es ist denkbar, dass im Kontext von algorithmenbasierten, personalisierten Prei-
sen in bestimmten, seltenen Konstellationen neue Formen von Tacit Collusion auf-
treten und zu tendenziell höheren Preisen für Endverbraucher führen.134 Eine
Schlüsselrolle spielt hierbei der Einsatz von Algorithmen, welche in der Lage sind,
Preise in Echtzeit zu vergleichen und ggf. unmittelbar und automatisiert auf Preis-
änderungen zu reagieren.135 Im E-Commerce werden oftmals homogene Güter
(etwa Verbrauchsgüter des täglichen Bedarfs) bzw. leicht vergleichbare Dienst-
leistungen (etwa Flugreisen auf einer bestimmten Strecke) gehandelt. Das Vorliegen
eines Oligopols und konzentrierter Märkte ist zumindest in einigen Sektoren denk-
bar. Hinzu kommt, dass im digitalen Umfeld Tacit Collusion tendenziell auch in
Märkten mit einer größeren Anzahl an Wettbewerbern denkbar wird.136 Das erfolg-
reiche Geschäftsmodell von Preisvergleichsportalen zeigt, dass es grundsätzlich
möglich ist, ein konkretes Gut, welches von mehreren Anbietern angeboten wird,
131 Ders., in: Immenga/Mestmäcker (Hrsg.), Band 2. GWB– Kommentar zum Deutschen Kartell-
recht, 52014, §36 Rn.307.
132 Ders., in: Immenga/Mestmäcker (Hrsg.), Band 2. GWB– Kommentar zum Deutschen Kartell-
recht, 52014, §36 Rn.331.
133 Ders., in: Immenga/Mestmäcker (Hrsg.), Band 2. GWB– Kommentar zum Deutschen Kartell-
recht, 52014, §36 Rn.357.
134 Vgl. dazu umfassend Ezrachi/Stucke, Virtual Competition, 2016, S. 56ff. (und, darauf auf-
bauend, dies., Nw. J.Tech. & Intell. Prop. 17 (2020), 217ff.) sowie Organisation for Economic
Co-operation and Development (OECD), Algorithms and Collusion– Competition Policy in the
Digital Age, 2017 passim.
135 Vgl. Ezrachi/Stucke, Nw. J.Tech. & Intell. Prop. 17 (2020), 217, 225; Organisation for Econo-
mic Co-operation and Development (OECD), Algorithms and Collusion– Competition Policy in
the Digital Age, 2017, S.34.
136 In einem Oligopol ist der Markt grundsätzlich eher „übersichtlich“ strukturiert. Dieser Umstand
fördert (bzw. ermöglicht erst) ein bewusstes Parallelverhalten der Wettbewerber. Es wäre denkbar,
dass Preissetzungsalgorithmen auch in „komplexeren“ Märkten den Eintritt in ein bewusstes
Parallelverhalten ermöglichen (vgl. Ezrachi/Stucke, Nw. J.Tech. & Intell. Prop. 17 (2020), 217,
228f.). Vgl. dazu auch Organisation for Economic Co-operation and Development (OECD), Al-
gorithms and Collusion– Competition Policy in the Digital Age, 2017, S.35: „[A]lgorithms might
affect some characteristics of digital markets to such an extent that tacit collusion could become
sustainable in a wider range of circumstances possibly expanding the oligopoly problem to
non-oligopolistic market structures.“ Ein gewisses Maß an Marktkonzentration wird aber wohl in
allen Fällen zwingend sein. Ansonsten könnten Dritte– vor allem neu in den Markt eintretende
Wettbewerber– sich mit niedrigeren Preisen Marktanteile sichern bzw. ausbauen.
Kapitel 7: Preispersonalisierung
137
systematisch über den Faktor „Preis“ zu vergleichen.137 Die Markttransparenz kann
durch den Einsatz von Algorithmen massiv erhöht werden, da diese in der Lage
sind, konstant die Preise anderer Anbieter zu beobachten. Sie können Wettbewerbs-
vorstöße von Konkurrenten, die sich nicht an die „Gruppendisziplin“ halten, somit
in kürzester Zeit registrieren und unmittelbar mit Preisänderungen reagieren.
Es bleibt fraglich, unter welchen Bedingungen Tacit Collusion tatsächlich ein-
treten kann und mit dem Effekt einhergeht, dass die Preise einzelnen Kunden gegen-
über tatsächlich steigen und für eine gewisse Zeit auf einem stabilen Preisniveau
verharren– bzw. ob dies überhaupt der Fall sein wird.138 Die diesbezügliche Dis-
kussion wird in der Wissenschaft und seitens der Kartellbehörden139 kontrovers ge-
führt und erlaubt zum jetzigen Zeitpunkt noch keine abschließende Beurteilung.
Nach jetzigem Kenntnisstand kann algorithmenbasierte Tacit Collusion, wenn über-
haupt, nur in seltenen Ausnahmefällen tatsächlich eintreten und stellt damit eine
Randerscheinung dar. Neben den bereits genannten Voraussetzungen (hohe Trans-
parenz auf einem stark konzentrierten Markt und Möglichkeit der wettbewerblichen
Gegenreaktion) gibt es weitere Bedingungen, die für ein derartiges, stabiles Parallel-
verhalten erfüllt sein müssen. So kann die Stabilität des Parallelverhaltens nur ge-
währleistet sein, wenn Dritte dieses nicht beeinträchtigen können. Letzteres wäre
aber der Fall, wenn z.B. Kunden auf alternative Produkte ausweichen oder neue
Wettbewerber in den Markt eintreten können.140 Es wäre auch durchaus denkbar,
dass sich auf Kundenseite Möglichkeiten ergeben, negativen Effekten gegenzu-
steuern, wie etwa Endverbraucherpreisen, welche in Folge von Algorithmic Pricing
angestiegen sind. Durch den Einsatz geeigneter Software könnten Kunden bei-
spielsweise Preispersonalisierungsmethoden der Anbieter zu ihrem Vorteil aus-
nutzen.141 Auch ist Markttransparenz bei personalisierten Preisen nicht zwangsläu-
g gegeben: Sofern etwa alle– bzw. manche– Kunden auf der Webseite eines
137 Siehe dazu auch European Commission, Final Report on the E-Commerce Sector Inquiry (Com-
mission Staff Working Document), 2017, S.175: „Price monitoring software can provide a high
level of granularity, scope and immediate access to pricing data. For instance, some software
allows companies to monitor several hundred websites extremely rapidly, if not in real time.“
138 Ezrachi/Stucke, Nw. J.Tech. & Intell. Prop. 17 (2020), 217, 228f.
139 Competition and Markets Authority (CMA), Pricing Algorithms, 2018, S.25 ff.; Monopol-
kommission, Wettbewerb 2018 – XXII. Hauptgutachten der Monopolkommission gemäß §44
Abs.1 Satz 1 GWB, 2018, S.62ff.
140 Vgl. Ezrachi/Stucke, Nw. J.Tech. & Intell. Prop. 17 (2020), 217, 228.
141 Siehe dazu die Überlegungen (im Kontext des von den Autoren geprägten Begriffs „Algorithmic
Consumer“) von Gal/Elkin-Koren, Harv. J.L. & Tech. 30 (2017), 309, 331f.: „Algorithmic buying
groups may reduce the ability of suppliers to learn about, or to use to their advantage, information
regarding each user’s preferences by aggregating the choices of different consumers into one vir-
tual buyer (what might be called anonymization through aggregation). Indeed, once consumers are
aggregated into sufciently large consumer groups, suppliers will lose the ability to collect infor-
mation on individual consumers’ preferences with regard to products bought through the group
and to discriminate among them based on each consumer’s elasticity of demand. Vgl. aber auch
Zurth, AcP 221 (2021), 514, 532f., der vermutet, dass Kunden bei einem „technischen Wettrüsten“
im Kontext von Preispersonalisierung langfristig nur verlieren können. Eher kritisch auch Henne-
mann, AcP 219 (2019), 818, 852f. („(vielleicht noch) kein Allheilmittel“).
III.Ablauf der Preissetzung nach dem 3-stugen Modell
138
Anbieters einen personalisierten Preis angezeigt bekommen, ist die Vergleichbar-
keit aus Sicht der Wettbewerber erschwert oder sogar unmöglich (dies gilt natürlich
nicht im Falle eines aktiven Informationsaustauschs).142 Sie können aber nur in ein
bewusstes Parallelverhalten eintreten, wenn sie wissen, welchen Preis ihre Wett-
bewerber einem bestimmten Kunden gegenüber für einen bestimmten Kaufgegen-
stand verlangen. Auch ist es nicht selbstverständlich, dass Anbieter in der Lage sein
werden, die wettbewerblichen Handlungen ihrer Konkurrenten mit der notwendigen
Genauigkeit vorherzusagen. Algorithmen sind dazu zwar grundsätzlich besser in
der Lage als menschliche Entscheider.143 Das Treffen präziser Vorhersagen dürfte
aber gerade bei komplexer strukturierten Märkten oftmals schwierig oder kaum
möglich sein, zumal dafür u.a. Zugriff auf enorm große, vielfältige Datenmengen
nötig ist.144 Auch ndet Wettbewerb nicht nur über den Preis statt. Etablierte An-
bieter genießen oftmals bei ihren Kunden einen Vertrauensvorsprung und haben
allein deshalb mehr Spielraum bei der Preissetzung als andere.
Zudem spielen verschiedene, weitergehende Aspekte im Kontext von Tacit Col-
lusion eine Rolle, deren Entwicklung zum heutigen Zeitpunkt aber kaum absehbar
ist. Eine Schlüsselfrage dürfte die Rolle von Intermediären spielen, auf die Anbieter
zurückgreifen, um Preise zu personalisieren bzw. anderweitig festzusetzen. Eine
Sektor-Untersuchung im Bereich „elektronischer Handel“ der Europäischen Kom-
mission hat ergeben, dass von 1051 befragten Händlern ungefähr die Hälfte die
Online-Preise ihrer Wettbewerber verfolgen.145 Für die Erledigung dieser Aufgabe
kommt u.a. speziell dafür gemachte Software zum Einsatz, welche von den An-
bietern (bzw. den Herstellern der Produkte) selber geschaffen oder von darauf spe-
zialisierten Drittanbietern zur Verfügung gestellt wird. Die Anpassung der eigenen
Preise an die der Wettbewerber ndet dann manuell bzw. ganz oder teilweise auto-
matisiert statt. Der Einsatz von Preisbeobachtungs- und Preissetzungssoftware birgt
grundsätzlich die Möglichkeit der aktiven oder stillschweigenden Kollusion, da die
Software als Intermediär den Informationsaustausch deutlich erleichtert (bzw. über-
haupt erst ermöglicht).146
Ein weiterer unklarer Aspekt in diesem Kontext ist die Frage, wem gegenüber
sich Tacit Collusion tatsächlich auswirken könnte. Fraglich ist, ob sie („nur“) zu
erhöhten Einheitspreisen führen würde, welche dann von allen Kunden verlangt
142 Competition and Markets Authority (CMA), Pricing Algorithms, 2018, S.44f. Vgl. dazu Jo-
hannsen, Conscious Parallelism and Price Discrimination in the Era of Algorithms: A Case of
collective Abuse of Dominance?, 2017, S. 36, der in diesem Kontext verschiedene Fall-
gruppen bildet.
143 Vgl. Ezrachi/Stucke, Nw. J.Tech. & Intell. Prop. 17 (2020), 217, 226; Organisation for Econo-
mic Co-operation and Development (OECD), Algorithms and Collusion– Competition Policy in
the Digital Age, 2017, S.22.
144 Vgl. zur notwendigen Infrastruktur Organisation for Economic Co-operation and Development
(OECD), Algorithms and Collusion– Competition Policy in the Digital Age, 2017, S.45.
145 European Commission, Final Report on the E-Commerce Sector Inquiry (Commission Staff
Working Document), 2017, S.175–177.
146 Dass., Final Report on the E-Commerce Sector Inquiry (Commission Staff Working Docu-
ment), 2017, S.176.
Kapitel 7: Preispersonalisierung
139
werden (horizontale Betrachtung), oder ob auch Konstellationen der Preis-
personalisierung denkbar sind, die dazu führen, dass verschiedene Kunden ver-
schiedene, aufgrund des Parallelverhaltens ggf. erhöhte Preise angezeigt bekommen.
Ein derart „zersplittertes“ Preisgefüge würde aber die für Tacit Collusion zwingend
notwendige Markttransparenz derart absenken, dass stabile koordinierte Effekte
kaum mehr auftreten können.147 Der letztgenannte Fall dürfte damit wohl ein theo-
retischer bleiben, zumal neben den Voraussetzungen für Tacit Collusion zugleich
die Voraussetzungen für Preispersonalisierung gegeben sein müssten.
4. Fallbeispiel: Netix
Wenn Preise personalisiert werden, kann diese Form der Preisdiskriminierung in
der Theorie nahezu die Präzision „perfekter Preisdiskriminierung“ (also solcher 1.
Grades) erreichen. Die zugrunde gelegten Gruppen werden mit zunehmender
Datenmenge immer feingliedriger und präziser und geben ab einem gewissen Maß
an Granularität näherungsweise Auskunft über den exakten Reservationspreis ihrer
jeweiligen Mitglieder.148 So wird bei theoretischer Betrachtungsweise– die besten
Bedingungen unterstellt– ein ähnlich präzises Ergebnis erzielt wie bei Preisdis-
kriminierung 1. Grades. Der Weg ist konzeptionell allerdings ein anderer: Preisdis-
kriminierung 1. Grades unterstellt Kenntnis des Reservationspreises als inneres
Merkmal des Betroffenen. Preisdiskriminierung 3. Grades erlaubt den Schluss auf
den näherungsweisen Reservationspreis des Betroffenen anhand äußerer Merkmale,
also beobachteter bzw. gesammelter Eigenschaften.
Die Verwendung personalisierter Preise ist in der Theorie für Anbieter äußerst
lukrativ. Benjamin Shiller hat 2014 mithilfe eines eigens entwickelten ökonomischen
Modells untersucht, welche Gewinnsteigerung der Video-Streamingdienst Netix
bei Verwendung personalisierter Preise realisieren könnte.149 Personalisierte Preise,
die ausschließlich anhand „einfacher“ demograscher Daten (wie etwa das verfüg-
bare Haushaltseinkommen, das Vorhandensein von Kindern, die Anzahl von Perso-
nen im Haushalt etc.) kalkuliert wurden, führten demnach zu einer Gewinn-
steigerung von 0,8%. Demgegenüber wurden in einem zweiten ktiven Szenario
zur Preiskalkulation ca.5000 Variablen eingesetzt, die hoch detaillierte Auskunft
über das Surfverhalten von Kunden gaben.150 Beispielsweise wurde berücksichtigt,
wie häug welche Webseiten (aus einem Pool von 4788) von den Nutzern an-
gesteuert wurden und zu welcher Tageszeit sie an welchem Tag in der Woche im
147 So auch die Competition and Markets Authority (CMA), Pricing Algorithms, 2018, S.44 f.
(„Tacit coordination and personalised pricing are very unlikely to occur together“).
148 Ezrachi/Stucke, Virtual Competition, 2016, S. 101 f.; Competition and Markets Authority
(CMA), Pricing Algorithms, 2018, S.36.
149 Shiller, First-Degree Price Discrimination using Big Data, 2014.
150 Zum Inhalt der im Rahmen der Studie eingesetzten Daten siehe ausführlich ders., First-Degree
Price Discrimination using Big Data, 2014, S.6f.
III.Ablauf der Preissetzung nach dem 3-stugen Modell
140
Internet gesurft haben. In diesem ktiven Szenario betrug die Gewinnsteigerung
12,2% und einzelne Kunden zahlten im Einzelfall das Doppelte des von Netix an-
sonsten verlangten Einheitspreises.151 Von perfekter Preisdiskriminierung nach tra-
ditionellem Verständnis kann bei dieser Untersuchung nicht gesprochen werden, da
es sich um theoretische und dementsprechend fehleranfällige Hochrechnungen han-
delt, zumal das zugrunde gelegte Datenmaterial nur Auskunft über demograsche
Daten und Surfverhalten beinhaltet. Die Präzision könnte bei Zugrundelegung
weitergehender Datenarten durchaus noch bedeutend gesteigert werden.152 Die
Untersuchung zeigt aber, welche Möglichkeiten die Berücksichtigung einzelner,
sehr spezieller Variablen in der Theorie eröffnet.
5. Wertende Zusammenfassung
Die Übertragung der Struktur des 3-stugen, im Kontext von Proling entwickelten
Modells auf Online-Preispersonalisierung zeigt, welche Faktoren dabei eine Rolle
spielen– und warum ihre praktische Umsetzung auf jeder der drei Stufen mehr
Probleme aufwirft, als die Theorie zunächst vermuten lässt. Auf Stufe 1 (Datenbe-
schaffung) liegt das Problem weniger auf der Beschaffung abstrakter Vergleichs-
daten, die etwa die Bildung verschiedener Käuferprole erlauben. Schwieriger ist
der Zugriff auf die personenbezogenen Daten des konkreten Kunden, der Adressat
eines personalisierten Preises werden soll. Anbieter mögen oft Zugriff auf einige
personenbezogene Daten haben, etwa solche über das vorangehende Surfverhalten
des Kunden (so etwa, wenn dieser seitenübergreifend getrackt wurde), frühere Ein-
käufe, seinen Aufenthaltsort etc. Die Komplexität dieser Prole ist oftmals aber zu
niedrig, um aus ihnen wirklich fundierte Aussagen über seine Zahlungsbereitschaft
ableiten zu können. Nicht zu unterschätzen ist bereits an dieser Stelle, wie auch auf
den anderen beiden Stufen, das Problem der sicheren Identizierung des Einzelnen:
Ein Prol ist für den Anbieter nur dann nutzbar, wenn er es im richtigen Moment
richtig zuordnen kann. Bei Neukunden oder etwa solchen, die verschiedene End-
geräte nutzen oder ihre Spuren im Internet bewusst reduzieren, kann die sichere
Identizierung des Einzelnen ein Ding der Unmöglichkeit werden. Hinzu kommt,
dass personenbezogene Daten vom Anbieter nicht ohne Weiteres unbegrenzt ge-
speichert werden dürfen. Diese Hindernisse setzen sich auf Stufe 2 fort, dem Pro-
ling, welches in der Bestimmung des Reservationspreises endet bzw. enden soll:
151 Ders., First-Degree Price Discrimination using Big Data, 2014, S.21.
152 Vgl. ders., First-Degree Price Discrimination using Big Data, 2014, S.19: „A pertinent question
is whether personalized pricing substantially raises the fraction of total surplus which is extracta-
ble by the rm as prots. I nd the answer is no– only about 42% of the theoretical maximum
variable prots can be captured when prices are tailored based on web browsing history. This
raises the question of how much prices would vary if the rm were better able to predict willing-
ness to pay, which certainly may be possible with bigger and better datasets. Other data might
include location by time of day, collected on smartphones via GPS, and textual variables derived
from user-generated text on twitter, emails, and text-messages.“
Kapitel 7: Preispersonalisierung
141
Diese Verfahren sind auf umfassendes, qualitativ hochwertiges und relevantes
Datenmaterial angewiesen, um den Betroffenen in die richtige Gruppe einzuordnen.
Wenn es an diesen Faktoren scheitert, scheitert auch die Bestimmung der Zahlungs-
bereitschaft. Die Rahmenbedingungen auf der dritten Stufe sind wiederum anderer
Natur. Zu diesem Zeitpunkt liegt dem Anbieter im Idealfall die Information vor,
welche Zahlungsbereitschaft ein konkreter Kunde aufweist. In der Praxis handelt es
sich eher um grobe Tendenzen dahingehend, wie preissensitiv der Kunde ist und in
welcher Preisspanne sein Reservationspreis vermutlich liegt. Nun geht es darum,
wie der Anbieter auf den ihm vorliegenden Informationen aufbaut und sein weiteres
Vorgehen gestaltet. Mit Blick auf die Höhe des tatsächlich realisierbaren Preises
unterliegt er weiterhin wettbewerblichen Beschränkungen. Die manchmal sugge-
rierte Vorstellung, Kunden würden alle Preise akzeptieren, die ihrem Reservations-
preis entsprechen oder darunter liegen, ist in dieser Schlichtheit unzutreffend: Wett-
bewerb, vor allem auch ein Abwerben von Kunden, kann auch bei personalisierten
Preisen stattnden und durch diese sogar in seiner Intensität steigen.153 Je nach
Marktsituation und Informationsgefüge kann die Wettbewerbsintensität aber auch
absinken. Unabhängig davon sind psychologische, auf das Marketing der Anbieter
bezogene Aspekte zu berücksichtigen, die sich mit der verhaltensökonomischen
Forschung erklären lassen. Kunden empnden personalisierte Preise grundsätzlich
als ungerecht. Die Preiskommunikation wird damit zur Schlüsselfrage: Anbieter
müssen die Personalisierung des Preises entweder verschleiern oder sie aktiv offen-
legen und mit einer Rechtfertigung verknüpfen. Eine „Marketing-Todsünde“ ist das
erkennbar aus Gewinnstreben motivierte Anheben von Preisen zu Lasten Einzelner.
Deshalb ndet eine Personalisierung tendenziell eher „nach unten“ statt, also als
Vergünstigung ausgestaltet, ausgehend von einem Referenzpreis. Kunden sind zu-
dem oftmals irrational und inkonsequent in ihrer Wahrnehmung. Die Simulation
von Shiller zeigt, wie lukrativ Personalisierung sein könnte, wenn tatsächliche,
rechtliche und wettbewerbliche Hindernisse ausgeschaltet sind. Deshalb ist davon
auszugehen, dass für Unternehmen große Anreize bestehen, die ihnen gegebenen
Möglichkeiten der Preispersonalisierung auszuloten und so weit wie möglich
zu nutzen.
IV.Personalisierte Preise inder Praxis
1. Abgrenzung mittelbarer von unmittelbarer
Preispersonalisierung
Vor dem Hintergrund der getroffenen Feststellungen widmet die Untersuchung sich
im Folgenden der Frage, in welchem Ausmaß und in welcher Form personalisierte
Preise in der Praxis vorkommen. Dies geschieht unter Rückgriff auf zwei bekannt
153 Townley/Morrison/Yeung, YEL 36 (2017), 683, 691–694.
IV.Personalisierte Preise inder Praxis
142
gewordene, nachgewiesene Einzelfälle von Preispersonalisierung, behördliche bzw.
behördlich veranlasste sowie wissenschaftliche Studien. Zugleich werden die ge-
fundenen Ergebnisse analysiert.
Angesichts der Rahmenbedingungen, denen Anbieter auf der dritten Stufe aus-
gesetzt sind, und mit Blick auf die im Folgenden zu analysierenden Erkenntnisse aus
der Praxis bietet sich eine weitergehende terminologische Konkretisierung des Be-
griffs Preispersonalisierung an. Im Folgenden kommt der Ausdruck „unmittelbare
Preispersonalisierung“ zum Einsatz, wenn ein Anbieter so vorgeht, dass er den dem
jeweiligen Kunden online angezeigten Preis unmittelbar an diesen anpasst. Die indi-
viduelle Anpassung des Preises ist dabei als solche beabsichtigt (und nicht etwa
Folge eines technischen Fehlers) und basiert auf der vom Anbieter vermuteten indi-
viduellen Zahlungsbereitschaft. Gemeint ist die Fallkonstellation, dass ein Kunde
ohne ihm ersichtlichen Grund eventuell154 einen anderen Preis angezeigt bekommt
als andere Kunden im gleichen Zeitpunkt. Bei den im Nachgang analysierten Fall-
beschreibungen und Studien kann aus methodischen Gründen grundsätzlich nur
diese Form des Personalised Pricings erfasst werden. Der Begriff „mittelbare Preis-
personalisierung“ bezeichnet demgegenüber die Situation, dass die Anpassung des
Preises in eine subtilere Form der Kommunikation eingebettet wird. Auch sie ndet
bewusst und basierend auf der vermuteten Zahlungsbereitschaft des Kunden statt.
Gemeint sind die bereits weiter oben beschriebenen Fälle, in denen die Personalisie-
rung entweder gänzlich verschleiert oder, alternativ, offengelegt und dem Kunden
gegenüber mit einer für diesen erkennbaren Rechtfertigung versehen wird. Typische
Fälle von mittelbarer Preispersonalisierung sind etwa die Produktpersonalisierung
(durch die die damit einhergehende Personalisierung des Preises durch Absenkung
der Vergleichbarkeit verschleiert wird) oder die gezielte Kundenansprache mit einem
Gutschein, der etwa als „Gutschein für besonders loyale Kunden“ oder als Neu-
kundengutschein deklariert wird. In diesen Fällen wird also de facto ein individuali-
sierter Preis verlangt. Die Kommunikation ist aber so ausgestaltet, dass der Kunde
diese Strategie gar nicht realisiert bzw. nicht mit negativen Assoziationen verknüpft.
Mittelbare und unmittelbare Preispersonalisierung lassen sich auch unter dem
Gesichtspunkt das Umgangs mit Transparenz voneinander abgrenzen.155 Die un-
mittelbare Variante ist transparent, obwohl der Anbieter grundsätzlich ein wirtschaft-
liches Interesse daran hat, dass der Kunde diese Form der Preispersonalisierung
nicht als solche erkennt. Mittelbare Preispersonalisierung hingegen wählt, sofern
die Anpassung des Preises gänzlich verschleiert wird, einen bewusst intransparenten
Ansatz: Der Kunde soll die Personalisierung des Preises überhaupt nicht mit-
bekommen. Wenn die Preisanpassung hingegen offen stattndet und der Anbieter
sie mit einer Rechtfertigung verbindet, dann nutzt er diese selbst geschaffene Trans-
parenz offensiv, um dem Kunden die Personalisierung des Preises in einer positiven
Art und Weise zu kommunizieren.
154 Die Preise für verschiedene Kunden müssen nicht zwingend voneinander abweichen, da es
möglich ist, dass bei mehreren Kunden die gleiche oder eine ähnliche Zahlungsbereitschaft ver-
mutet wird.
155 Zu den datenschutzrechtlichen Transparenzpichten siehe unten Kap.11, I. 1. c.
Kapitel 7: Preispersonalisierung
143
2. Ausgewählte Einzelfälle
Es gibt eine überschaubare Anzahl an der breiten Öffentlichkeit bekannt gewordenen
Einzelfällen, in denen Preispersonalisierung tatsächlich festgestellt und in der Folge
medial diskutiert wurde. Hieraus ergeben sich erste Anhaltspunkte dahingehend, an
welchen Faktoren Anbieter sich bei der Berechnung personalisierter Preise in der
Praxis orientieren und auf welche Weise diese den Kunden gegenüber kommuni-
ziert werden. Die beiden folgenden, exemplarisch genannten Fälle haben dabei be-
sondere mediale Aufmerksamkeit erfahren.
a. Amazon.com
Der Online-Händler Amazon.com hat im Jahr 2000 für einen sehr kurzen Zeitraum
mit Preisen experimentiert und diese bei beliebten DVDs personalisiert.156 Die
Preissetzung sollte im Ergebnis wohl davon abhängig gemacht werden, ob es sich
eher um einen Neu- oder um einen Bestandskunden handelte. Besucher der Web-
seite bekamen im gleichen Zeitpunkt verschiedene Preise für die gleichen DVDs
angezeigt.
Es kann nicht ganz eindeutig festgestellt werden, anhand welcher Kriterien Ama-
zon.com die Preise festgesetzt hatte. Eine Rolle schien wohl u.a. der beim jeweili-
gen Kunden erkannte Browser gespielt zu haben.157 Als sicher gilt, dass Kunden, auf
deren Rechner ein Cookie gespeichert war, welches angezeigt hat, dass diese bereits
zuvor die Seite besucht hatten– was auf Bestandskunden hinweist– höhere Preise
zu sehen bekamen als solche Kunden, die Amazon.com zum ersten Mal besucht
haben. Die Vermutung liegt nahe, dass mithilfe der niedrigeren Preise Neukunden
gewonnen werden sollten.158 Die Praxis war sehr leicht nachzuweisen, da unmittel-
bar nach dem Löschen der Cookies auf dem verwendeten Computer bei den be-
troffenen DVDs niedrigere Preise angezeigt wurden.159 Nachdem diese Praxis öf-
fentlich bekannt wurde und äußerst negative Reaktionen in den Medien und bei den
Kunden hervorgerufen hatte, kündigte Amazon.com an, in Zukunft von derlei
Experimenten Abstand zu nehmen.160
156 Ofce of Fair Trading, Personalised Pricing, 2013, S.13.
157 Siehe dazu http://news.bbc.co.uk/2/hi/business/914691.stm (zuletzt aufgerufen am 31.3.2023).
158 Siehe dazu European Commission, Consumer Market Study on Online Market Segmentation
through personalised Pricing/Offers in the European Union, 2018, S.43; Ezrachi/Stucke, Virtual
Competition, 2016, S.90; Ofce of Fair Trading, Personalised Pricing, 2013, S.13.
159 Organisation for Economic Co-operation and Development (OECD), Personalised Pricing in
the Digital Era, 2018, S.16.
160 Vgl. Centre on Regulation in Europe (Cerre), Big Data and Competition Policy: Market Power,
Personalised Pricing and Advertising, 2017, S. 41 und Garbarino/Maxwell, J. Bus. Res. 63
(2010), 1066.
IV.Personalisierte Preise inder Praxis
144
b. Staples
Einen anderen Ansatz hat das US-amerikanische Unternehmen Staples gewählt,
welches online und in Ladengeschäften Bürobedarf verkauft. Im Jahr 2012 hat das
Wall Street Journal berichtet, dass Staples in seinem Online-Shop bei zahlreichen
Produkten die jeweils verlangten Preise in Abhängigkeit vom gegenwärtigen Auf-
enthaltsort des Webseitenbesuchers festgelegt hat.161 Der Aufenthaltsort wurde an-
hand der IP-Adresse des Besuchers bestimmt. So wurde beispielsweise ein be-
stimmter Locher der Marke Swingline den Kunden, die sich in einem bestimmten
Postleitzahlen-Bezirk befanden, online zum Preis von 14,29 $ angeboten, während
im gleichen Zeitpunkt das gleiche Modell den Kunden aus einem benachbarten Be-
zirk zum Preis von 15,79 $ angezeigt wurde. Das Wall Street Journal konnte in
umfangreichen, internen Tests162 nicht mit Sicherheit feststellen, welche Kriterien
der Preissetzung zugrunde lagen. Dass Preispersonalisierung vorgenommen wurde,
gilt aber als sicher und konnte auch in der 2012 durchgeführten Studie von Mikians
etal. bestätigt werden.163 Der wohl wichtigste maßgebende Faktor schien die ört-
liche Entfernung des Kunden (genauer: die Entfernung von der geographischen
Mitte des Postleitzahlenbezirks/ZIP-Codes des Kunden) von Ladengeschäften der
Konkurrenten von Staples (OfceMax sowie Ofce Depot) zu sein. Je näher der
Kunde sich physisch an den Konkurrenten befunden hatte, desto niedriger war der
ihm angezeigte Preis. Die kritische Distanz lag bei 20 Meilen.
Höhere Preise wurden am häugsten dann angezeigt, wenn der Kunde sich in
einem Bezirk aufhielt, in dem Staples selber ein Ladengeschäft betrieb und zugleich
die nächsten Ladengeschäfte der Konkurrenz eher weit entfernt lagen. Dies legt die
Vermutung nahe, dass Staples in diesen Situationen von weniger Wettbewerbs- bzw.
Preisdruck seitens leicht erreichbarer Konkurrenten vor Ort ausging und dement-
sprechend mehr Spielraum bei der Preisgestaltung sah. Es handelte sich bei den
dergestalt individualisierten Preisen letztlich um datengestützte Preisdiskri-
minierung 3. Grades: Die Gruppenzugehörigkeit wurde vom Aufenthaltsort des
Kunden abgeleitet und hat den Preis mitbestimmt. Denjenigen Kundengruppen,
welche an ihrem Aufenthaltsort eine größere Auswahl an Anbietern hatten (und
somit weniger auf den Kauf bei Staples angewiesen waren), wurde eine höhere
Preissensitivität unterstellt, weshalb ihnen niedrigere Preise angezeigt wurden.
Es ist bemerkenswert, dass die Preissetzung– soweit aus dem Bericht des Wall
Street Journals ersichtlich de facto nur von einem Faktor abhängig gemacht
wurde. Die Gruppenbildung war somit sehr pauschalisierend. Zudem hing der Preis
nur mittelbar von den individuellen Eigenschaften des Betroffenen ab: Vom Aufent-
haltsort des Kunden schloss Staples auf die Wettbewerbsintensität vor Ort– und
161 Valentino-DeVries/Singer-Vine/Soltani, The Wall Street Journal 24.12.2012.
162 Das Wall Street Journal hatte den Test technisch so gestaltet, dass aus allen der über 42 000
US-amerikanischen ZIP-Codes jeweils 20-mal eine Preisanfrage (bezogen auf den Swingline-
Locher) automatisiert ngiert wurde. Zudem wurde der Preis von über 1000 weiteren Produkten in
zehn ausgewählten ZIP-Codes jeweils 10-mal abgefragt.
163 Siehe dazu unten Kap.7, IV. 4. b.
Kapitel 7: Preispersonalisierung
145
letztlich erst über diesen „Umweg“ auf die vermutete Zahlungsbereitschaft des
Einzelnen. Eine unmittelbare Verknüpfung von festgestelltem Aufenthaltsort und
vermuteter Zahlungsbereitschaft (etwa aufbauend auf dem Wissen, dass Bewohner
eines bestimmten Stadtviertels besonders wohlhabend und in der Folge weniger
preissensitiv sind) schien dem Handeln von Staples hingegen nicht zugrunde
zu liegen.
3. Behördlich durchgeführte bzw. veranlasste Studien
a. Competition andMarkets Authority (2017)
Im Oktober 2017 hat die britische Wettbewerbsbehörde (Competition and Markets
Authority, CMA) eigene, strukturierte Untersuchungen dahingehend angestellt, ob
einige der führenden Online-Händler im Vereinigten Königreich Preisper-
sonalisierung betreiben.164 Die CMA hat dabei drei Variablen berücksichtigt und
systematisch untersucht, ob diese in der Praxis mit Preispersonalisierung in Ver-
bindung stehen: das beim Aufrufen der Seite verwendete Betriebssystem (Windows
oder MacOS); ob der Test-Nutzer mit seinem Kundenkonto eingeloggt war oder
nicht (hier ging es darum, ob dem Anbieter die Identität des Kunden bekannt ist);
und wie der Nutzer auf die Seite gelangt ist (direktes Ansteuern oder Weiterleitung
von einem Preisvergleichsportal bzw. von einer anderweitig kommerziell afliier-
ten Seite mit sog. Cashback-Funktion165). Keine Berücksichtigung fanden der Auf-
enthaltsort des Nutzers sowie sein früheres Online-Kaufverhalten.166
Getestet wurden 30 verschiedene Produkte und Dienstleistungen aus ver-
schiedenen Kategorien bei zehn unterschiedlichen Anbietern, nämlich Opodo, Boo-
king.com, Ryanair, Expedia, Amazon, Staples, Asda, Tesco, Apple und Zara.167 Die
Auswahl der untersuchten Anbieter hat sich u.a. an einer Studie der Arbeiter-
kammer Wien orientiert, die beispielsweise auf Opodo (einem Preisvergleichsportal
u.a. für Flugreisen) Preispersonalisierung nachweisen konnte. Staples wurde mit
Blick auf die bereits oben beschriebene US-amerikanische Berichterstattung auf-
genommen. Bei der Auswahl der untersuchten Anbieter wurde ihre jeweilige Markt-
stärke berücksichtigt und versucht, Anbieter mit einer möglichst großen Bandbreite
an Kunden abzudecken. Die Anbieterauswahl sollte auf Kundenseite möglichst
auch solche miteinschließen, die eine eher hohe Zahlungsbereitschaft aufweisen.
Der Gedanke dahinter war, dass diese von Personalised Pricing am ehesten in nega-
tiver Weise beeinträchtigt sind. Auf jeder der zehn Anbieter-Seiten wurden drei ver-
schiedene Produkte ausgewählt, um an diesen beispielhaft zu testen, ob Preis-
164 Competition and Markets Authority (CMA), Pricing Algorithms, 2018, S.54ff.
165 Bei diesen Seiten erhält der Nutzer eine Rückzahlung („Cashback“), wenn er über sie als Inter-
mediär auf die Anbieter-Seite gelangt und dort den Kauf tätigt.
166 Competition and Markets Authority (CMA), Pricing Algorithms, 2018, S.56f.
167 Dass., Pricing Algorithms, 2018, S.57f.
IV.Personalisierte Preise inder Praxis
146
personalisierung zum Einsatz kommt. Die Auswahl der untersuchten Produkte war
grundsätzlich willkürlich. Die CMA nahm allerdings bewusst keine sehr bekannten
Produkte in die Untersuchung auf. Gleiches galt für solche Produkte, die im Test-
zeitpunkt stark beworben wurden. Diesem Vorgehen lag die Überlegung zugrunde,
dass die Kunden in diesen Fällen häug den Marktpreis kennen und Anbieter des-
halb von einer Personalisierung des Preises eher absehen.168
Im ersten Teil der Untersuchung testete die CMA bei den zehn Anbietern die je-
weils drei ausgewählten Produkte unter Abänderung der eingangs beschriebenen
drei Variablen. Sofern das Ändern der Variablen mit Abweichungen des Preises ein-
herging, prüfte die Behörde im nächsten Schritt, ob diese Abweichungen strukturel-
ler Natur oder dem Zufall geschuldet waren.169
Im Ergebnis wurden keine reproduzierbaren bzw. systematisch implementierten
Fälle von Preispersonalisierung nachgewiesen. Auffällig war aber, dass die den
Test-Nutzern angezeigten Suchergebnisse teilweise stark von den drei eingangs be-
schriebenen Variablen abhingen.170 Das verwendete Betriebssystem hatte keinen
Einuss auf die Preise, teilweise aber auf die Reihenfolge, in der die Suchergeb-
nisse nach Eingabe des Produktnamens angezeigt wurden. Auch der Weg, über den
die Test-Nutzer auf die Anbieter-Seiten gelangt sind (Preisvergleichs- bzw. „Cash-
back“-Seite im Gegensatz zum direkten Ansteuern der Seite), ließ keine reproduzier-
baren Preisunterschiede erkennen.171 Bei Expedia beispielsweise änderte sich aber
die Reihenfolge der angezeigten Suchergebnisse. „Cashback“-Seiten nahmen teil-
weise Einuss auf die Darstellung der Anbieter-Seite, indem sie z.B. neben dem
Produktpreis die zu erwartende Bonuszahlung (den „Cashback“) anzeigten und zu-
dem suggerierten, dass die zu zahlenden Preise als solche bereits reduziert waren.
Dieser (vermeintliche) Rabatt war aber nicht mehr zu sehen, sobald die Seite des
Anbieters unmittelbar angesteuert wurde.172
Bei Abwandlung der dritten Variablen (eingeloggter im Gegensatz zu un-
bekanntem Kunden) war auf den untersuchten Seiten teilweise wieder eine
unterschiedliche Anzeige der Suchergebnisse zu beobachten. Diese ging aber nicht
mit unterschiedlichen Preisen einher. Bloß bei Expedia konnte ein Preisunterschied
in Höhe von 10% für bestimmte Hotelbuchungen beobachtet werden.173 Dieser Ra-
batt war allerdings nicht Ausdruck von datengestützter Personalisierung, welche in
Abhängigkeit von Eigenschaften und Verhalten der Nutzer ausgeführt wurde. Viel-
mehr warb Expedia damit und kennzeichnete die reduzierten Hotels im Kunden-
168 Dass., Pricing Algorithms, 2018, S.58.
169 Dass., Pricing Algorithms, 2018, S.58. Der zweite Fall wäre etwa dann gegeben, wenn der Preis
sich nicht aufgrund von Personalisierung, sondern als Reaktion auf das Marktgeschehen geändert
hat (Dynamic Pricing).
170 Dass., Pricing Algorithms, 2018, S.59.
171 Dass., Pricing Algorithms, 2018, S.59f. Im Einzelfall wurden Werte auf der Seite des Interme-
diärs gerundet angezeigt oder auch inklusive der Versandkosten– im Endeffekt änderte dies aber
in keinem Fall etwas am Endpreis.
172 Dass., Pricing Algorithms, 2018, S.59f.
173 Dass., Pricing Algorithms, 2018, S.60f.
Kapitel 7: Preispersonalisierung
147
portal farblich. Jeder, der sich bei der Seite registriert hatte, konnte diesen Rabatt in
Anspruch nehmen. Diese Vorgehensweise kann unter den Begriff der Preis-
personalisierung gefasst werden, da der Preis an eine Eigenschaft des Kunden an-
gepasst wird: Ist dieser registriert, zahlt er in bestimmten Fällen weniger als den
Referenzpreis, der für andere Kunden gilt. Anders formuliert löst die Zugehörigkeit
zur Gruppe der registrierten Kunden die Reduktion aus. In diesem Fall dürfte es sich
im Schwerpunkt aber eher um eine Marketing- und Kundenbindungsstrategie han-
deln. Die Personalisierung des Preises basiert nämlich nicht primär auf der indivi-
duellen Zahlungswilligkeit des Kunden, da jeder registrierte Nutzer den Rabatt un-
abhängig davon erhält, wie viel er im Einzelfall zu zahlen bereit ist. Die
Personalisierung ist damit sehr grob, da sie nur auf einem Kriterium aufbaut (regis-
trierter Nutzer oder nicht), welches zudem per se keinen erkennbaren Bezug zum
Reservationspreis des Einzelnen aufweist.
Bei näherer Betrachtung ist aber durchaus denkbar, dass diese Form der Preis-
setzung für den Anbieter im Kontext von Preispersonalisierung eine größere Rolle
spielt, als ihre grobe Umsetzungsform zunächst vermuten lässt. Die Reduktion aus-
gewählter Hotels für registrierte Nutzer erlaubt es dem Anbieter, Hinweise zu sam-
meln, welche Nutzer konkret– bzw. welche Nutzertypen allgemein – eher preis-
sensitiv agieren. Wer regelmäßig die reduzierten Hotels bucht, achtet auf den Preis
und weist vermutlich eine niedrigere Zahlungsbereitschaft auf. Durch die Auswahl
des reduzierten Hotels teilt der Kunde seine Präferenzen also indirekt mit. Diese
Kunden können dann wiederum beispielsweise individuell zu einem späteren Zeit-
punkt angesprochen und gezielt beworben werden– etwa mit Rabatt-Gutscheinen.
Die Reduktion von der Registrierung abhängig zu machen, hat für den Anbieter den
Vorteil, dass die eindeutige Identikation des einzelnen Kunden kein Problem dar-
stellt: Ein eingeloggter Nutzer ist ein bekannter Nutzer, über den ein Prol angelegt
werden kann. Zudem muss er sich einloggen, bevor er die reduzierten Hotels über-
haupt zu Gesicht bekommt, womit ein Anreiz zum Anlegen eines Kundenkontos
geschaffen wird. Die Preiskommunikation ist auf diese Weise geschickt umgesetzt:
Die Änderung des Preises für manche Kunden wird transparent kommuniziert. Da
grundsätzlich jeder Kunde den Rabatt in Anspruch nehmen kann, ist nicht davon
auszugehen, dass bei den Kunden ein Gefühl der Ungleichbehandlung entsteht. Die
Personalisierung ndet also offen statt, ist aber aus Sicht der Kunden gerechtfertigt.
Über den konkreten einzelnen Kunden hinaus kann zudem das Kaufverhalten der
Nutzergruppen des Anbieters wertvolle (abstrakte) Vergleichsdaten liefern, deren
Auswertung nützliche Einsichten bei der zukünftigen Preisgestaltung gewähren
können. Preispersonalisierung und Kundenbindung gehen bei dieser groben Form
des Personalised Pricings also Hand in Hand und ergänzen sich gegenseitig, ob-
wohl die Individualisierung des Preises auf den ersten Blick kaum etwas mit den
Eigenschaften des betroffenen Kunden zu tun zu haben scheint.
Zusammenfassend kann festgehalten werden, dass die Untersuchung der CMA
nahelegt, dass der Fokus von datengetriebener Personalisierung nicht auf Preisen
liegt. Die Testreihe gibt allerdings dahingehende Hinweise, dass gewisse Variablen,
die Rückschlüsse auf den Nutzer zulassen, zur Personalisierung der ihm angezeigten
Webseite, vor allem von Suchergebnissen, herangezogen werden. Kunden können
IV.Personalisierte Preise inder Praxis
148
auf diese Weise vom Anbieter beeinusst und ggf. zum Kauf bestimmter Produkte
gebracht werden. Sofern der Preis sich dabei nicht ändert, liegt darin keine Preis-
personalisierung. Für die Anbieter kann diese Vorgehensweise allerdings ähnliche
Vorteile haben: Diese als Price Steering bekannte Vorgehensweise kann ihnen dabei
helfen, den Reservationspreis der Kunden zwar nicht bezogen auf ein konkretes
Produkt auszureizen, aber innerhalb der sie interessierenden Produktkategorie. Der
Kunde kann so dazu gebracht werden, eher ein Produkt zu wählen, dessen Preis
näher an seiner Zahlungswilligkeit liegt. In der Regel kann der Anbieter ihm dann
ein teureres Produkt verkaufen und in der Folge einen höheren Gewinn realisieren.
Die CMA lässt (zutreffend) erkennen, dass der von ihr gewählte Versuchsaufbau
zu simpel konstruiert war, um ggf. auch komplexere Methoden der Preis-
personalisierung zu erfassen.174 Vor allem war die Methode, immer nur eine Va-
riable gleichzeitig zu verändern, ungeeignet, solche Fälle nachzuweisen, in denen
die Kombination verschiedener Aspekte zur Preispersonalisierung herangezogen
wird. Daher gibt die Studie zwar brauchbare Hinweise zum Vorkommen von Preis-
personalisierung in der Praxis, erlaubt isoliert betrachtet aber nur wenige belastbare
Aussagen.
b. Studie im Auftrag der Europäischen Kommission (2018)
Eine Studie, die im Auftrag der Europäischen Kommission erstellt und 2018 ver-
öffentlicht wurde, hat im Rahmen eines „Mystery Shopping“-Experiments ausführ-
lich u. a. das Vorkommen von Preispersonalisierung im Online-Handel in ver-
schiedenen Mitgliedstaaten der Europäischen Union untersucht.175 Es waren 254
„echte“ Testkäufer im Einsatz. Die Zugriffe auf die Webseiten wurden also nicht
mittels eines VPN-Clients oder mithilfe ähnlicher Methoden simuliert. Dabei wurde
eine hohe Diversität mit Blick auf die Faktoren Alter, Einkommen, sozialer Status
etc. erreicht.176 Beide Geschlechter waren gleich stark vertreten. Im Fokus waren
Anbieter in Tschechien, Frankreich, Deutschland, Polen, Rumänien, Spanien,
Schweden und dem Vereinigten Königreich.177 Die Untersuchung bezog sich auf
vier Produktkategorien: Fernsehgeräte, Schuhe, Hotelbuchungen, Flugbuchungen.
Dabei wurden, aufbauend auf früheren Forschungsergebnissen aus anderen Stu-
dien, drei verschiedene Variablen in den Blick genommen, bei denen die Vermutung
174 Dass., Pricing Algorithms, 2018, S.61.
175 European Commission, Consumer Market Study on Online Market Segmentation through per-
sonalised Pricing/Offers in the European Union, 2018, S.186ff.
176 Siehe dazu die ausführliche Übersicht in dass., Consumer Market Study on Online Market Seg-
mentation through personalised Pricing/Offers in the European Union– ANNEXES, 2018, S.115.
177 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union– ANNEXES, 2018, S.109. Die Auswahl der Länder wurde anhand
folgender Kriterien vorgenommen: geographische Abdeckung (bezogen auf die gesamte EU), Jahr
des Eintritts in die EU, Verbreitung von Internet und Online-Shopping, Anteil der im Online-
Handel tätigen Anbieter, landestypische Einstellung der Verbraucher zu den Themen Privatheit
(Schutz der Privatsphäre) und Sicherheit.
Kapitel 7: Preispersonalisierung
149
bestand, dass sie der Personalisierung von Preisen dienen: Das Vorliegen (oder
nicht) eines Nutzerprols, welches sich aus dem vorhergegangenen Surfverhalten
des Nutzers ergibt (und beispielsweise durch die Verwendung von Cookies gene-
riert werden kann); die Art, wie der Nutzer auf die Seite des Anbieters gelangt (di-
rektes Ansteuern oder Weiterleitung über Preisvergleichsportal); Betriebssystem
und Browser, mit dem die Seite aufgerufen wurde (hier ging es vor allem darum, ob
der Nutzer ein Desktop- oder ein mobiles Endgerät, wie etwa ein Smartphone, be-
nutzt hat).178 Pro Land wurden 20 Online-Shops getestet. Für jede der vier Produkt-
kategorien wurden jeweils fünf verschiedene Anbieter ausgewählt, sodass insgesamt
160 Anbieter getestet wurden.179 Jeder Anbieter wurde nur einmal getestet, auch
wenn er– wie z.B. Amazon– in mehreren Ländern aktiv war oder Produkte aus
verschiedenen der relevanten Produktkategorien angeboten hat.180 Flugreisen wur-
den nicht auf der Seite der jeweiligen Fluggesellschaft gebucht, sondern über
Reise-Plattformen.
Für die Testreihen wurden vier verschiedene Szenarien gebildet und umfang-
reiche Absicherungen implementiert, um Messfehler zu verhindern und sicherzu-
stellen, dass festgestellte Preisänderungen wirklich Ausdruck personalisierter Preise
und nicht etwa von A/B-Tests oder dynamischer Preissetzung sind. Die Szenarios A
und B wurden jeweils auf Desktop-Endgeräten ausgeführt und dienten dazu, heraus-
zunden, inwiefern das vorhergegangene Surfverhalten des Nutzers eine Rolle
spielt.181 In Szenario A wurde geprüft, ob die Suchmaschine, über die der Nutzer auf
die Anbieter-Seite gelangt, einen Einuss auf den Preis hat. Die Tester haben dafür
das jeweilige Produkt einmal mit der von ihnen normalerweise verwendeten Such-
maschine (etwa Google) gesucht und dann das Suchergebnis angeklickt, welches
auf das Angebot des gesuchten Produkts auf der Seite des zu testenden Anbieters
führte. Danach wurde die gleiche Suche mit DuckDuckGo durchgeführt. Die letzt-
genannte Suchmaschine übermittelt– im Gegensatz zu Google und anderen– an
den Anbieter nicht, welche Suchbegriffe der Nutzer zuvor in sie eingetippt hatte. In
Szenario B wurde getestet, ob es eine Rolle spielt, ob der Nutzer die Anbieter-Seite
von einem Preisvergleichsportal kommend aufruft. In Szenario C wurde auf den
verwendeten Browser abgestellt und getestet, ob es einen Unterschied macht, wel-
chen Browser die Tester verwenden, um die Anbieter-Seite anzusteuern.182 Szenario
178 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union– ANNEXES, 2018, S.109f. Desktopgeräte schließen auch Laptops
mit ein.
179 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union– ANNEXES, 2018, S.114.
180 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union– ANNEXES, 2018, S.117.
181 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union– ANNEXES, 2018, S.112f.
182 Dafür sollten sie die Seite einmal über den Browser aufrufen, den sie normalerweise verwenden,
und einmal über einen anderen, neu installierten (dass., Consumer Market Study on Online Market
Segmentation through personalised Pricing/Offers in the European UnionANNEXES, 2018,
S.113).
IV.Personalisierte Preise inder Praxis
150
D diente dazu, den Einuss des vom Kunden verwendeten Endgeräts (Smartphone
oder Desktop) zu testen. Die Szenarien wurden in verschiedenen Konstellationen
getestet und, soweit möglich, miteinander kombiniert.
Die Untersuchung brachte verschiedene Ergebnisse zu Tage. Als wesentliches
Ergebnis hielten die Ersteller der Studie fest, dass Preispersonalisierung mit dem
gewählten Studiendesign kaum, in vielen Fällen überhaupt nicht nachgewiesen wer-
den konnte. Vor allem ließ sich keine durchgängige und systematisch implemen-
tierte Preispersonalisierung nachweisen, die mit den eingangs beschriebenen
kundenbezogenen Variablen in einen Kausalzusammenhang gebracht werden
kann.183 Auf 34 von 153 Anbieter-Seiten184 wurden Preisabweichungen gefunden,
welche nicht mit normalen Preisschwankungen (also etwa A/B-Tests, dynamischer
Preissetzung etc.) erklärt werden konnten und mithin als Personalisierung kate-
gorisiert wurden. Diese waren durchgängig von nur minimalem Ausmaß und gleich-
mäßig nahezu bei null angesiedelt: In 94% aller testweise abgefragten Produkte
war keinerlei Personalisierung zu erkennen. Bei den übrigen 6% lag der Mittelwert
(Median) an Abweichung bei einer Preisdifferenz von 1,6%. Von den 34 nachweis-
baren Fällen kamen 19 aus der Produktkategorie Flugbuchungen. Bei neun Fällen
handelte es sich um Hotelbuchungen, bei vier Fällen um Schuhe und in zwei Fällen
um Fernsehgeräte.185 Nur bei 16 Anbietern– allesamt aus dem Flug- bzw. Hotel-
sektor stammend– betrug der preisliche Unterschied im Durchschnitt mehr als 1%,
wobei der höchste Durchschnittswert bei knapp unter 4% lag.186
Es ist bemerkenswert, dass das größte Ausmaß an Preispersonalisierung inner-
halb der zahlreichen auf verschiedene Art und Weise kombinierten Szenarien regel-
mäßig dann eintrat, wenn die Seiten der Anbieter über Preisvergleichsportale an-
gesteuert wurden.187 In diesen Fällen hervorgestochen ist die Produktkategorie
Flugbuchungen: Wurden Anbieter-Seiten über eine Preisvergleichs-Suchmaschine
angesteuert, so betrug die preisliche Differenz zum Ansteuern über eine reguläre
Suchmaschine durchschnittlich 4,8%, die zum Ansteuern direkt über die Internet-
adresse des Anbieters 4,4% und die zum Ansteuern über ein mobiles Endgerät
4,8%.188 Diese Ergebnisse stehen im deutlichen Gegensatz zu denen in den Produkt-
183 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union– ANNEXES, 2018, S.219.
184 Insgesamt sieben Anbieter-Seiten wurden nicht berücksichtigt, da zu wenig bzw. nur unbrauch-
bares Datenmaterial vorlag, um statistisch aussagekräftige Ergebnisse zu erhalten. Deshalb konnte
dieses Ergebnis nicht für 160, sondern nur für 153 Seiten festgehalten werden (vgl. dass., Consu-
mer Market Study on Online Market Segmentation through personalised Pricing/Offers in the
European Union, 2018, S.196).
185 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union, 2018, S.196.
186 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union, 2018, S.197.
187 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union, 2018, S.209ff.
188 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union, 2018, S.211.
Kapitel 7: Preispersonalisierung
151
kategorien Schuhe und Fernsehgeräte, bei denen der Zugang über Preisvergleichs-
portale keine statistisch signikanten Preisunterschiede erkennen ließ. Bei Hotel-
buchungen war nur in einer dieser Konstellationen eine statistisch signikante
Preisdifferenz nachweisbar (durchschnittlich 0,5 % Preisdifferenz im Vergleich
zum Ansteuern über eine reguläre Suchmaschine). Die Verfasser der Studie heben
auch hervor, dass– gemessen am Trafc– kleinere Anbieter-Seiten häuger Preis-
personalisierung betreiben als größere. Diese Aussage gilt grundsätzlich über
Produktkategorien, Personalisierungsmethoden und Länder hinweg.189 Mit Blick
auf die Gründe dafür spekulieren die Verfasser u.a., dass größere Anbieter von
Preispersonalisierung tendenziell Abstand nehmen, weil sie eher davon ausgehen
müssen, dass ihre Preissetzungsmethoden dahingehend untersucht werden. Diese
Überlegung ist überzeugend und gilt ähnlich auch unter einem anderen Gesichts-
punkt betrachtet: Je größer ein Anbieter ist, desto stärker steht er im Fokus des me-
dialen Interesses. Werden bei diesen Anbietern Preissetzungsmethoden publik, die
von Kunden als unfair oder anderweitig negativ empfunden werden, dürfte der
Reputationsschaden in der Relation deutlich größer sein als bei kleinen Anbietern,
über die generell weniger berichtet und gesprochen wird. Der weiter oben be-
schriebene Fall von Amazon.com ist dafür ein gutes Beispiel: Auch Jahre später
wird er noch als Lehrbuchfall schlechter Preiskommunikation diskutiert.190 Dieses
Schicksal würde einen kleinen (und dementsprechend unbekannten) Anbieter nicht
ereilen.
Die Ergebnisse dieser Studie decken sich im Wesentlichen mit denen der Com-
petition and Markets Authority: Beide Untersuchungen mündeten in dem Ergebnis,
dass personalisierte Preise in der Praxis kaum oder nur in Einzelfällen vorkommen.
Mit Blick auf die Gründe stellen die Verfasser der Studie die Vermutung auf, dass
die Anbieter trotz gegebener technischer Möglichkeiten von Preispersonalisierung
Abstand nehmen, da sie im Falle des Bekanntwerdens Schäden für ihre Reputation
zu befürchten haben.191 Zugleich weisen sie darauf hin, dass Personalised Pricing
möglicherweise häuger stattndet, als die Ergebnisse vermuten lassen. Es sei näm-
lich beispielsweise denkbar, dass Anbieter für die Preissetzung hoch entwickelte
Algorithmen einsetzen, welche von systematisch durchgeführten Studien als solche
gar nicht erkannt werden können und in der Lage sind, die Preispersonalisierung
erfolgreich zu verschleiern.192
189 Vgl. dazu ausführlich dass., Consumer Market Study on Online Market Segmentation through
personalised Pricing/Offers in the European Union, 2018, S.197.
190 Vgl. statt vieler Xia/Monroe/Cox, Journal of Marketing 68 (2004), 1 („a public relations night-
mare for the rm“) und Ezrachi/Stucke, Virtual Competition, 2016, S.90.
191 So European Commission, Consumer Market Study on Online Market Segmentation through
personalised Pricing/Offers in the European Union, 2018, S.261.
192 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union, 2018, S.261.
IV.Personalisierte Preise inder Praxis
152
c. Studie im Auftrag des Sachverständigenrats für
Verbraucherfragen (2016)
Der Sachverständigenrat für Verbraucherfragen hat in seiner Funktion als Be-
ratungsgremium des Bundesministeriums der Justiz und für Verbraucherschutz eine
2016 veröffentlichte Expertise zur Thematik der Preispersonalisierung im deut-
schen Online-Handel in Auftrag gegeben. Teil dieser Expertise war eine (kleinere)
Studie zum tatsächlichen Vorkommen personalisierter Preise bei Anbietern, die auf
dem deutschen Markt tätig sind.193
aa. Untersuchte Variablen und Methode
Die Verfasser der Studie, Schleusener und Hosell, haben drei Variablen in den Fokus
genommen und untersucht, ob diese in der Praxis mit Preispersonalisierung in Ver-
bindung stehen: Das verwendete Endgerät/Betriebssystem (sog. technisches Merk-
mal); die Suchhistorie des den Preis anfragenden Nutzers (sog. nutzerbezogenes
Merkmal) und den geographischen Ursprung der Preisanfrage (sog. ortsbezogenes
Merkmal).194 Im Fokus waren 20 verschiedene, zumeist deutsche Anbieter aus zehn
Branchen. Die Verfasser haben dabei verschiedene Güter (z. B. ein bestimmtes
Fernsehgerät) und Dienstleistungen (z. B. Mietwagenbuchung, Abschluss einer
Haftpichtversicherung) berücksichtigt.195
Methodisch war die Studie nach Aussage ihrer Verfasser an die Studien von Han-
nak et al. und Mikians et al. angelehnt, aber mit einem geringeren Ausmaß an
Komplexität umgesetzt.196 Die Verfasser führten systematisch verschiedene Test-
reihen durch. Dabei wurde gemessen, ob sich die jeweilige Abänderung der drei
eingangs beschriebenen Merkmale preislich auswirkt. Die Änderung der ortsbe-
zogenen und der technischen Merkmale war mit technischen Mitteln recht einfach
zu simulieren. Im Kontext der nutzerbezogenen Merkmale kamen zwei verschiedene
Nutzerprole („Luxus“ und „normal“) sowie ein gänzlich neutrales Endgerät zum
Einsatz. Bei diesen Anfragen kam immer dasselbe Betriebssystem zum Einsatz.
Beim neutralen Prol war der Browserverlauf leer, Cookies waren blockiert, ein
193 Schleusener/Hosell, Expertise zum Thema „Personalisierte Preisdifferenzierung im Online-
Handel“, 2016, S.15ff.
194 Dies., Expertise zum Thema „Personalisierte Preisdifferenzierung im Online-Handel“, 2016,
S.21. Es wurden nur Preisanfragen von deutschen Städten aus simuliert (Mönchengladbach, Ham-
burg, Düsseldorf).
195 Dies., Expertise zum Thema „Personalisierte Preisdifferenzierung im Online-Handel“, 2016,
S. 16 f. Bei den untersuchten Anbietern handelte es sich um Europcar, Lufthansa, Ab-in-den-
urlaub.de, weg.de, Expedia.de, Amazon, Cyberport, Mediamarkt, notebooksbilliger.de, Sport-
Scheck, Zalando, Check24, MyToys, Weltbild, Hawesko, Fressnapf, Douglas, Otto, GartenXXL und
Gartenmöbel.de.
196 Dies., Expertise zum Thema „Personalisierte Preisdifferenzierung im Online-Handel“,
2016, S.15.
Kapitel 7: Preispersonalisierung
153
Ad-Blocker aktiviert etc.197 Das Nutzerprol „Luxus“ hatte einen Browserverlauf,
der eine Suchhistorie mit Anfragen im Luxusgütersegment erkennen ließ. Dieser
Rechner war nicht durch technische Schutzvorkehrungen abgesichert (Cookies
waren zugelassen, es gab keinen Ad-Blocker etc.). Das „normale“ Prol war gegen
Tracking- Maßnahmen besser geschützt. Es wurde dabei unterstellt, dass preis-
sensitivere Nutzer eher technikafn sind und sich vor Tracking und ähnlichen Maß-
nahmen besser absichern. Das „normale“ Prol ließ zudem eine Suchhistorie er-
kennen, aus der hervorging, dass der (ngierte) Nutzer zuvor günstige Reiseanbieter,
Preisvergleichsportale und ähnliche Seiten besucht hatte.198
Die Anzahl der durchgeführten Tests (und mithin die Summe an generierten
Preisanfragen) ist aus der Studie nicht ersichtlich. Schleusener und Hosell führten
die Preisanfragen, soweit erkennbar, automatisiert und grundsätzlich zeitgleich
durch. Das zeitgleiche Anfragen von Preisen reduziert die Wahrscheinlichkeit, dass
von Personalised Pricing ausgegangen wird, obwohl die Preisschwankungen ander-
weitig begründet sind.199 Echte Test-Nutzer oder Crowdsourcing kamen nicht zum
Einsatz. Schleusener und Hosell führten mit Blick auf die gefundenen Ergebnisse
Experten-Interviews, die im Wesentlichen aber ergebnislos verliefen.200
bb. Ergebnisse
Die Abänderung des ortsbezogenen Merkmals (Preisanfrage simuliert aus drei ver-
schiedenen deutschen Städten; Apple-Betriebssystem MacOS bzw. iOS auf Laptop
und Smartphone) führte in keinem Fall zu einer Abänderung der gemessenen
Preise.201
Die Abänderung des technischen Merkmals (Endgeräte mit MacOS und Win-
dows) wurde über einen Zeitraum von vier Tagen abgeprüft. Täglich fanden sieben
Preisanfragen zu verschiedenen Uhrzeiten statt, um auf diese Weise der typischer-
weise im Lauf der Zeit schwankenden Kauffrequenz im Online-Handel Rechnung
zu tragen.202 Nur in einem Fall ging mit dem Wechsel des Betriebssystems/End-
197 Siehe ausführlicher dies., Expertise zum Thema „Personalisierte Preisdifferenzierung im
Online- Handel“, 2016, S.18f.
198 Dies., Expertise zum Thema „Personalisierte Preisdifferenzierung im Online-Handel“,
2016, S.19.
199 Auch bei dieser Versuchsanordnung (gleichzeitige Preisanfragen von verschiedenen End-
geräten, welche sich jeweils bloß mit Blick auf eine Variable unterscheiden) kann es vorkommen,
dass Preisschwankungen möglicherweise fälschlich als Preispersonalisierung betrachtet werden,
obwohl es sich um sog. Noise– also anderweitig begründete Preisschwankungen– handelt. Siehe
dazu die Ausführungen im Kontext der Studie von Hannak etal. (siehe unten Kap.7, IV. 4. a.).
200 Schleusener/Hosell, Expertise zum Thema „Personalisierte Preisdifferenzierung im Online-
Handel“, 2016, S.22.
201 Dies., Expertise zum Thema „Personalisierte Preisdifferenzierung im Online-Handel“,
2016, S.21.
202 Sog. Zeitreihentest, vgl. dies., Expertise zum Thema „Personalisierte Preisdifferenzierung im
Online-Handel“, 2016, S.21.
IV.Personalisierte Preise inder Praxis
154
geräts auch ein Wechsel der Ergebnisse einher, das wie folgt beschrieben wird: „Die
Ergebnisse zeigen, dass bei Pauschalreisen konstant günstigere Preise für das
Windows-Betriebssystem ausgespielt werden als für das von Apple.“203 Aus der zu-
gehörigen Grak ersichtlich sind recht beachtliche Preisunterschiede in der Größen-
ordnung von etwa 300 € (bei einem Reisepreis von knapp 2700 € resp. knapp
2400€). Es ist nicht erkennbar, bei welchem Anbieter diese Ergebnisse auftraten.
Diese festgestellte Preisdifferenz scheint sich aber nicht auf die exakt gleiche Reise
zu beziehen (also mit gleichem Flug, dem gleichen Hotel etc.), sondern auf ver-
schiedene Reisen, die als Ergebnis einer gleichartigen Anfrage (von den Verfassern
als „1 Wo. Grand Canaria 3 Sterne und 5 Sterne, HP“204 beschrieben) von Reisean-
bietern angezeigt wurden und nur von ihren formalen Rahmenbedingungen (Flug-
daten, Sternekategorie, inkludierte Verpegung etc.) her gleich sind. Sollte dies tat-
sächlich der Fall sein, lag keine Preispersonalisierung nach der hier vertretenen
modizierten Denition von Stigler205 vor. Denn aus Sicht des durchschnittlichen
Verbrauchers mögen diese Reisen zwar im Kern vergleichbar, aber doch nicht ohne
Weiteres austauschbar sein: Das genaue Hotel und die gebuchte Fluggesellschaft
dürften für die meisten Kunden wesentliche Faktoren sein, die bei der Buchung eine
ausschlaggebende Rolle spielen. Die verschiedenen Pauschalreisen wären also nicht
„gleich“ im Sinne der Denition. Damit wäre das Vorliegen von Preispersonalisierung
von vornherein ausgeschlossen. Es läge aber ein Fall von Price Steering vor, wenn
das Endgerät bzw. Betriebssystem der Kunden Einuss darauf hat, welche Angebote
diesen in der Reihung der Suchergebnisse als Erstes angeboten werden.
Die Abänderung des nutzerbezogenen Merkmals führte in einem Fall zu fest-
stellbaren Unterschieden, nämlich beim Vergleich des neutralen Prols zum „Lu-
xus“-Prol.206 Beim Anbieter Ab-in-den-Urlaub.de wurde bei einer hochpreisigen
Pauschalreise dem ngierten Nutzer mit dem „Luxus“-Prol bei Verwendung des
gleichen Betriebssystems ein um 34€ höherer Preis angezeigt (2230€ statt 2196€).
Ausgehend von der neutralen Preisanfrage stieg der Endpreis damit um etwas mehr
als 1,5%. Angesichts der gewählten Methode ist aber wohl nicht auszuschließen,
dass es sich hierbei nicht um Preispersonalisierung, sondern um anderweitig be-
gründete Preisschwankungen gehandelt hat.
Unabhängig davon – und eigentlich nicht von der ursprünglichen Versuchs-
anordnung erfasst– stellten die Verfasser fest, dass ein bestimmter Flug der Luft-
hansa von Düsseldorf nach Barcelona bei Anfrage des Preises auf Google Flights
(einem Preisvergleichs-/Buchungsportal für Flugreisen) um 39,91€ günstiger war
als bei Buchung direkt auf der Anbieter-Seite (89€ anstelle von 128,91€).207 Aus
203 Dies., Expertise zum Thema „Personalisierte Preisdifferenzierung im Online-Handel“,
2016, S.21.
204 Dies., Expertise zum Thema „Personalisierte Preisdifferenzierung im Online-Handel“,
2016, S.16.
205 Vgl. dazu oben Kap.6, I. 2.
206 Schleusener/Hosell, Expertise zum Thema „Personalisierte Preisdifferenzierung im Online-
Handel“, 2016, S.20.
207 Dies., Expertise zum Thema „Personalisierte Preisdifferenzierung im Online-Handel“,
2016, S.21.
Kapitel 7: Preispersonalisierung
155
der Untersuchung geht nicht hervor, ob diese Preisdifferenz ein Einzelfall oder Aus-
druck einer systematisch umgesetzten Strategie der Lufthansa war.
cc. Wertende Zusammenfassung
In neun von zehn Branchen konnten die Verfasser keinerlei Hinweise auf Preis-
personalisierung feststellen und quittieren deshalb eine „extrem geringe Verbreitung
der Preisdifferenzierung unter Verwendung von personenbezogenen Daten in
Deutschland“.208 Nur im Reisesektor wurden überhaupt preisliche Unterschiede
festgestellt, die Ausdruck von Preispersonalisierung sein könnten (höhere Preise für
das „Luxus“-Prol auf Ab-in-den-Urlaub.de sowie ein niedrigerer Preis für Google
Shopping-Kunden bei der Lufthansa).209 Die von Schleusener und Hosell gewählte
Methode erlaubt es nur eingeschränkt, die gefundenen Ergebnisse zu analysieren
und zu bewerten, da nicht klar ist, ob Noise (also ein Schwanken von Preisen, das
nicht auf Preispersonalisierung zurückzuführen ist) angemessen berücksichtigt
wurde. Auch wurde leider nicht mitgeteilt, wie viele Preisanfragen bei den ver-
schiedenen Anbietern getätigt wurden– dies wäre vor allem mit Blick auf die Frage
interessant, ob die gefundenen Preisdifferenzen Einzelfälle oder systematisch im-
plementiert sind.
Die Studie lässt sich in der Summe als deutliches Indiz dafür sehen, dass Preis-
personalisierung in Deutschland nicht bzw. nur in (sehr) geringem Ausmaß vor-
kommt. Eine sichere dahingehende Erkenntnis lässt sich aus der Studie aber nicht
ableiten: Es ist– wie auch bei den anderen Studien– durchaus denkbar, dass Fälle
von Preispersonalisierung nicht erkannt wurden. Dies wäre beispielsweise denkbar,
wenn Anbieter auf andere Variablen als die hier untersuchten zurückgreifen. Un-
abhängig davon ist bemerkenswert, dass die „auffälligen“ Fälle allesamt– wie auch
bei anderen Studien– aus dem Reisebereich stammen.
d. Studie im Auftrag des Bundesministeriums der Justiz und für
Verbraucherschutz (2021)
aa. Forschungsfragen und Methode
Im März 2021 wurde eine vom Bundesministerium der Justiz und für Verbraucher-
schutz (BMJV) in Auftrag gegebene Studie veröffentlicht, die das Vorkommen von
Preispersonalisierung im deutschen Online-Handel empirisch untersucht. Die Studie
behandelt die Forschungsfragen, ob in der Praxis Preispersonalisierung stattndet,
von welchen Kriterien diese ggf. abhängt und welches Ausmaß ihre Auswirkungen
208 Dies., Expertise zum Thema „Personalisierte Preisdifferenzierung im Online-Handel“,
2016, S.22.
209 Es wird hier davon ausgegangen, dass die beschriebenen Preisunterschiede für Windows- bzw.
MacOS-Nutzer nur bei ähnlichen, nicht aber gleichen Pauschalreisen aufgetreten sind und mithin
nicht unter die hier vertretene Denition von Preispersonalisierung fallen.
IV.Personalisierte Preise inder Praxis
156
haben.210 Ihre Verfasser grenzen Dynamic Pricing und Preispersonalisierung kon-
zeptionell (und in Übereinstimmung mit dem hiesigen Verständnis) voneinander ab
und legen Wert darauf, dass das Studiendesign diese Unterscheidung adäquat be-
rücksichtigt. Die Studie widmet sich 15 Anbietern verschiedener Güter bzw. Dienst-
leistungen sowie fünf Vergleichsportalen, welche mit Blick auf ihren in Deutsch-
land erzielten Umsatz und ihre Beliebtheit als besonders bedeutend eingestuft
wurden.211 Auf diesen Webseiten wurde jeweils ein konkretes Produkt bzw. eine
konkret spezizierte Dienstleistung ausgewählt, um systematisch zu überprüfen, ob
personalisierte Preise zum Einsatz kommen.212
Beim ersten Teil der Studie handelt sich um eine sog. deskriptive Analyse, die
auf einer Datenerhebung in Form einer umfassenden und systematischen Abfrage
von Preisen über einen längeren Zeitraum basiert. Die Datenerhebung erfolgte mit-
hilfe eines sog. automatisierten Erhebungsstranges per Preisabfragesoftware im
Zeitraum 9.6. bis 4.10.2020 sowie unter Einsatz von 21 echten Test-Nutzern, die im
Zeitraum 6.7. bis 4.10.2020 manuell Preise erhoben haben (sog. manueller Er-
hebungsstrang).213 Bestimmte Variablen konnten aus technischen Gründen nur im
manuellen Erhebungsstrang abgefragt werden.214 Die Test-Nutzer repräsentierten
verschiedene Kauf- bzw. Surfhistorien („weniger kaufkräftig“ bis „sehr kauf-
kräftig“), konnten aber nicht die vielfältigen Kombinationsmöglichkeiten abdecken,
die wiederum im automatisierten Strang möglich waren.
Auf diese Weise wurden Daten zu verschiedenen Variablen erhoben, die im Ver-
dacht standen, Einuss auf die im Einzelfall verlangten Preise zu haben: Standort
des Käufers in Deutschland (u. a. Berlin, Düsseldorf und Frankfurt a. M.), ver-
wendetes Endgerät (Desktop-PC, Apple iPhone, Android Smartphone etc.), Be-
triebssystem (MacOS X, Windows 10, Linux, iOS etc.), Browser (Apple Safari,
Google Chrome etc.), Cookie-Akzeptanz (ja oder nein), Einsatz von Do-Not-Track-
Software (ja oder nein). Auch wurde (nur im manuellen Erhebungsstrang) erhoben,
ob es einen Unterschied macht, ob ein Kunde während des Kaufs mit einem Kunden-
konto auf der jeweiligen Webseite bzw. bei einem sozialen Netzwerk eingeloggt ist.
210 Ibi research an der Universität Regensburg GmbH/trinnovative GmbH, Empirie zu personali-
sierten Preisen im E-Commerce, 2021, S.13.
211 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.13 und 16. Es handelt sich
um die Anbieter Amazon, Otto, Zalando, MediaMarkt, Notebooksbilliger, Tchibo, H&M, About
You, IKEA, Thomann, Hornbach, dm, TUI, AVIS, Ryanair und um die Vergleichsportale Booking.
com, Idealo, Geizhals, Günstiger.de und Check24.
212 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S. 17. Es handelt sich um
folgende Produkte bzw. Dienstleistungen: AmazonBasics Staubsauger, Apple iPhone 11, Avis
Golf, BH Cosmetics Lidschatten, Diesel Jeans, H&M Socken, Harley Benton Gitarre, InterCity
Hotel Hamburg, LG Monitor, Levis Stiefelette, Miele Waschmaschine WCA 030, Picard Schulter-
tasche, Regal Kallax, Rotband Vorschlaghammer, Ryanair-Flug Berlin-Dublin, Seltmann-Weiden
Kaffeeservice, Specialized Fahrrad, Tchibo Koffer, Tesoro Bürostuhl, Tui Sheraton Miramar Re-
sort, UGG Stiefelette. Einzelne Produkte waren während des laufenden Testzeitraums wider Er-
warten nicht mehr verfügbar. Sie wurden durch vergleichbare Produkte ersetzt.
213 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.28f.
214 Vgl. dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.14f.
Kapitel 7: Preispersonalisierung
157
Insgesamt wurden 403 204 verwertbare Datensätze mit jeweils 17 Datenpunkten
erhoben. Davon wurden 250 091 Datensätze im automatisierten und 153 113 im
manuellen Erhebungsstrang erfasst.215 Im Fokus des Interesses stand nicht die ab-
solute Preishöhe als solches, sondern das jeweilige Ausmaß der relativen Preis-
differenz zu einem bei jeder Preisabfrage parallel als Referenzwert abgefragten
Standardfall. Bei diesem wurde davon ausgegangen, dass keine Preispersonalisierung
zu erwarten ist.216 Die Studienersteller bewerten eine unter diesen Erhebungs-
bedingungen festgestellte Preisdifferenz als Preispersonalisierung.
Im zweiten Teil der Studie wurden die erhobenen Daten mithilfe der sog. multi-
variaten linearen Regressionsanalyse in Form der Kleinste-Quadrat-Methode aus-
gewertet. Diese Art der Datenanalyse erlaubt die Feststellung, welchen Einuss die
Abänderung einzelner Variablen (bzw. ihre jeweilige Kombination) auf die konkret
von einzelnen Kunden verlangten Preise hat. Dies ermöglicht letztlich die Inter-
pretation der erhobenen Daten und die Feststellung, welche Variablen ggf. zu wel-
chen Preisänderungen im Einzelfall geführt haben.217
Mittels umfassender technischer Vorkehrungen sollte gewährleistet werden, dass
die untersuchten Webseiten die zahlreichen systematisch ausgeführten Preis-
abfragen nicht als solche erkennen und in der Folge blockieren oder bewusst von
einer Personalisierung absehen. So wurde unter anderem mithilfe von Proxy-Ser-
vern sichergestellt, dass die den Preis abfragende IP-Adresse sich stets ändert. Dies
war auch dann möglich, wenn es bei der Preisabfrage auf den konkreten Standort
des Käufers ankam, da verschiedene IP-Adressen durchaus den gleichen Ort er-
kennen lassen können.218
bb. Ergebnisse
Die Ergebnisse der deskriptiven Datenanalyse und der Regressionsanalyse müssen
in Bezug zueinander gesetzt werden, um aussagekräftige Schlüsse ziehen zu können.
Die deskriptive Datenanalyse ergab, dass in 3,31% der erhobenen Fälle eine
Preisdifferenz zum Standardfall vorlag.219 Bei isolierter Betrachtung ist diese Er-
kenntnis aber nur bedingt aussagekräftig, denn die Regressionsanalyse hat die Ver-
mutung bestätigt, dass dieses produkt- und seitenübergreifend gültige Ergebnis im
Wesentlichen auf Preisabfragen bei einer einzelnen Dienstleistung (Buchung des
InterCity Hotels Hamburg über die Plattform Booking.com auf einem mobilen End-
215 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.35.
216 Nutzer ohne Surf- und Kaufhistorie, Desktop-PC (Windows 10), Google Chrome-Browser, kein
vorhergehender Besuch der untersuchten Webseite, Browser akzeptiert Cookies, Do-Not-Track-
Einstellung ist deaktiviert, kein Log-in in Kundenkonto oder sozialem Netzwerk während der
Preisabfrage (dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.17, 32 und 68).
217 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.15.
218 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.24f.
219 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S. 37 f. Es geht an dieser
Stelle nur darum, ob eine Preisdifferenz festgestellt werden konnte, aber (noch) nicht um ihre Höhe.
IV.Personalisierte Preise inder Praxis
158
gerät) zurückzuführen ist.220 Der Anteil an Datensätzen mit Preisdifferenz betrug
dort 49,11% und war damit mit weitem Abstand am größten (der zweithöchste An-
teil an Datensätzen mit Preisdifferenz entel auf das Apple iPhone 11 mit 1,92%).221
Booking.com vermittelt auf Provisionsbasis Hotelzimmer (und andere Unter-
künfte) an Endverbraucher, ohne dabei die Preise selbst festzulegen. Als maß-
gebende Variable für Preispersonalisierung wurde das bei der Preisabfrage zum
Einsatz kommende Endgerät identiziert: Bei Aufruf der Webseite über ein mobiles
Endgerät el der jeweils verlangte Preis um 5,89 bis 10,73% (ausgehend von den
kombinierten Daten des automatisierten und des manuellen Erhebungsstrangs) bzw.
um 8,77 bis 11,14 % (ausgehend nur von den Daten des manuellen Erhebungs-
strangs).222 Hintergrund dieser nicht unerheblichen Preisdifferenzen war, dass Boo-
king.com den auf der Plattform tätigen Anbietern die Möglichkeit einräumt und
nahelegt, denjenigen Kunden einen Rabatt zu gewähren, die ein Zimmer über ein
mobiles Endgerät buchen.223 Dieser Rabatt wird während des Besuchs der Webseite
deutlich kommuniziert („Preis nur für Mobilgerätnutzer“).224 Booking.com nennt
als Argument für die Preisreduktion u.a. die dadurch gesteigerte Konversionsrate.225
Es scheint sich um ein Bündel kaufmännischer Erwägungen und Erfahrungen zu
handeln, das die Anbieter dazu bringt, diesen Rabatt zu gewähren. Sofern man
unterstellt, dass diese Preisreduktion (zumindest auch) auf einer vermuteten niedri-
geren Zahlungsbereitschaft der Mobilgerätenutzer basiert, handelt es sich um
mittelbare Preispersonalisierung: Die preisliche Andersbehandlung wird offen
kommuniziert und dem Kunden gegenüber mit einer Rechtfertigung versehen. Es
ist zudem bemerkenswert, dass im Kontext dieser konkreten Hotelbuchung im
manuellen Erhebungsstrang das Aktivieren der Do-Not-Track-Funktion zu einer
Preisdifferenz in Höhe von 2,93% zugunsten der Kunden geführt hat. Bei der kom-
binierten Datenerhebung betrug die Abweichung nur 0,64 %.226 Gewisse Aus-
wirkungen hatte zudem der verwendete Browser bei Desktop-PCs im manuellen
Erhebungsstrang.227 Andere Variablen (Akzeptanz von Cookies, Log-in bei sozia-
lem Netzwerk etc.) hatten keinen nennenswerten Einuss auf die bei der Buchung
dieses Hotels verlangten Preise.
Abgesehen von diesem besonders auffälligen Fall war das Vorliegen von Preis-
differenzen bei produktbezogener Betrachtung im Rahmen der deskriptiven Ana-
lyse nur in sehr geringem Ausmaß zu beobachten. Die Studienersteller heben ein
paar Produkte hervor: Apple iPhone 11 (Preisdifferenz feststellbar in 1,92% der
220 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.62ff.
221 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.38.
222 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.63f.
223 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.68f.
224 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.69.
225 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.69. Vgl. auch https://part-
ner.booking.com/de/lösungen/handy-rate sowie https://partner.booking.com/de/hilfe/ratenver-
fügbarkeiten/raten-angebote/preise-für-mobilgeräte (jeweils zuletzt aufgerufen am 31.3.2023).
226 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.63f.
227 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.63f.
Kapitel 7: Preispersonalisierung
159
Fälle), Tui Sheraton Miramar Resort (1,29%), Picard Schultertasche (0,96%), Te-
soro Bürostuhl (0,72%). Bei den übrigen Produkten war der Anteil an Datensätzen
mit Preisdifferenz zu vernachlässigen.228
Mit Blick auf die tatsächliche Höhe der jeweils feststellbaren Preisdifferenz
sprechen die Studienersteller von einem „verschwindend geringen durchschnitt-
lichen Preisunterschied“.229 Dieser spielt sich, wenn man das InterCity Hotel Ham-
burg nicht berücksichtigt, im Durchschnitt in einem Bereich von -0,04 bis 0,03%
ab. Die Preisdifferenzen schlagen sich bei dieser durchschnittlichen Betrachtungs-
weise stets zugunsten der Kunden nieder. Ausnahmen sind die Produkte Diesel
Jeans und der Ryanair-Flug Berlin-Dublin: Hier zahlen die Kunden aufgrund der
Personalisierung durchschnittlich einen Preisaufschlag von bis zu 0,03% im Ver-
gleich zum Standardfall.230
Die Regressionsanalyse im zweiten Teil der Studie konnte diese Ergebnisse wei-
ter mit Aussagekraft füllen. Zu diesem Zweck haben die Studienersteller die vor-
handenen Datensätze schrittweise beschnitten und separat ausgewertet, um ziel-
gerichtet den Einuss einzelner Variablen und ihre Erklärbarkeit mit dem
Regressionsmodell zu bestimmen.231 Auf diese Weise konnte u.a. die einleitend
dargestellte Preispersonalisierung beim Anbieter Booking.com erkannt und im Rah-
men der Analyse von den restlichen Datensätzen abgetrennt werden, um diese iso-
liert auf das Vorkommen von Preisdifferenzen zu untersuchen. Relevant ist hier vor
allem die Regressionsanalyse des Datensatzes, aus dem sowohl das besonders
„auffällige“ InterCity Hotel Hamburg als auch diejenigen Produkte entfernt wur-
den, bei denen keine nennenswerten Preisdifferenzen feststellbar waren.232 Es han-
delt sich dabei um die Produkte bzw. Dienstleistungen Miele Waschmaschine WCA
030, Picard Schultertasche, Tesoro Bürostuhl, Tui Sheraton Miramar Resort und
Apple iPhone 11. Die Auswertung hat ergeben, dass das Bestimmtheitsmaß extrem
klein ist und im untersuchten Datensatz „nur 0,1 % der beobachteten Preis-
abweichungen durch das Regressionsmodell erklärt werden können.“233 Daraus
könne geschlussfolgert werden, dass in diesem Datensatz „keine systematischen
Preisabweichungen“ zu erkennen sind. Dies gilt gleichermaßen für die manuell er-
hobenen Daten.234 Interessant sind schließlich noch die Ergebnisse der Regression
228 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.38f. Beispielsweise betrug
der Anteil an Datensätzen mit Preisdifferenzen beim AmazonBasics Staubsauger 0,07%, beim BH
Cosmetics Lidschatten 0,02% und beim Regal Kallax 0,04%.
229 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.40.
230 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.40.
231 Vgl. dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.56: „Insgesamt wer-
den verschiedene Regressionen durchgeführt und verglichen: Regression mit allen Datensätzen,
Regression nach Entfernung von Produkten ohne Preisdifferenzen, Regression des auffälligen Pro-
duktes ‚IntercityHotel Hamburg‘ sowie Regression der auffälligen Produkte ohne ‚IntercityHotel
Hamburg‘ und zuletzt Regression der Daten des manuellen Strangs und der nur dort erfassten
Variablen.“
232 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.65f.
233 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.66.
234 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.66.
IV.Personalisierte Preise inder Praxis
160
des (kompletten) manuellen Erhebungsstrangs. Diese bestätigen im Wesentlichen
die bis dahin gefundenen Erkenntnisse und zeigen vor allem auch, dass der Um-
stand, ob ein Käufer während des Kaufs bei einem sozialen Netzwerk bzw. in einem
Kundenkonto eingeloggt ist, nicht mit nennenswerten Preisdifferenzen in Zu-
sammenhang steht.235
Die Studie schließt u. a. mit der Zusammenfassung, dass die „durchgeführte
statistische Auswertung der gesammelten Daten [nicht bestätigen konnte], dass per-
sonalisierte Preisgestaltung im Markt vorliegt und von Anbietern aktiv eingesetzt
wird.“236 Nur die Preisreduktion für Kunden von Booking.com, die über ein mobiles
Endgerät buchen, stellt tatsächlich (mittelbare) Preispersonalisierung dar. Sie ist
äußerst simpel konzipiert, da die Preisreduktion von einem einzelnen Faktor (dem
verwendeten Endgerät) abhängt. Dieser wird zudem offen kommuniziert. Die übri-
gen nachweisbaren Preisabweichungen bewegen sich demgegenüber durchgängig
im Bagatellbereich.
4. Wissenschaftliche Studien
a. Hannak etal. (2014)
Eine umfangreiche, von Hannak etal. durchgeführte Studie aus dem Jahr 2014
hat sich mit zwei Formen der Personalisierung im Online-Handel beschäftigt.237
Ihr Schwerpunkt lag auf datenbasierter Preispersonalisierung238 sowie Suchdis-
kriminierung. Letztere bezieht sich auf die Personalisierung der Reihenfolge bzw.
des Inhalts von Suchergebnissen (sog. Price Steering) und wird im Folgenden hier
nur am Rande berücksichtigt. Die Studie zeichnet sich zum einen durch ihre metho-
dische Herangehensweise aus. Die Verfasser haben eine Methode entwickelt, die es
erlaubt, Preis- und Suchpersonalisierung im Online-Handel mit hoher Genauigkeit
zu messen. Darauf bauen die anderen bereits in Bezug genommenen Studien teil-
weise auf oder nehmen auf sie anderweitig Bezug.239 Inhaltlich versuchen die Auto-
235 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.66f.
236 Dies., Empirie zu personalisierten Preisen im E-Commerce, 2021, S.71.
237 Hannak/Soeller/Lazer u.a., Measuring Price Discrimination and Steering on E-Commerce Web
Sites, 2014.
238 Die Autoren sprechen von Preisdiskriminierung („price discrimination“) und denieren diese
wie folgt: „Price discrimination occurs when two users are shown inconsistent prices for the same
product (e.g., Travelocity showing a select user a higher price for a particular hotel).“ (dies.,
Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S. 3). Aus der
Denition und aus den weiteren Ausführungen im Laufe der Studie geht hervor, dass der begriff-
lich engere Ausdruck Preispersonalisierung nach dem hiesigen Verständnis gemeint ist.
239 Vgl. Competition and Markets Authority (CMA), Pricing Algorithms, 2018, S.53 und 61; Euro-
pean Commission, Consumer Market Study on Online Market Segmentation through personalised
Pricing/Offers in the European Union– ANNEXES, 2018, S.109f.; Schleusener/Hosell, Expertise
zum Thema „Personalisierte Preisdifferenzierung im Online-Handel“, 2016, S.15.
Kapitel 7: Preispersonalisierung
161
ren, zwei übergeordnete Fragen zu beantworten: Wie weitverbreitet ist Personalisie-
rung im Online-Handel? Und: Auf welche Art und Weise– also anhand welcher
Variablen– wird Personalisierung tatsächlich umgesetzt?240 Um die erste Frage zu
beantworten, haben die Verfasser der Studie auf 300 echte Test- Nutzer zurück-
gegriffen. Für die Beantwortung der zweiten Frage wurden Nutzer mittels einer
Software ngiert: So konnten kontrollier- und vergleichbare Testsituationen ge-
schaffen werden, die es erlaubt haben, den Zusammenhang zwischen Preis-
personalisierung und konkreten Variablen zu überprüfen.
Die Studie bezog sich ausschließlich auf Personalisierung in den USA.Im Fokus
standen insgesamt 16 US-amerikanische Anbieter. Zehn davon kamen aus dem Be-
reich des allgemeinen Einzelhandels und sechs aus dem Reisebereich.241 Im Reise-
bereich wurden nur Hotel- und Mietwagenbuchungen berücksichtigt, nicht aber
Flugreisen. Für jede Seite wählten Hannak etal. 20 verschiedene Produkte bzw.
Buchungen aus. Es wurde auf eine möglichst breite Auswahl an Testprodukten ge-
achtet, die dem jeweiligen Produktsortiment angepasst war. Bei den Reiseanbietern
wurden Hotel- und Mietwagenbuchungen für zehn verschiedene Städte (weltweit)
und mit unterschiedlich langer Mietdauer (jeweils 4- und 11-tägige Buchung; im
zweiten Teil der Studie 1- und 2-tägige Buchung) getestet.
aa. Abstraktes Ausmaß der Preispersonalisierung
Um die erste Frage zu beantworten (die Bestimmung des Ausmaßes an Preis-
personalisierung überhaupt), haben die Verfasser der Studie 300 Test-Nutzer akqui-
riert, die in den USA wohnen. Die Verfasser standen vor der Aufgabe, eine Methode
zu entwickeln, mit der festgestellt werden kann, in welchem Ausmaß
Preispersonalisierung vorkommt. Die Schwierigkeit bestand dabei in der Ab-
grenzung von anderweitig begründeten Preisschwankungen, welche in der Studie
als Noise bezeichnet werden und unabhängig vom jeweiligen Kunden zu beobachten
sind.242 Das Design der Tests war so ausgestaltet, dass die Preisanfragen von den
Test-Nutzern (im Wesentlichen automatisiert mittels einer dafür geschriebenen
Software) mit ihrem jeweils eigenen, auch sonst im Alltag verwendeten Endgerät
durchgeführt wurden. Dementsprechend waren darauf bereits im „typischen“, je
nach Test-Nutzer unterschiedlichen Umfang Cookies, Browserverläufe und weitere
„digitale Spuren“ gespeichert, welche möglicherweise einer Preispersonalisierung
dienen können. Jeweils 100 Test-Nutzer haben Anfragen in den Bereichen On-
240 Vgl. Hannak/Soeller/Lazer u.a., Measuring Price Discrimination and Steering on E-Commerce
Web Sites, 2014, S.2.
241 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.4. Bei
den Einzelhändlern handelte es sich um Best Buy, CDW, HomeDepot, JCPenney, Macy’s, Newegg,
Ofce Depot, Sears, Staples und Walmart. Bei den Anbietern aus dem Reisebereich handelte es
sich um Cheaptickets, Expedia, Hotels.com, Orbitz, Priceline, Travelocity.
242 Zu den möglichen anderen Gründen für Preisschwankungen siehe dies., Measuring Price Di-
scrimination and Steering on E-Commerce Web Sites, 2014, S.3.
IV.Personalisierte Preise inder Praxis
162
line-Handel, Hotelbuchungen und Mietwagenbuchungen durchgeführt. Pro Nutzer
wurden dementsprechend auf fünf oder zehn Seiten jeweils 20 Produkte bzw. Bu-
chungen angefragt.243 Letztlich wurden so Ergebnisse für 20 Seiten generiert, wobei
vier Seiten jeweils in der Kategorie Hotelbuchungen und in der Kategorie Miet-
wagenbuchungen gelistet waren und somit „doppelt“ geprüft wurden. Die von der
Testsoftware initiierten Anfragen wurden über einen von den Verfassern der Studie
kontrollierten Proxy-Server umgeleitet.244 Auf jede dieser „echten“ Anfragen kam
zwei weitere hinzu, welche exakt zeitgleich den Preis für das gleiche Produkt auf
der Seite abgefragt haben. Diese beiden Anfragen wurden so vorgenommen, dass
ein „neutrales“ Endgerät (ohne Cookies etc.) ngiert wurde. Eine davon wurde als
Comparison Result, die andere als Control Result bezeichnet. Gab es zwischen dem
Comparison Result und dem Control Result preisliche Unterschiede, so musste es
sich um Noise, also um nicht personalisierte Preisschwankungen handeln– die An-
fragen waren ja völlig identisch und eine Personalisierung deshalb ausgeschlossen.
Ergaben sich in der Summe aller jeweiligen Test-Nutzer auch unter Berück-
sichtigung dieser „preislichen Grundschwankung“ Differenzen zwischen den Com-
parison Results und den Ergebnissen der echten Nutzer-Anfragen, so konnte dies
als Beweis echter Preispersonalisierung gesehen werden. Die Methode liefert in der
Summe– also nach Durchführung großer Testreihen mit vielen Test-Nutzern– aus-
sagekräftige Ergebnisse. Das Versuchsdesign ermöglicht es allerdings nicht, festzu-
stellen, warum im Einzelfall beim direkten Vergleich zwischen zwei Test-Nutzern
Preisdifferenzen auftreten, da diese Methode nicht zwischen Noise und Personali-
sierung unterscheiden kann, wenn nur diese zwei Werte vorliegen.245 Die Bünde-
lung dieser Anfragen über den Proxy-Server hatte (neben der Bestimmung des
Noise) zudem den Vorteil, dass sie zur gleichen Zeit und mit der stets gleichen
IP-Adresse durchgeführt werden konnten. Eine etwaige auf der IP-Adresse basie-
rende Personalisierung nach Aufenthaltsort konnte damit– wie von den Erstellern
der Studie beabsichtigt– ausgeschlossen werden.246
Die Verfasser haben die Ergebnisse zunächst sortiert nach den verschiedenen
Anbieter-Seiten dargestellt. Im Bereich des allgemeinen Einzelhandels lag Preis-
personalisierung bei Betrachtung aller Test-Nutzer und aller angefragten Produkte
auf acht von zehn Anbieter-Seiten nur bei weniger als 0,5% der abgefragten Pro-
dukte vor.247 Anders formuliert war bei diesen Seiten in über 99,5% der Preis-
243 Die 100 Test-Nutzer im Bereich des allgemeinen Einzelhandels hatten jeweils zehn Anbieter-
Seiten zu überprüfen. Die jeweils 100 Test-Nutzer im Bereich Reise- bzw. Hotelbuchungen hatten
pro Nutzer fünf Seiten zu überprüfen, da einer der sechs Reiseanbieter keine Hotelbuchungen und
ein anderer keine Mietwagenbuchungen angeboten hatte. Dementsprechend wurden vier der sechs
Reiseanbieter „doppelt“ überprüft: Einmal von 100 Test-Nutzern in der Kategorie Hotelbuchung
und einmal von 100 Test-Nutzern in der Kategorie Mietwagenbuchung.
244 Zu den technischen Hintergründen siehe Hannak/Soeller/Lazer u.a., Measuring Price Discrimi-
nation and Steering on E-Commerce Web Sites, 2014, S.4f.
245 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.3.
246 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.5.
247 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.6.
Kapitel 7: Preispersonalisierung
163
anfragen keinerlei Personalisierung erkennbar.248 Ausnahmen waren die Baumarkt-
kette HomeDepot und der Haushaltswaren- sowie Kleidungsanbieter Sears. Bei
HomeDepot lag bei knapp über 1% der angefragten Produkte Preispersonalisierung
vor, bei Sears lag der Wert knapp über 0,5 %. Deutlich häuger wurde Preis-
personalisierung im Reisebereich festgestellt. Bei Hotelbuchungen wurde auf drei
von fünf Anbieter- Seiten die Schwelle von 0,5% überschritten (Cheaptickets, Or-
bitz und Priceline mit jeweils gut 0,5%). Bei Mietwagenbuchungen war Preis-
personalisierung sogar bei allen fünf Seiten aufzunden. Der Höchstwert hier lag
bei 3,6% (bei Priceline).
Bei den Anbietern, bei denen in mehr als 0,5% der Fälle Preispersonalisierung
festgestellt wurde, wurden die Daten weitergehend analysiert, um die absoluten
Preisunterschiede sowie ihre Verteilung festzustellen. Bemerkenswert ist zunächst,
dass die Personalisierung im Durchschnitt – also nicht zwangsläug in jedem
Einzelfall– zu höheren Preisen geführt hat.249 Sofern Preispersonalisierung statt-
gefunden hat, konnte dies zu durchaus bedeutenden Preisunterschieden führen. Die
Verfasser nennen leider keine konkreten Zahlen, sondern stellen diese nur grasch
dar.250 Der Grak lässt sich entnehmen, dass der Mittelwert der Preisunterschiede in
einigen Fällen die 100-$-Grenze überschreitet und (als Umkehrschluss aus den ab-
gebildeten Perzentilen ersichtlich) in Einzelfällen preisliche Unterschiede bis zu
einem Vielfachen dieses Wertes aufgetreten sind. Beispielhaft nennen die Verfasser
die Anfrage für eine Hotelbuchung in Paris, bei dem die neutralen Preisanfragen der
Verfasser (also das Control und das Comparison Result) jeweils den gleichen Preis
in Höhe von 565 $ ergeben haben, während ein Test-Nutzer als Ergebnis der zeit-
gleichen identischen Anfrage 633 $ zu zahlen gehabt hätte.251 Leider machen die
Verfasser ansonsten nur wenige konkrete Angaben zu den untersuchten Produkten:
Sie führen aus, dass sie die zum Vergleich herangezogenen Produkte auf das
Sortiment des jeweiligen Anbieters abgestimmt haben. So haben sie z.B. bei JCPen-
ney u. a. auf Kissen und Sonnenbrillen und bei Newegg auf LCD-Fernseher und
Telefone abgestellt.252 Unterteilt nach Anbieter ist grob erkennbar, welche absoluten
Preisunterschiede aufgetreten und wie sie verteilt sind. Daraus lässt sich aber nicht
ablesen, wie die preislichen Unterschiede verteilt auf die einzelnen Produkte aus-
fallen. Vor allem ist nicht ersichtlich, in welcher Relation die absoluten Preisunter-
schiede zu den Referenzpreisen der in den Fokus genommenen Produkte stehen. So
ist z.B. mit Blick auf das 95-%-Perzentil bei HomeDepot erkennbar, dass es min-
destens einen Fall gegeben haben muss, in dem der Preisunterschied (zu Lasten des
Test-Nutzers) in der Größenordnung von etwa 1000 $ lag. Es ist aber nicht erkenn-
248 Es geht an dieser Stelle zunächst nur darum, ob Personalisierung stattndet, und nicht um die
Höhe der Personalisierung im Einzelfall.
249 Hannak/Soeller/Lazer u.a., Measuring Price Discrimination and Steering on E-Commerce Web
Sites, 2014, S.7.
250 Vgl. die Graphik „Figure 3“ (dies., Measuring Price Discrimination and Steering on E-
Commerce Web Sites, 2014, S.6).
251 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.7.
252 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.4.
IV.Personalisierte Preise inder Praxis
164
bar, um welches Produkt es sich gehandelt hat und wie viel dieses für andere Kun-
den gekostet hätte.
Die in diesem Abschnitt der Untersuchung zusammengetragenen Ergebnisse
wurden daraufhin aus Sicht derjenigen Test-Nutzer analysiert, bei denen bei mehr
als 0,5% der Preisanfragen eine Personalisierung festgestellt wurde („highly perso-
nalized users“). Dies diente dazu, herauszunden, ob (und ggf. welche) Gemeinsam-
keiten zwischen diesen Nutzern erkennbar sind und ob es dementsprechend mög-
lich ist, diese Gruppe von den nicht von Personalisierung betroffenen Nutzern
abzugrenzen. Zunächst wurden dafür die wie beschrieben Betroffenen aus der
Masse an Nutzern „herausgeltert“. Im Ergebnis blieben dann je nach Anbieter-
Seite zwischen 2 und 12% der jeweiligen Test-Nutzer übrig, die (bei zumindest
einem der 20 pro Seite abgefragten Produkte) von Preispersonalisierung betroffen
waren.253 Der momentane Aufenthaltsort der Test-Nutzer spielte erwartungsgemäß
keine Rolle, da die IP-Adresse aller Preisanfragen wegen der Umleitung über den
Proxy-Server identisch war und dementsprechend keine derartige Diskriminierung
ermöglicht hat. Auch der Vergleich der verwendeten Browser bzw. Betriebssysteme
verlief (an dieser Stelle der Studie noch) ergebnislos. Hierbei ist anzumerken, dass
die Preisanfragen bei keinem der 300 Test-Nutzer über ein mobiles Endgerät vor-
genommen wurden.
bb. Gründe für Preispersonalisierung
Der zweite Teil der Studie widmet sich der übergeordneten Frage, aufgrund welcher
Faktoren Personalisierung vorgenommen wird. Der Schwerpunkt liegt dort eher auf
den Gründen für Price Steering. Es werden aber auch einige interessante Fest-
stellungen im Kontext von Preispersonalisierung getroffen. Methodisch wählen die
Verfasser der Studie hier einen anderen Ansatz. Im Gegensatz zum ersten Teil der
Studie kamen keine realen Test-Nutzer zum Einsatz, da deren Computer jeweils
individuelle Eigenschaften aufgewiesen hätten, welche eine systematische Unter-
suchung mangels vergleichbarer Ergebnisse unmöglich gemacht hätten.254 Statt-
dessen setzen Hannak etal. auf eine Mischung aus automatisierten und manuellen
Preisanfragen. Untersucht wurden fünf Variablen, bei denen die Autoren die Ver-
mutung hatten, dass sie zum Zwecke der Personalisierung eingesetzt werden. Drei
Variablen waren statisch: Bei der ersten ging es darum, ob der (ngierte) Test-Nut-
zer mit seinem Kundenkonto eingeloggt war oder nicht. Zudem gehören in diese
Kategorie der verwendete Browser sowie das verwendete Betriebssystem.255 Zudem
253 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.7.
254 Vgl. dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014,
S.7f.: Aussagekräftige, strukturierte Ergebnisse sind z.B. deshalb nicht möglich, weil diese Nut-
zer über ihre Browser in der Vergangenheit bereits unterschiedliche Käufe getätigt haben. Die
Untersuchung, ob die individuelle Kauf-Historie Grund für Personalisierung sein kann, wäre dann
kaum ohne Verzerrungen möglich.
255 Mit dem verwendeten Betriebssystem hängt die Frage zusammen, ob es sich bei dem Gerät, von
Kapitel 7: Preispersonalisierung
165
wurden zwei historische Variablen überprüft, nämlich das Klick-Verhalten der Nut-
zer (hier ging es darum, ob es Auswirkungen zeitigt, wenn ein Nutzer beim Surfen
auf einer bestimmten Anbieter-Seite primär hoch- oder niedrigpreisige Produkte
anklickt) sowie die von ihnen online getätigten Käufe (hier ging es um die Aus-
wirkungen bereits tatsächlich durchgeführter Käufe).256 Der letztgenannte Faktor
wurde im Bereich des allgemeinen Einzelhandels allerdings außen vor gelassen, da
die Verfasser der Studie die jeweiligen Produkte sonst tatsächlich hätten kaufen
(und zurückschicken) müssen. Insoweit liegen also keine Ergebnisse vor. Im Reise-
bereich (Hotel und Mietwagen) konnten die getätigten Buchungen hingegen einfach
storniert werden.
Die Studie kommt zu dem Ergebnis, dass in den meisten untersuchten Fällen
weder Price Steering noch Preispersonalisierung nachgewiesen werden konnte.257
Die Verfasser weisen zugleich darauf hin, dass ihre Methode nur geeignet ist, das
Vorkommen von Personalisierung positiv nachzuweisen– sie ermöglicht hingegen
nicht den Nachweis, dass keine Personalisierung stattndet.258 Auch liefern die bei-
den Teile der Studie Ergebnisse, die teilweise widersprüchlich wirken. So kann bei-
spielsweise im zweiten Teil der Studie keinerlei Personalisierung bei Mietwagen-
buchungen festgestellt werden. Derlei Widersprüche können damit erklärt werden
(bzw. deuten darauf hin), dass möglicherweise weitere Faktoren eine Rolle spielen,
welche von der gewählten Methode nicht erfasst wurden.259 Im Folgenden werden
nur die Fälle dargestellt, in denen Preispersonalisierung positiv nachgewiesen wer-
den konnte.
Im Bereich Hotelbuchungen wurde bei den Seiten Cheaptickets und Orbitz
Preispersonalisierung festgestellt: Von den mit ihrem Kundenkonto eingeloggten
Nutzern erhielten ca.5% personalisierte Preise. Innerhalb dieser Gruppe betrug die
Preisdifferenz im Schnitt 12 $ zugunsten der Betroffenen.260 Es handelte sich dabei
um reduzierte Preise für registrierte Nutzer. Die einschlägigen Angebote waren mit
dem Schriftzug „Members Only“ gekennzeichnet. Cheaptickets war zum damaligen
Zeitpunkt eine Tochtergesellschaft von Orbitz. 2015 wurde Orbitz von Expedia auf-
gekauft, dem nun beide Unternehmen gehören. Angesichts dieser Verechtungen ist
es nicht verwunderlich, dass die CMA in ihrer im Jahr 2017 durchgeführten Unter-
suchung261 bei Expedia auf die gleiche Vorgehensweise gestoßen ist.
dem aus die Anfrage gesendet wird, um ein mobiles Endgerät handelt (wie etwa ein Smartphone).
256 Zum Design der Tests siehe ausführlich Hannak/Soeller/Lazer u.a., Measuring Price Discrimi-
nation and Steering on E-Commerce Web Sites, 2014, S.8.
257 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.9.
258 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.13.
259 Vgl. dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.13.
260 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.9. Es
geht aus den Ausführungen nicht ganz eindeutig hervor, ob die hier genannten Werte für beide An-
bieter gelten oder nur für Cheaptickets. Die Darstellung wurde von den Verfassern der Studie ver-
einfacht, da beide Seiten zum Zeitpunkt der Erstellung der Studie de facto vom gleichen Anbieter
betrieben wurden und (wohl) die genau gleichen Preissetzungsmethoden eingesetzt hatten.
261 Siehe dazu oben Kap.7, IV. 3. a.
IV.Personalisierte Preise inder Praxis
166
Bei Travelocity wurde Preispersonalisierung festgestellt, wenn die Seite über das
mobile Betriebssystem iOS aufgerufen wurde.262 Dieses kommt auf Apple iPhones
und iPads zur Anwendung. Es waren ca.5% der angezeigten Hotelpreise betroffen.
Diese waren für die (ngierten) iOS-Nutzer durchschnittlich 15 $ günstiger als für
andere Kunden. Im Gegensatz zum Vorgehen der Seiten von Cheaptickets und Or-
bitz lag hier aber eine unmittelbare, da intransparente Personalisierung vor: Aus
Sicht des Kunden war kein Grund ersichtlich, warum von ihm (bzw. generell von
seiner Nutzergruppe „iOS-Nutzer“) teilweise niedrigere Preise verlangt wurden.263
Im Bereich des allgemeinen Einzelhandels konnte bloß bei HomeDepot Persona-
lisierung nachgewiesen werden, und zwar bei Verwendung des Betriebssystems
Android (für Smartphones verschiedener Hersteller).264 Der Umfang war allerdings
minimal: In ca.6% der Preisanfragen von Nutzern aus dieser Gruppe wurden er-
höhte Preise angezeigt. Im Durchschnitt betrug der Preisanstieg aber nur 0,41 $. Die
Verfasser der Studie konnten keine Erklärung für diesen in der Summe minimalen,
aber statistisch nachweisbaren Preisunterschied zu Lasten von Android-Nutzern er-
kennen. Sie spekulieren, dass die erhöhten Preise nicht Ausdruck einer bewussten
Preispersonalisierung, sondern stattdessen Fehlern beim Aufsetzen der Webseite für
mobile Endgeräte geschuldet sind.265
cc. Wertende Zusammenfassung
Die Ergebnisse von Hannak etal. deuten darauf hin, dass Preispersonalisierung in
der Form, dass verschiedenen Nutzern aufgrund ihrer persönlichen Eigenschaften
zum gleichen Zeitpunkt verschiedene Preise für das gleiche Produkt angezeigt wer-
den, ohne dass dafür ein Grund ersichtlich ist, keine Vorgehensweise ist, welche
regelmäßig oder gar institutionalisiert eingesetzt wird. Nicht von der Studie erfasst
sind die Fälle, in denen Preispersonalisierung indirekt umgesetzt wird, etwa durch
personalisierte Produkte oder gezielte Rabattaktionen für preissensitive Kunden.
Orbitz und Cheaptickets nehmen hier eine Sonderrolle ein: Die Personalisierung
wurde von diesen Unternehmen transparent vorgenommen. Die Anbieter haben bei
der Preiskommunikation somit den „offensiveren“ Weg gewählt: Sie legen die Per-
sonalisierung offen und begründen sie den Kunden gegenüber als eine Art
„Treuebonus“.
Auf das geringe Ausmaß an unmittelbarer Preispersonalisierung deuten beide
Teile der Studie hin: Im ersten wurde etwa im Bereich des allgemeinen Einzel-
handels festgestellt, dass bei acht von zehn Anbietern in über 99,5% der Preis-
anfragen keinerlei Personalisierung des Preises nachgewiesen werden konnte. Der
Reisebereich, hier vertreten durch Hotel- und Mietwagenbuchungen, scheint– inso-
262 Hannak/Soeller/Lazer u.a., Measuring Price Discrimination and Steering on E-Commerce Web
Sites, 2014, S.11.
263 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.11.
264 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.11f.
265 Dies., Measuring Price Discrimination and Steering on E-Commerce Web Sites, 2014, S.12.
Kapitel 7: Preispersonalisierung
167
fern decken sich die Ergebnisse mit denen der CMA, der Studie im Auftrag der
Europäischen Kommission und der Studie im Auftrag des Sachverständigenrats für
Verbraucherfragen– am ehesten zu Preispersonalisierung zu neigen. Der „Spitzen-
wert“ bei Mietwagenbuchungen beim Anbieter Priceline (bei 3,6 % aller Preis-
anfragen wurde Personalisierung vorgefunden) ist zwar kein unerheblicher. Er kann
aber dennoch als niedrig bezeichnet werden. Zugleich ist überraschend, dass die
preislichen Unterschiede in den wenigen Fällen, in denen Personalisierung tatsäch-
lich vorkommt, hoch sind: Der Mittelwert der absoluten Preisunterschiede liegt oft-
mals um die 100 $ und hat in Einzelfällen ein Mehrfaches davon erreicht. Eine
weitergehende wertende Einordnung ist an dieser Stelle schwierig, da weder die
angefragten Produkte noch die den anderen Test-Nutzern angezeigten Preise detail-
liert mitgeteilt wurden und somit die Relation der Preisschwankung unklar ist.
Im zweiten Teil der Studie wurden derart starke preisliche Ausreißer überhaupt
nicht registriert: Nur in wenigen Fällen wurde Preispersonalisierung überhaupt fest-
gestellt. Bemerkenswert sind hier die Fälle Orbitz/Cheaptickets sowie Travelocity.
Dort wurden Preise für wenige (ngierte) Test-Nutzer aufgrund jeweils einer einzel-
nen Variablen angepasst. Innerhalb der jeweiligen Gruppe (eingeloggte Nutzer bei
Orbitz/Cheaptickets bzw. iOS-Nutzer bei Travelocity) waren aber jeweils nur 5%
der Nutzer betroffen. Diese nachgewiesenen Fälle führten zu einer Absenkung des
Preises. Dies widerspricht den Ergebnissen des ersten Teils. Laut diesen ging Preis-
personalisierung stets mit einem erhöhten Preis zum Nachteil der Kunden einher.
Die Studie ergibt kein einheitliches Bild– und vermutlich kann man dies ange-
sichts der Komplexität der zu erhebenden Sachverhalte auch gar nicht erwarten.
Festzuhalten ist, dass sie methodisch in beiden Teilen nur in wenigen Fällen den
Nachweis von Preispersonalisierung erbringt. Zumindest wurde aber gezeigt, dass
diese vorkommt, und dass bestimmte Kriterien im Einzelfall eine Rolle gespielt
haben. Ein systemimmanentes Problem der gewählten Vorgehensweise ist, dass
diese nur das Vorhandensein von Preispersonalisierung positiv nachweisen kann,
nicht aber ihre Abwesenheit. Und auch hier kommen die durchgeführten Tests an
ihre Grenzen: Der erste Teil der Studie hat methodisch und mit Blick auf die Aus-
sagekraft der Ergebnisse den Vorteil, dass Preise für ganz verschiedene reale Nutzer-
typen erhoben werden konnten. So sind die gefundenen Ergebnisse potenziell recht
lebensnah. Die Überprüfung mittels der Control und der Comparison Results stellt
zudem sicher, dass es sich wirklich um Personalisierung und nicht um anderweitig
begründete Preisschwankungen gehandelt hat. In den festgestellten personalisierten
Preisen schlagen sich mithin ggf. ganz verschiedene Faktoren nieder, welche in den
(für die Anbieter feststellbaren) Eigenschaften der Nutzer begründet liegen. Freilich
ist denkbar, dass erst die Kombination verschiedener Faktoren schlussendlich einen
bestimmten Preis bedingt, da erst die kumulative Berücksichtigung unterschied-
licher Aspekte die Einteilung in Käufergruppen erlaubt. Hieran zeigt sich zugleich
das Problem der im ersten Teil gewählten Methode: Es kann festgestellt werden, ob
Personalisierung stattndet (und welche Preisschwankungen daraus resultieren)–
aber nicht, warum sie stattndet. Der zweite Teil der Studie zieht die Fragestellung
deshalb von der anderen Seite auf und versucht, die Frage des Einusses ver-
schiedener Faktoren zu ergründen. Dadurch, dass Nutzer ngiert und die Variablen
IV.Personalisierte Preise inder Praxis
168
unter Testbedingungen abgewandelt werden, kann der Einuss einzelner Nutzer-
eigenschaften systematisch überprüft werden. Diese Vorgehensweise produziert
klare Ergebnisse im Rahmen der jeweiligen Versuchsanordnung. Das Problem des
zweiten Teils ist aber, dass auch diese nur bedingt aussagekräftig sind. Dies liegt
zum einen daran, dass nur die fünf von den Autoren ausgewählten Variablen ab-
geprüft werden konnten. Andere Variablen wurden nicht berücksichtigt; ihre et-
waige Rolle bei der Preisbildung bleibt damit unklar. Zum anderen kann dieses
Versuchsdesign nicht die vielfältigen Kombinationsmöglichkeiten verschiedener
Faktoren sowie ihre Wechselwirkungen und Auswirkungen auf den Preis berück-
sichtigen. Die Kombination verschiedener personenbezogener Eigenschaften ist im
Rahmen eines solchen Experiments naturgemäß technischen Beschränkungen
unterworfen, sodass Fälle von Preispersonalisierung, die nur bei ganz bestimmten
Nutzerprolen auftreten, möglicherweise unentdeckt bleiben. Unabhängig davon
ist nicht auszuschließen, dass die überprüften Anbieter technische Möglichkeiten
zur Verfügung haben, Personalisierung zu verschleiern bzw. sie zu unterlassen,
sobald sie erkennen, dass im Rahmen einer systematischen Versuchsanordnung
wie im Fall der hier diskutierten Studie – dahingehende Untersuchungen an-
gestellt werden.
Trotz dieser kaum vermeidbaren methodischen Einschränkungen liefert die Stu-
die wertvolle Hinweise dahingehend, dass unmittelbare Preispersonalisierung zwar
vorkommt, aber eine eher seltene Ausnahme zu sein scheint. Der Nachweis von
Preispersonalisierung ist allerdings dennoch beachtlich, denn dieser ist in den zuvor
analysierten Studien nicht bzw. kaum gelungen. Dies mag daran liegen, dass diese
sich jeweils auf Anbieter bezogen haben, welche in der Europäischen Union an-
sässig sind. Hannak etal. nahmen hingegen den US-amerikanischen Raum in den
Blick. Vor diesem Hintergrund ist denkbar, dass die höheren (vor allem datenschutz-
und lauterkeitsrechtlichen) Hürden des europäischen Rechts266 die Anreize ab-
schwächen, Preispersonalisierung zu betreiben, und dementsprechend bei An-
bietern, die in der Europäischen Union tätig sind, weniger Fälle vorkommen.
b. Mikians etal. (2012)
Mikians etal. führten im Jahr 2012 eine systematische Studie zum Vorkommen von
Preispersonalisierung und Search Discrimination im Online-Handel durch. Im Jahr
2013 setzte die gleiche Forschungsgruppe die Untersuchung mithilfe von Crowd-
sourcing-Methoden fort.
Die hier zunächst analysierte erste Studie aus dem Jahr 2012 diente dazu, das
Vorkommen von Preispersonalisierung und Search Discrimination– dies entspricht
begrifich dem Ausdruck Price Steering– strukturiert zu untersuchen.267
266 Vgl. dazu überblicksmäßig European Commission, Consumer Market Study on Online Market
Segmentation through personalised Pricing/Offers in the European Union, 2018, S.94–96.
267 Mikians/Gyarmati/Erramilli u. a., Detecting Price and Search Discrimination on the Internet,
2012, S.1 verwenden den Begriff „Price Discrimination“ wie folgt: „Price discrimination is de-
Kapitel 7: Preispersonalisierung
169
aa. Überblick über die Versuchsanordnung
Die Autoren haben das Vorkommen von personalisierten Preisen mit Blick auf drei
Variablen untersucht. Die erste Variable war technischer Natur. Mit ihr sollte ge-
testet werden, ob die Verwendung verschiedener Browser (etwa Firefox, Internet
Explorer etc.) in Kombination mit verschiedenen Betriebssystemen (Windows,
MacOS, Linux) Einuss auf die angezeigten Preise hat.268 Beim Testen dieser Va-
riablen wurden immer die gleiche IP-Adresse (welche den Rechnerstandort im spa-
nischen Barcelona erkennen ließ) sowie ein „neutraler“ Computer verwendet. Der
Einsatz von seitenübergreifendem Tracking und das Hinterlassen anderweitiger di-
gitaler Spuren wurde technisch unterbunden.269 Auf diese Weise sollte sichergestellt
werden, dass ggf. der Browser oder das Betriebssystem (bzw. die jeweilige Kombi-
nation) und nicht etwa andere Faktoren für etwaige Preisunterschiede kausal sind.
Die zweite untersuchte Variable war der Aufenthaltsort des Nutzers. Mithilfe von
Proxy- Servern wurden Preisanfragen aus sechs verschiedenen Orten ngiert, näm-
lich aus den USA (Ostküste und Westküste), Deutschland, Spanien, Korea und Bra-
silien.270 Betriebssystem und Browser waren immer identisch. Zudem wurden die
Anfragen zeitgleich auf „neutralen“ Rechnern ausgeführt, sodass sich einzig die
IP-Adresse verändert hat, welche den Standort des Rechners erkennen ließ. Die
dritte Variable setzte die persönlichen, vom Anbieter online „erkennbaren“ Eigen-
schaften der ngierten Kunden in den Fokus. In diesem Kontext kamen zwei ver-
schiedene Untersuchungsmethoden zum Einsatz. Die erste war so gestaltet, dass
jeweils das Surfverhalten von besonders wohlhabenden und das von besonders
preissensitiven Nutzern („afuent customers“ und „budget conscious customers“)
simuliert wurde. Diese beiden Kundenprole wurden erschaffen, indem über einen
Zeitraum von sieben Tagen automatisiert Webseiten aufgerufen wurden. Anhand
der Auswahl der Seiten sollte das jeweils stereotype Surfverhalten widergespiegelt
werden. Für diesen Zweck wurden etwa für das wohlhabende Prol systematisch
Anbieter-Seiten aus dem Luxusgütersegment aufgerufen. Der ngierte preis-
sensitive Nutzer hat stattdessen Preisvergleichsportale und Seiten aus dem Dis-
count-Segment angesteuert.271 Bei dieser Versuchsanordnung wurden Tracking und
andere Methoden, um Nutzer digital zu verfolgen, nicht geblockt. So sollte getestet
werden, ob diese aus dem Surfverhalten ablesbaren Nutzerprole verschiedene
Preise (bzw. andere Produkte) angezeigt bekommen. Die zweite Untersuchungs-
methode der dritten Variablen hatte zum Gegenstand, ob es eine Rolle spielt, von
welcher Seite aus kommend ein Kunde die Anbieter-Seiten ansteuert.272 Es ging
ned as the ability to price a product on a per customer basis, mostly using personal attributes of
the customer. The collected information can be used to estimate the price a customer is willing to
pay.“ Er entspricht damit der hier verwendeten Denition von Preispersonalisierung.
268 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.3.
269 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.3.
270 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.3.
271 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.3f.
272 Kam ein Nutzer mittels einer Verlinkung von einer Seite zur anderen, so lässt sich dies in der
IV.Personalisierte Preise inder Praxis
170
damit nicht um das allgemeine Surfverhalten des Kunden, sondern darum, welche
Art von Seite es war, die ihn unmittelbar auf die Seite des Anbieters weitergeleitet
hatte (etwa eine Seite mit Bezug zu Luxusgütern oder ein Preisvergleichsportal).
Die zweite Untersuchungsmethode ähnelt damit von ihrer Herangehensweise her
der ersten. Sie ist durch die Eingrenzung auf die Rolle der jeweils weiterleitenden
Seite aber spezieller. Die Preisanfragen beim Testen der dritten Variablen wurden
allesamt von einem in Los Angeles (USA) bendlichen Windows-PC ngiert.273
Für die Preisanfragen wählten Mikians etal. 200 besonders hoch frequentierte
Anbieter-Seiten aus.274 Untersucht wurden pro Seite drei konkrete Produkte aus ins-
gesamt 35 Kategorien (inklusive Hotelbuchungen), in der Summe also 600 Pro-
dukte. Bei den drei Produkten pro Seite wurde jeweils eins aus dem unteren, mittle-
ren und oberen Preissegment angefragt. Bei den Hotelbuchungen wurde
dementsprechend zwischen Neben-, Zwischen- und Hauptsaison unterschieden.
Methodisch kamen– ähnlich wie im zweiten Teil der Studie von Hannak etal.
keine echten Test-Nutzer, sondern automatisierte Preisanfragen zum Einsatz.275 Die
Anfragen wurden im Juli 2012 über einen Zeitraum von insgesamt 20 Tagen mit-
hilfe eines sog. verteilten Systems (d.h. unter Rückgriff auf mehrere miteinander
verbundene Rechner) vorgenommen. Die Untersuchung war so ausgestaltet, dass
jeweils eine der drei Variablen isoliert abgeändert wurde. Auf diese Weise sollte ggf.
die Kausalität zwischen Änderung der Variablen und daraus resultierenden Preis-
schwankungen bewiesen werden. Deshalb wurde beim Testen des Einusses der
ersten beiden Variablen (u.a. mithilfe eines Proxy-Servers) Tracking unterbunden
und sichergestellt, dass keine „digitalen Spuren“ die Ergebnisse verfälschen. Bei
der dritten Variablen kongurierten Mikians etal. die Rechner hingegen so, dass
Tracking und ähnliche Verfahren ohne Weiteres möglich waren.
bb. Ergebnisse
Die Rolle der ersten Variablen (verschiedene Betriebssystem-Browser-Kom-
binationen) wurde über einen Zeitraum von vier Tagen unter Vornahme von ins-
gesamt mehr als 20 000 Preisanfragen überprüft. Es wurden keine Preisänderungen
gemessen.276
Für die Überprüfung der zweiten Variablen (geograscher Ursprung der Preis-
anfrage) wurden auf den 200 ausgewählten Anbieter-Seiten die gleichen Produkte
jeweils 10-mal angefragt. Hier war das Ergebnis im Wesentlichen gleich: In der
Regel traten keinerlei Preisunterschiede auf. Bloß drei Anbieter stellten die Aus-
Regel dem sog. Referrer Header entnehmen.
273 Mikians/Gyarmati/Erramilli u. a., Detecting Price and Search Discrimination on the Internet,
2012, S.4.
274 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.4.
275 Zu den technischen Hintergründen vgl. ausführlich dies., Detecting Price and Search Discrimi-
nation on the Internet, 2012, S.3.
276 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.4.
Kapitel 7: Preispersonalisierung
171
nahme dar, nämlich Amazon.com, Steampowered.com und Staples.277 Deshalb
führte die Forschergruppe bei diesen Seiten weitere Untersuchungen durch, die über
die ursprüngliche Versuchsanordnung hinausgingen. Bei Amazon.com traten die
Preisunterschiede ausschließlich bei Kindle E-Books auf. In der Mehrheit der An-
fragen betrug ihre Höhe mindestens 21%; der Spitzenwert lag bei 166%.278 Im Fall
von Steampowered.com wurden Preisunterschiede ausschließlich bei Computer-
spielen festgestellt. Über die Höhe der Preisunterschiede trifft die Studie keine Aus-
sage. Sie hält aber fest, dass beispielsweise beim Vergleich von Preisanfragen, die
aus Spanien und Deutschland kamen, in etwa 20% der Fälle Preisdifferenzen fest-
gestellt wurden. Im Fall von Staples verengte die Forschergruppe den Fokus (im
Rahmen ihrer weitergehenden Untersuchungen) geograsch auf die USA und
dehnte die Versuchsanordnung auf zehn (statt, wie sonst, drei) Produkte aus. Die
Preise wurden von 67 verschiedenen Orten in den USA aus angefragt. Bei vier Pro-
dukten kam es tatsächlich zu Preisschwankungen in Abhängigkeit von der geo-
graphischen Herkunft der Preisanfrage.279 Die Forschergruppe stellte keine signi-
kante Korrelation zwischen den festgestellten Preisschwankungen und solchen
Faktoren wie etwa der Bevölkerungsdichte, dem Einkommensniveau oder der (je
nach Bundesstaat unterschiedlich hohen) Steuerlast fest.280 Ähnliche Ergebnisse tra-
ten zutage, als der geographische Umfang weiter verengt wurde, nämlich auf einen
einzelnen Bundesstaat (Massachusetts). So sollten steuerlich begründete Preis-
unterschiede ausgeschlossen werden. Für diese Versuchsanordnung wurden willkür-
lich 29 Produkte ausgewählt und die Preise aus 200 verschiedenen in Massachusetts
gelegenen ZIP-Codes angefragt. Dabei schwankte der Preis bei 15 Produkten je
nach geograscher Herkunft der Preisanfrage um bis zu 11% nach oben (ausgehend
vom jeweils niedrigsten gemessenen Wert).281 Diese Ergebnisse sprechen dafür,
dass die unterschiedlichen Steuergesetze der Bundesstaaten nicht kausal für die
Preisdifferenzen waren. Die gefundenen Unterschiede lassen sich aber– sowohl auf
Bundesebene als auch auf Ebene des einzelnen Bundesstaates – mit den Ergeb-
nissen der bereits weiter oben beschriebenen Berichterstattung des Wall Street Jour-
nals erklären, wonach Staples die verlangten Preise wohl primär von der physischen
Distanz des Kunden zu Ladengeschäften von Wettbewerbern abhängig gemacht hat.
277 Der Text ist an dieser Stelle nicht ganz eindeutig: „The measurement results do not indicate
signicant differences (…) for the majority of the products. However, the prices shown by three
particular websites appeared to depend strongly on the users’ location.“ (dies., Detecting Price
and Search Discrimination on the Internet, 2012, S.4). Es wird hier (vor allem wegen der Kon-
junktion „however“) davon ausgegangen, dass ausschließlich bei den drei genannten Seiten Preis-
unterschiede festgestellt wurden und die restlichen 197 Seiten mit „majority“ („Mehrheit“) ge-
meint sind. Denkbar wäre aber auch, dass die Mehrheit der 200 aufgerufenen Seiten keine
Preispersonalisierung erkennen ließ und innerhalb der Gruppe der personalisierenden Seiten die
drei genannten Anbieter besonders hervorgestochen sind.
278 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.4.
279 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.4.
280 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.5.
281 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.5.
IV.Personalisierte Preise inder Praxis
172
Bei den Ergebnissen der dritten Variablen muss wieder unterschieden werden.
Mittels der ersten Untersuchungsmethode konnte keinerlei Preispersonalisierung
nachgewiesen werden: Es machte für die Preishöhe also keinen Unterschied, ob der
Test-Nutzer in den sieben Tagen vor den Preisanfragen ein Surfverhalten an den Tag
gelegt hat, welches darauf schließen lässt, dass er besonders wohlhabend oder be-
sonders preissensitiv ist. Price Steering hingegen wurde teilweise nachgewiesen.282
Im Rahmen der zweiten Untersuchungsmethode untersuchten Mikians etal., wel-
che Rolle die unmittelbar zuvor besuchte, den Anbieter verlinkende Seite auf den
Preis hat. Die zugrunde liegende Arbeitshypothese war, dass Anbieter aus der Art
der verlinkenden Seite möglicherweise Rückschlüsse auf die Preissensitivität des
Nutzers ziehen: Kommt dieser etwa über ein Preisvergleichsportal auf die Seite des
Anbieters, ist eher von hoher Preissensitivität auszugehen als bei einer Ursprungs-
seite mit Bezug zum Luxusgütersegment.283 Daher nahmen die Autoren Preisver-
gleichsportale in den Fokus, über die die Preise verschiedener Produkte abgefragt
wurden. Sie wählten Portale aus, die als Plattform für Anbieter aus verschiedenen
Bereichen dienen können und über die Nutzer teilweise auch Rabatte erhalten. Lei-
der geht aus der Studie nicht eindeutig hervor, in welchen Fällen welche Arten von
Rabatten gewährt wurden– und wie dies den Kunden gegenüber kommuniziert
wurde.284 Die Ausgestaltung der Preiskommunikation kann damit nur bedingt ana-
lysiert werden.
Mikians et al. haben mehrere Portale untersucht, aber nur die Ergebnisse für
Nextag.com dargestellt. Zum Einsatz kam ein neutraler Computer,285 der First Party
Cookies nicht geblockt hat. Auf Nextag.com wurden 25 verschiedene Produktkate-
gorien untersucht. Bei zwei Anbietern für Bürobedarf (Shoplet.com und Discoun-
tofceitems.com) stellte die Forschergruppe Preispersonalisierung fest: Bei diesen
beiden Seiten bekamen Nutzer andere Preise angezeigt, wenn sie von Nextag.com
weitergeleitet worden waren. Bei Shoplet.com war es so, dass der Preis bei direktem
Ansteuern der Seite höher angezeigt wurde als beim vorherigen „Umweg“ über die
Weiterleitung von Nextag.com. Der Mittelwert der gemessenen Preisdifferenzen
(zwischen den Preisen für weitergeleitete Nutzer und den Preisen für solche Nutzer,
die die Seite direkt angesteuert haben) betrug bei diesem Anbieter 23%.286 Mikians
etal. äußerten sich nicht zu den Details der Preisschwankungen auf Discountofcei-
tems.com, sondern stellten ihr Vorkommen bloß fest.
282 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.5.
283 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.5.
284 Vgl. dies., Detecting Price and Search Discrimination on the Internet, 2012, S.5: „(…) we focus
on price aggregator sites that provide a platform for vendors of various products and also provide
discounts to users.“
285 Die Nutzerprole (wohlhabend/preissensitiv) der ersten Untersuchungsmethode lagen den
Untersuchungen der zweiten also nicht zugrunde.
286 Mikians/Gyarmati/Erramilli u. a., Detecting Price and Search Discrimination on the Internet,
2012, S.6.
Kapitel 7: Preispersonalisierung
173
cc. Wertende Zusammenfassung
Die Studie hat einen ähnlichen Ansatz gewählt wie die zwei Jahre später von Han-
nak etal. durchgeführte in ihrem zweiten Teil. Anzumerken ist, dass das gewählte
Versuchsdesign das Herausltern von Noise (also von Preisschwankungen, die nicht
von Personalisierung herrühren) nicht in gleichem Maße in den Vordergrund ge-
stellt hat. Die Autoren legten hingegen besonderen Wert darauf, die drei unter-
suchten Variablen isoliert voneinander zu untersuchen, um so ggf. die Kausalität für
Preisschwankungen sicher feststellen zu können. Dies hat zunächst den Vorteil, dass
der Grund für Preisschwankungen recht gut eingegrenzt werden kann. Zugleich–
darauf weisen die Autoren auch selber hin287– geht damit aber der Nachteil einher,
dass Preispersonalisierung aufgrund einer Kombination verschiedener Faktoren
nicht erkannt wird. Zudem war das Versuchsdesign naturgemäß wieder auf das Fest-
stellen unmittelbarer Preispersonalisierung ausgerichtet, sodass mittelbare Konstel-
lationen per se außen vor gelassen wurden.
Die Ergebnisse haben dennoch eine hilfreiche Aussagekraft: Preisänderungen
aufgrund der getesteten Variablen traten im Regelfall nicht auf. Die Wechsel von
Browser und Betriebssystem (Variable 1) blieben mit Blick auf die Preise gänzlich
folgenlos. Die geographische Herkunft der Preisanfragen (Variable 2) zeitigte bei
197 von 200 untersuchten Anbietern keine relevanten Abweichungen. Die Methode
von Staples stellt einen Fall von Preispersonalisierung dar: Je nach Aufenthaltsort
des Nutzers wechselt der Preis, wohl in Abhängigkeit von der Entfernung zu Laden-
geschäften von Konkurrenten. Das Verfahren ist denkbar simpel ausgestaltet und
scheint keine weiteren personenbezogenen Daten des Kunden miteinzubeziehen. Es
fällt aber unter den hier vertretenen Begriff von Preispersonalisierung, da der Preis
(auch) in Abhängigkeit von dessen persönlichen Eigenschaften und vor dem Hinter-
grund der vermuteten Zahlungswilligkeit bestimmt wird. Die geograsch bedingte
Diskriminierung durch Amazon.com und Steampowered.com hingegen fällt– so-
weit ersichtlich– nicht unter den Begriff der Personalisierung. Bei beiden Anbietern
wurden die Preisunterschiede bei digitalen, in der Regel urheberrechtlich ge-
schützten Gütern (E-Books und Computerspiele) festgestellt. Es steht stark zu ver-
muten, dass die festgestellten preislichen Unterschiede nichts mit der vermuteten
Zahlungsbereitschaft der Kunden in den verschiedenen Ländern zu tun haben, son-
dern die Folge unterschiedlicher Lizenzierungskosten sind.288 Sofern diese Kosten
bloß an die Kunden weitergereicht werden, liegt keine Preispersonalisierung vor.
Das Vortäuschen von wohlhabenden bzw. preissensitiven Nutzerprolen (Va-
riable3, Untersuchungsmethode1) blieb gänzlich ohne preisliche Folgen. Im Rah-
men der zweiten Untersuchungsmethode stellte sich heraus, dass zwei An-
bieter-Seiten ihre Preise anpassen, wenn Kunden über die Verlinkung eines
Preisvergleichsportals auf sie weitergeleitet werden. Dies deutet stark auf Preis-
personalisierung hin, denn es ist naheliegend, dass Nutzer solcher Portale von An-
bietern als eher preissensitiv eingeschätzt werden. Im Kontext der Preisvergleichs-
287 Dies., Detecting Price and Search Discrimination on the Internet, 2012, S.4.
288 Vgl. dies., Detecting Price and Search Discrimination on the Internet, 2012, S.5.
IV.Personalisierte Preise inder Praxis
174
portale ist bemerkenswert, dass – ähnlich wie bei der Studie von Hannak
etal.– Preispersonalisierung nur selten vorzukommen scheint (bloß zwei Anbieter
waren betroffen). Die bei Shoplet.com gemessenen Preisunterschiede mit einem
Mittelwert von 23% wiesen allerdings eine durchaus beachtliche Höhe auf.
c. Mikians etal. (Fortsetzung 2013)
aa. Forschungsfragen und Methode
Mikians etal. setzten ihre Untersuchungen im Jahr 2013 mit einem Crowdsourcing-
basierten Ansatz fort, also unter Mithilfe privater, über das Internet miteinander
verbundener echter Nutzer.289 Dies hatte den Vorteil, dass die Nutzer mittels einer
speziellen Browser-Applikation namens $heriff Hinweise liefern konnten, bei wel-
chen Produkten bzw. Anbieter-Seiten Preisschwankungen auftreten. Zudem konn-
ten die teilnehmenden Nutzer systematisch und in großem Ausmaß die von ver-
schiedenen Anbietern verlangten Preise für die Forschergruppe zusammentragen.290
Die Idee dahinter war, dass mittels Crowdsourcing zunächst Anbieter herausgel-
tert werden, bei denen es Hinweise gibt, dass sie Preispersonalisierungsmethoden
einsetzen, um diese dann in einem zweiten Schritt gezielt und systematisch zu
untersuchen. Die Ergebnisse von insgesamt 340 $heriff-Nutzern ossen in die
Studie ein.
Mikians etal. haben verschiedene Forschungsfragen formuliert, welche mithilfe
des gewählten Ansatzes beantwortet werden sollten. Im Kern ging es darum, festzu-
stellen, bei welchen Anbietern und bei welchen Produktarten291 Preisschwankungen
wie häug und in welcher Höhe auftreten. Zudem wollte die Gruppe herausnden,
in welchen Fällen es sich bei den festgestellten Preisschwankungen um personali-
sierte Preise gehandelt hat (Abgrenzung zwischen echter Personalisierung und
Noise) und von welchen individuellen Nutzereigenschaften die Personalisierung
ggf. abhing (geographische Herkunft der Preisanfrage, vorheriges Surfverhalten
etc.).292 Die Applikation $heriff funktionierte im Wesentlichen so, dass die teil-
nehmenden Nutzer auf allen von ihnen (nach eigenem Ermessen) besuchten
Anbieter- Seiten den jeweils für ein Produkt verlangten Preis markieren und dadurch
14 gleichzeitige Preisanfragen von anderen, auf der ganzen Welt verteilten Rech-
nern auslösen.293 Der Anreiz, $heriff zu benutzen, bestand darin, zu sehen, ob „ihr“
289 Diese Studie ähnelt damit von ihrer Herangehensweise her eher dem ersten Teil der Studie von
Hannak etal.
290 Mikians/Gyarmati/Erramilli u. a., Crowd-assisted Search for Price Discrimination in E-
Commerce: First Results, 2013, S.1.
291 Hier ging es darum, ob eher Produkte aus dem oberen oder aus dem unteren Preissegment be-
troffen sind.
292 Mikians/Gyarmati/Erramilli u. a., Crowd-assisted Search for Price Discrimination in E-
Commerce: First Results, 2013, S.2.
293 Zu den technischen Hintergründen vgl. dies., Crowd-assisted Search for Price Discrimination in
E-Commerce: First Results, 2013, S.2.
Kapitel 7: Preispersonalisierung
175
Preis auch von anderen verlangt wird. Auf diese Weise konnten die Preise von gänz-
lich unterschiedlichen (auch weniger bekannten oder etwa eher regional aus-
gerichteten) Anbietern zuverlässig ausgelesen und die Webseiten zwecks Analyse
heruntergeladen werden.
Im Zeitraum Januar bis März 2013 führten die (aus 18 Ländern stammenden)
340 Nutzer 1500 Preisanfragen durch.294 Insgesamt wurden auf diese Weise ganz
unterschiedliche Produkte von 600 Anbieter-Seiten aus ganz verschiedenen Be-
reichen berücksichtigt. Die Ergebnisse wurden technisch „bereinigt“ (um etwa die
diversen Darstellungsformen für Zahlen und Datumsangaben angemessen zu be-
rücksichtigen).295 Dann wählte die Forschergruppe im zweiten Schritt anhand dieser
ersten Zwischenergebnisse 21 Anbieter aus, bei denen Preisschwankungen auf-
traten, um deren Preissetzungsmethoden gezielt und vertieft zu analysieren.296 Auf
diesen Anbieter-Seiten wählten Mikians etal. nach dem Zufallsprinzip jeweils bis
zu 100 Produkte aus und überprüften die Preise eine Woche lang jeden Tag. Auf
diese Weise kam ein Datensatz mit insgesamt 188 000 Preisanfragen zustande. Die-
ser konnte dann mit Blick auf Preisschwankungen analysiert werden.
bb. Ergebnisse
Bei manchen der ausgewählten 21 Anbieter wurden bei allen getätigten Preis-
anfragen Preisschwankungen registriert.297 Bei der Mehrheit der Anbieter lagen die
Werte nahezu bei 100% und wurden von den Autoren dementsprechend als be-
ständiges und reproduzierbares Phänomen bezeichnet. Die Größe der Schwankun-
gen betrug bei den meisten Anbietern zwischen 10 und 30%.298
Als nächstes wurden die vorliegenden Daten dahingehend analysiert, ob Korre-
lationen zwischen der absoluten Höhe der einzelnen Produktpreise und dem Aus-
maß an Preisschwankungen festgestellt werden können. Es wurde damit also ein
anderer Blickwinkel eingenommen: weg von den Anbietern, hin auf die einzelnen
Produkte. Für jedes einzelne Produkt eines Anbieters wurden die bei ihm fest-
gestellten Preisschwankungen ins Verhältnis zum niedrigsten bei ihm festgestellten
294 Dies., Crowd-assisted Search for Price Discrimination in E-Commerce: First Results, 2013, S.3.
295 Für einen Überblick über die im Rahmen dieser „ersten Stufe“ gefundenen Ergebnisse siehe
dies., Crowd-assisted Search for Price Discrimination in E-Commerce: First Results, 2013, S.3.
296 Es ist nicht ganz eindeutig ersichtlich, anhand welcher Kriterien diese 21 Anbieter aus den 600
ausgewählt wurden. Aus den abgebildeten Graken ist aber erkennbar, dass es sich um Anbieter
handelt, die zu denen mit den auffälligsten bzw. am häugsten verzeichneten Preisschwan-
kungen zählen.
297 Das Vorkommen von Preisschwankungen bedeutet nicht zwingend, dass diese das Ergebnis von
personalisierten Preisen sind. Mikians etal. sprechen dementsprechend auch von „price variati-
ons“ und nicht von „price discrimination“.
298 Mikians/Gyarmati/Erramilli u. a., Crowd-assisted Search for Price Discrimination in E-
Commerce: First Results, 2013, S.3.
IV.Personalisierte Preise inder Praxis
176
Preis gesetzt.299 Es hat sich gezeigt, dass Preisschwankungen in allen Preisklassen
auftreten. Im Schnitt fallen sie in der Relation aber eher geringer aus, je teurer das
untersuchte Produkt ist: Bei Produkten in den unteren Preisklassen (unter 100 $)
traten teilweise Schwankungen um das 3-fache auf. Im Bereich um die 1000 $
schwankten Preise bis auf das Doppelte des niedrigsten gemessenen Wertes. Sobald
die Produkte bei Anbietern im Minimum einige tausend Dollar gekostet haben, er-
reichten die Preisschwankungen wohl in keinem Fall den anderthalbfachen Wert des
niedrigsten gemessenen Preises.300
Die Datenanalyse widmete sich auch der Frage, ob ein Zusammenhang besteht
zwischen Preisschwankungen und der jeweiligen geographischen Herkunft der
Preisanfrage. Wie bereits eingangs beschrieben, wurden pro Produkt und Anbieter
jeweils 14 zusätzliche, automatisierte Test-Abfragen von verschiedenen Standorten
aus301 vorgenommen, sobald ein $heriff-Nutzer einen Preis bei einem konkreten An-
bieter markiert hatte. Für jedes einzelne Produkt wurde analysiert, in welchem Ver-
hältnis etwaige örtlich bedingte Preisunterschiede zum niedrigsten (beim gleichen
Anbieter) gemessenen Preis stehen. Diese ortsübergreifende Analyse hat ergeben,
dass Kunden aus den USA und Brasilien eher niedrigere Preise zu sehen bekommen
als europäische. Innerhalb der getesteten europäischen Städte war das nnische
Tampere die teuerste. Dies hat sich auch bestätigt, als die Datensätze anbieterüber-
greifend spezisch mit Blick auf Tampere untersucht wurden.302 Generell haben
sich durchaus Preisunterschiede in Abhängigkeit von der geographischen Herkunft
der Preisanfrage gezeigt. Preisanfragen aus NewYork haben beispielsweise in der
Regel höhere Werte ergeben als solche aus Chicago– bei Boston und Los Angeles
hingegen wurden zumeist gleiche Werte gemessen. Teilweise waren bestimmte Orte
bei manchen Produkten besonders teuer, dafür waren andere Produktkategorien im
Schnitt billiger. Mit dem Blick auf konkrete Anbieter waren diese Ergebnisse aber
nicht mehr unbedingt gültig– die „Preispolitik“ der einzelnen Anbieter scheint also,
wie zu erwarten war, durchaus zu schwanken. Bemerkenswert ist auch, dass etwa
Amazon.com innerhalb der USA stets die gleichen Preise verlangt hat. Bei Anfragen
aus dem Ausland haben diese sich aber verändert.303 Generell lässt sich festhalten,
dass die geographische Herkunft der Preisanfrage wohl durchaus eine Rolle für die
Preishöhe spielen kann. Darüber hinausgehende, verallgemeinerungsfähige Aus-
sagen lassen sich aus den gefundenen Ergebnissen aber nicht ableiten.
Zuletzt untersuchten Mikians etal. die Rolle von künstlich generierten Nutzer-
prolen. Wie bereits in ihrer vorangegangenen Studie imitierten sie dafür das Surf-
299 Dies., Crowd-assisted Search for Price Discrimination in E-Commerce: First Results,
2013, S.3f.
300 Dies., Crowd-assisted Search for Price Discrimination in E-Commerce: First Results, 2013, S.4.
301 Die Anfragen kamen aus sechs Städten in den USA (Albany, Boston, Chicago, Lincoln, Los
Angeles, New York) sowie verschiedenen Orten in Europa und São Paulo in Brasilien (dies.,
Crowd-assisted Search for Price Discrimination in E-Commerce: First Results, 2013, S.4).
302 Dies., Crowd-assisted Search for Price Discrimination in E-Commerce: First Results,
2013, S.4f.
303 Dies., Crowd-assisted Search for Price Discrimination in E-Commerce: First Results, 2013, S.5.
Kapitel 7: Preispersonalisierung
177
verhalten von besonders wohlhabenden sowie besonders preissensitiven Nutzern.
Sie nahmen die Preisanfragen mit diesen Prolen immer zeitgleich und vom selben
Ort aus vor. Die Datenanalyse ergab dabei keinerlei Preisunterschiede: Ein Zu-
sammenhang zwischen Prol und Preisanfrage war nicht feststellbar. Einzig auf
Amazon.com angebotene Kindle E-Books variierten im Preis– ähnlich wie bereits
in der vorangegangenen Studie aus dem Jahr 2012. Allerdings waren mit Blick auf
die Preisschwankungen kein Muster und auch keine Gründe für ihr Auftreten er-
kennbar.304
cc. Wertende Zusammenfassung
Die Studie von Mikians etal. liefert teilweise wertvolle Erkenntnisse– kann zur
Diskussion über das Vorkommen personalisierter Preise aber doch nur bedingt bei-
tragen. Der Einsatz von Crowdsourcing als Methode ist begrüßenswert. Die Aus-
wahl der untersuchten Seiten ist damit potenziell größer und veranlasst auch die
Analyse der Preissetzungsmethoden solcher Anbieter, die ansonsten möglicher-
weise unentdeckt geblieben wären. Im Ergebnis zeigt sich, dass Preisschwankungen
durchaus vorkommen und es gibt Hinweise, dass diese teilweise als Personalisie-
rung qualiziert werden können.
Zugleich gibt es mehrere Umstände, die die gefundenen Ergebnisse gleichsam
relativieren. Die Auswahl der in den Blick genommenen Seiten war von vornherein
auf diejenigen 21 von 600 beschränkt, die preisliche Auffälligkeiten gezeigt hatten.
Die Ergebnisse betreffen damit nur einen kleinen Ausschnitt der im Rahmen der
Studie von den Nutzern der $heriff-Applikation erfassten Anbieter-Seiten. Sie dürf-
ten damit gerade nicht auf die nicht näher untersuchten Seiten übertragbar sein.
Auch war wieder nur Preispersonalisierung in Form der unmittelbaren Abänderung
des Preises, der Kunden online angezeigt wird, Gegenstand der Untersuchung. Die
Erkenntnis, dass Preisschwankungen bei den getesteten Anbietern in hoher Fre-
quenz auftreten, ist als solche zunächst nicht überraschend: Noise ist ein bekanntes
Phänomen, das aus unterschiedlichen Gründen auftritt und die Schwankungen ganz
oder teilweise erklären kann. Solange diese nicht klar als Noise oder als
Preispersonalisierung qualiziert werden können, wohnt der Feststellung ihres Vor-
kommens nur relativ wenig Aussagekraft inne. Leider haben Mikians etal. das Ver-
suchsdesign anders ausgestaltet als Hannak etal., die Noise als „preisliches Grund-
rauschen“ in ihrer zeitlich nachgelagerten Studie deutlich gemacht und gezielt
herausgeltert haben. Auf diese Weise hätten auch Mikians et al. Preis-
personalisierung von bloßen Preisschwankungen abgrenzen können. So ist auch die
Erkenntnis, dass Preisschwankungen im unteren Preissegment in der Relation hö-
here Werte erreichen als bei hochpreisigen Produkten, im Kontext von Preisper-
sonalisierung nur bedingt hilfreich, da die Gründe für die Schwankungen nicht be-
kannt sind. Hinzu kommt, dass die auf den ersten Blick hohen Ausschläge der
gemessenen Preise Maximalwerte sind: Auch wenn im niedrigeren Preissegment
304 Dies., Crowd-assisted Search for Price Discrimination in E-Commerce: First Results, 2013, S.5.
IV.Personalisierte Preise inder Praxis
178
teilweise Preisausschläge um das 3-Fache gemessen wurden, handelte es sich dabei
wohl eher um Einzelfälle.305 Die Aussage, dass mit dem steigenden Preis des Pro-
duktes die Preisschwankungen in der Relation niedriger ausfallen, kann also nur als
eher allgemeine Faustformel Bestand haben.
Es ist bemerkenswert, dass die Erschaffung künstlich generierter Nutzerprole,
welche besonders wohlhabende sowie besonders preissensitive Nutzer abbilden,
keine Auswirkungen auf die Preise hatte. Dies gilt vor allem, wenn man bedenkt,
dass auf den besuchten Seiten in der Mehrheit der Fälle Tracking-Tools (wie etwa
Google Analytics) zum Einsatz kamen. Diese hätten eine seitenübergreifende Ver-
folgung der Nutzer zwecks Preispersonalisierung ohne Weiteres ermöglicht.306 Frei-
lich ist allerdings auch fraglich, in welchem Ausmaß das (hier als alleinige Variable
verwendete) Surfverhalten des Einzelnen überhaupt darüber Auskunft geben kann,
wie vermögend er ist oder– aus Sicht der Anbieter vermutlich relevanter– wo im
Einzelfall sein Reservationspreis liegt. Aussagekräftiger dürfte die Berücksichtigung
von tatsächlich getätigten Käufen des Einzelnen sein. Es steht zu erwarten, dass die
Analyse des Surfverhaltens dahingegen höchstens tendenzielle Hinweise geben
kann: Auch ein preissensitiver Nutzer mit niedrigem Einkommen kann Webseiten
aus dem Luxusgütersegment besuchen, ohne dass dies zwingend bedeutet, dass er
sich diese Güter auch tatsächlich leisten könnte. Zudem geht es bei der individuel-
len Zahlungsbereitschaft nicht nur um das „Können“, sondern gerade auch um das
„Wollen“. Die individuelle Wertschätzung eines Produktes im Einzelfall hängt also
von vielen verschiedenen, komplex miteinander verknüpften Faktoren ab. Dennoch
ist es bemerkenswert, dass das Surfverhalten der einzelnen Nutzer gar keine preis-
lichen Auswirkungen gezeitigt hat. Immerhin ist dieses verhältnismäßig leicht fest-
stellbar und wäre damit trotz der genannten Überlegungen ein durchaus denkbarer
Ansatzpunkt für Preispersonalisierung.
5. Zusammenfassung
a. Allgemeine Überlegungen
Die Anzahl an wissenschaftlichen Studien, die sich ausführlich mit dem tatsäch-
lichen Vorkommen von Preispersonalisierung im Online-Handel beschäftigt haben,
ist überschaubar. Dies mag an der hohen Komplexität und Fehleranfälligkeit der
305 Vgl. dazu die Grak „Figure 5“ (dies., Crowd-assisted Search for Price Discrimination in
E-Commerce: First Results, 2013, S.4): Im niederen Preissegment erreichen die preislichen Aus-
schläge erkennbar höhere Werte– dies aber nur in Einzelfällen. Im Schnitt scheinen die Schwankun-
gen eher gleichmäßig verteilt zu sein, soweit dies aus der abgebildeten Grak ersichtlich ist.
306 Vgl. dies., Crowd-assisted Search for Price Discrimination in E-Commerce: First Results, 2013,
S.5: „It would appear that Google is present on most e-retailers with their analytics (95%) and
doubleclick (65%) domains. Social networks have also signicant presence on the retailers’ sites
through their widgets: Facebook (80%), Pinterest (45%), and Twitter (40%).“
Kapitel 7: Preispersonalisierung
179
dafür notwendigen Erhebungen liegen, die– wie sich vor allem an der Studie von
Hannak etal. gezeigt hat– ein aufwändiges Versuchsdesign notwendig machen, um
aussagekräftige Ergebnisse zu produzieren. Die Analyse der vorliegend be-
schriebenen Studien zeigt, dass dem Nachweis von Personalised Pricing ver-
schiedene methodische Probleme inhärent sind, die nicht ohne Weiteres gelöst wer-
den können. Im Kern geht es letztlich immer darum, zu prüfen, ob in Abhängigkeit
von der (vermuteten) Zahlungsbereitschaft des jeweiligen Kunden für das gleiche
Gut (bzw. die gleiche Dienstleistung) im gleichen Zeitpunkt verschiedene Preise
verlangt werden. Solange die zum Einsatz kommenden Algorithmen– und damit
die die Preissetzung bestimmenden Konzepte – nicht bekannt sind, müssen
Studienersteller indirekt arbeiten: Sie sind darauf angewiesen, das (etwaige) Vor-
kommen von Preispersonalisierung empirisch mittels kontrollierter Preisanfragen
festzustellen.
b. Technische und methodische Herausforderungen
Um Preispersonalisierung sicher als solche erkennen und reproduzierbar nach-
weisen zu können, ist es zwingend notwendig, Noise– im Kontext dieser Arbeit
verstanden als Preisschwankungen, die nicht auf Personalisierung zurückzuführen
sind– aus den gefundenen Messwerten herauszultern. Eine Methode, die die Ab-
grenzung zwischen Noise und Preispersonalisierung nicht zuverlässig ermöglicht,
kann nur tendenzielle, nie aber sichere Ergebnisse produzieren. Methodisch un-
problematisch sind Preisschwankungen, die im Laufe der Zeit auftreten. Diese
können leicht herausgeltert werden, indem Preisanfragen exakt zeitgleich aus-
geführt werden. Doch auch bei Berücksichtigung dieser zeitlichen Komponente
tritt Noise auf, wie vor allem Hannak et al. überzeugend nachgewiesen haben:
Auch exakt gleiche, zeitgleiche Anfragen können online mit unterschiedlichen
Preisen beantwortet werden, z.B. wenn von zwei Rechnern aus die Anfragen zeit-
gleich gesendet, aber von verschiedenen, unzureichend synchronisierten Rechen-
zentren bearbeitet werden. Dieser und andere Gründe (und hierbei vor allem die
online oftmals mit hoher Frequenz vorkommenden dynamischen Preisan-
passungen307) führen dazu, dass Verbraucher online oftmals zu Unrecht personali-
sierte Preise zu sehen glauben, etwa wenn sich nach mehrmaligem Aufrufen einer
Anbieter-Seite die Preise verändern.308 So wurden beispielsweise im Rahmen der
von der Europäischen Kommission in Auftrag gegebenen Studie 21 734 Versuchs-
teilnehmer befragt, ob sie bereits einmal schlechte Erfahrungen mit Preis-
personalisierung gemacht hätten („Have you had any bad experiences related to
307 Vgl. dazu auch Hofmann, WRP 62 (2016), 1074, 1075; Europäische Kommission, Leitlinien zur
Umsetzung/Anwendung der Richtlinie 2005/29/EG über unlautere Geschäftspraktiken, 2016,
S.165; Verbraucherzentrale Brandenburg e. V., Dynamische Preisdifferenzierung im Deutschen
Online-Handel, 2018 passim.
308 Vgl. dazu auch Locher, ZWeR 16 (2018), 292, 304 und Zurth, AcP 221 (2021), 514, 523.
IV.Personalisierte Preise inder Praxis
180
Personalised Pricing?“).309 Von allen Teilnehmern antworteten 12% mit Ja. Inner-
halb der Untergruppe von 9798 Teilnehmern, die von sich selber angaben, zu-
mindest ein gewisses Verständnis des Begriffs Preispersonalisierung zu haben, ant-
worteten sogar 20 % mit Ja.310 Diese subjektive Wahrnehmung entspricht bei
Weitem nicht dem tatsächlichen Vorkommen von Preispersonalisierung. Die deut-
lich höhere Rate an Ja-Antworten innerhalb der Untergruppe scheint vor diesem
Hintergrund zunächst paradox: Es wäre zu erwarten, dass sachkundigere Versuchs-
teilnehmer wissen, dass Preisschwankungen nicht notwendig mit Personalisierung
gleichzusetzen sind. Allerdings kann dieses Ergebnis auch so erklärt werden, dass
in dieser Gruppe dem Thema Personalisierung allgemein mehr Aufmerksamkeit
geschenkt wird und schlicht ein größeres Bewusststein für die technischen Möglich-
keiten besteht. Da es für Endverbraucher oftmals nahezu unmöglich ist, Preis-
personalisierung zweifelsfrei als solche zu erkennen und von anderen Gründen für
schwankende Preise abzugrenzen, verwundert die höhere Rate an Ja-Antworten
nicht. All dies zeigt, dass die eigentliche Herausforderung für die Studiener-
steller darin besteht, den Nachweis der Kausalität zwischen bestimmten, vom
Anbieter erkennbaren Eigenschaften einer Person und darauf aufbauender Preis-
personalisierung zu erbringen.
Zu dieser technisch-methodischen Problematik kommen weitere Schwierig-
keiten hinzu. Ein Spannungsfeld ergibt sich, sobald Anbieter auf Preisper-
sonalisierung anhand bestimmter, bereits im Vorfeld fest denierter Variablen hin
überprüft werden (so etwa, wenn der verwendete Browser bzw. das Endgerät als
einzige Variable abgewandelt wird). Auf diese Weise kann zwar die Kausalität zwi-
schen Abwandlung der Variable und damit einhergehender Änderung des Preises
ggf. zielgerichtet und reproduzierbar nachgewiesen werden. Der Erkenntnisgewinn
erstreckt sich dann aber logischerweise auch nur auf Abwandlungen, die mit diesen
Variablen in Zusammenhang stehen. Andere Variablen, die Anbieter eventuell zur
Personalisierung von Preisen heranziehen, können gar nicht als solche erkannt wer-
den. Auch ist durchaus denkbar, dass Preispersonalisierung erst bei einer Kombina-
tion bestimmter Variablen (etwa das verwendete Endgerät in Verbindung mit dem
vorherigen Surfverhalten und der Uhrzeit) zum Tragen kommt – dies entspricht
konzeptionell dem Prinzip der Gruppenbildung, das beim Proling, und damit auch
beim Personalisieren von Preisen, zum Einsatz kommt. Wenn ein Versuchsdesign
allerdings so konzipiert ist, dass Variablen nur isoliert untersucht werden, können
Kombinationen wie die beschriebene per se nicht erkannt werden.311 Dieses Di-
lemma zeigt sich wieder besonders in der Studie von Hannak etal.: In ihrem ersten
309 European Commission, Consumer Market Study on Online Market Segmentation through per-
sonalised Pricing/Offers in the European Union, 2018, S.137.
310 Dass., Consumer Market Study on Online Market Segmentation through personalised Pricing/
Offers in the European Union, 2018, S.137. Die Beschreibung der Untergruppe lautete: „Respon-
dents who understand or have some understanding of the personalisation practice“. Innerhalb
aller Teilnehmer antworteten 66% mit Nein, innerhalb der Untergruppe 67%. Der Rest antwortete
jeweils mit „Don’t know“.
311 So auch Schoeld, Competition Law Journal 18 (2019), 35, 37, Bezug nehmend auf die Studie
der CMA.
Kapitel 7: Preispersonalisierung
181
Teil konnte die Forschergruppe (durch den Einsatz echter Test-Nutzer) feststellen,
dass Preispersonalisierung stattndet– aber nicht, warum. Im zweiten Teil konnte
der Einuss ausgewählter, einzelner Variablen bestimmt werden. Die dortigen Er-
kenntnisse waren aber von ihrer Aussagekraft her dementsprechend begrenzt.
Auch wenn bei kontrollierter Abwandlung einzelner (oder kombinierter) Va-
riablen Preisunterschiede ausbleiben, bedeutet dies nicht zwingend, dass keine
Preispersonalisierung stattndet: Es ist denkbar und durchaus konsequent, dass
Preissetzungsmechanismen in bestimmten Situationen trotz Abänderung von Va-
riablen den gleichen Preis als Endergebnis generieren, in anderen Konstellationen
den Preis aber abwandeln würden. Dies zeigt, dass aussagekräftige Ergebnisse nur
dann erzielt werden können, wenn eine hohe Anzahl an Preisanfragen stattndet
und zudem möglichst verschiedene, aussagekräftige Variablen abgeprüft werden.
Darüber hinaus ist unklar, inwiefern Anbieter in der Lage sind, strukturierte Preis-
anfragen als solche zu erkennen und, um Schaden von ihrer Reputation abzu-
halten, Preispersonalisierung in diesen Fällen zu verschleiern oder bewusst zu
unterlassen.
c. Unmittelbare Preispersonalisierung methodisch greifbar
Die vorliegenden Einzelfälle und Studien beziehen sich allesamt auf Fälle unmittel-
barer Preispersonalisierung– also auf die Situation, dass der Kunde auf der Anbieter-
Seite direkt einen modizierten Preis zu sehen bekommt, der ggf. von den Preisen
für andere Kunden abweicht. Personalised Pricing tritt aber auch in anderen For-
men auf: Anbieter können preissensitive Kunden beispielsweise über Gutscheine
zum Kauf animieren, welche sie diesen per E-Mail zusenden oder mittels Pop-up-
Fenstern beim Surfen zukommen lassen. Auf diese Weise nähern sie den verlangten
Preis mittelbar an den Reservationspreis an. Derlei Vorgehensweisen sind von den
hier analysierten Studien aber per se nicht erfasst, da sie mit den eingesetzten Me-
thoden nicht automatisiert und in großem Umfang erhoben werden können. Glei-
ches gilt für Fälle von Preispersonalisierung, die mit Produktpersonalisierung ein-
hergehen: Da immer nur das exakt gleiche Produkt automatisiert auf Preisunterschiede
untersucht werden kann, ist auch diese Vorgehensweise nicht mit den gewählten
Methoden greifbar. Wie sich aber bereits gezeigt hat, ist mittelbare Preis-
personalisierung für Anbieter die attraktivere Wahl. Diese Art der Preis-
kommunikation führt nämlich dazu, dass Kunden die Preissetzung eher nicht als
unfair empnden und dem Anbieter negativ anlasten. Die festgestellte Zurück-
haltung beim Einsatz unmittelbarer Preispersonalisierung kann damit zu einem be-
deutenden Teil mit strategischen Erwägungen erklärt werden.312
312 So im Ergebnis auch Leibbrandt, European Economic Review 121 (2020), 1, 9 (im Kontext
eines verhaltensökonomischen Laborexperiments).
IV.Personalisierte Preise inder Praxis
182
d. Mittelbare Preispersonalisierung methodisch kaum greifbar
Das genaue Ausmaß des praktischen Vorkommens mittelbarer Preispersonalisierung
bleibt unklar. Im Vergleich zur Feststellung unmittelbarer Preispersonalisierung ist
es nochmals bedeutend komplexer und aufwändiger– und vermutlich nahezu gänz-
lich unpraktikabel –, ihr Vorkommen systematisch und mit einer großen Bandbreite
an untersuchten Anbietern zu erheben. Dies liegt daran, dass mittelbare Preis-
personalisierung auf ganz verschiedene Art und Weise implementiert werden kann:
Über Produktpersonalisierung, über Bundling (mehrere Produkte werden als für
den Kunden individualisiertes Paket angeboten, wobei die Einzelposten je nach
Preissensitivität anders veranschlagt werden), über Einräumung von Rabatten/Boni,
über gezielte Ansprache mittels zeitlich begrenzter Angebote bzw. über verschiedene
Kanäle etc. Diese unterschiedlichen Preissetzungsmethoden müssten alle konkret
deniert und im Versuchsdesign berücksichtigt werden. Dieses müsste zugleich
auch die Abgrenzung von Noise und Preispersonalisierung methodisch sicher-
stellen. Ist dies bei unmittelbarer Personalisierung zumindest mit einigem Auf-
wand313 noch möglich, dürfte der nötige Nachweis der Kausalität zwischen Eigen-
schaften des Kunden und mittelbar angepasstem Preis ohne Kenntnis der internen
Entscheidungsabläufe der Anbieter „von außen“ nahezu unmöglich sein. Dies gilt
vor allem dann, wenn die Personalisierung situativ in Abhängigkeit vom Zeitablauf
vorgenommen wird, etwa bei Zusendung eines Gutscheins an noch zögernde Kun-
den: Ob die Absenkung des Preises tatsächlich mit der Zahlungsbereitschaft des
Kunden zusammenhängt oder auch mit anderen Faktoren begründet ist, ist im Rah-
men einer Studie nicht sicher feststellbar. Generell gilt, dass eine hohe Zahl an
Preisanfragen vorgenommen werden muss, um aussagekräftige und statistisch
signikante Ergebnisse zu generieren.
Die Zusendung eines Gutscheins kann etwa eine allgemeine Maßnahme zur Stei-
gerung des Umsatzes sein. Sie kann auch als Mittel dienen, einen Kunden, der län-
ger nichts gekauft hat, wieder zurückzugewinnen. Preispersonalisierung liegt in
beiden Fällen nicht vor, da nicht auf seine Zahlungsbereitschaft, sondern auf andere
individuelle Faktoren oder allgemeine Überlegungen abgestellt wird. Eine auto-
matisierte Erhebung kann diese qualitative Unterscheidung kaum leisten. Ähnlich
ist das Problem bei Produktpersonalisierung gelagert. Dort kommt es bei der Fest-
stellung, ob Preispersonalisierung vorliegt, auf die Relation zwischen den dem An-
bieter entstehenden Kosten und dem von ihm veranschlagten Preis an.314 Belastbare
Aussagen können ohne Kenntnis der internen Kostenstruktur per se nicht ge-
troffen werden.
313 Gemeint ist das komplexe Versuchsdesign von Hannak etal., siehe oben Kap.7, IV. 4. a.
314 Siehe dazu oben Kap.6, I. 2.
Kapitel 7: Preispersonalisierung
183
e. Nur grobe Formen nachweisbar
Trotz dieser methodischen Einschränkungen deuten die Studien stark darauf hin,
dass Personalised Pricing– sowohl in mittelbarer als auch in unmittelbarer Form–
im Online-Handel momentan nur eine sehr seltene Erscheinung ist.315 Nur in weni-
gen Ausnahmefällen wurde unmittelbare Preispersonalisierung als institutionali-
sierte, reproduzierbare Vorgehensweise dokumentiert, beispielsweise bei Staples
(Preissetzung in Abhängigkeit von der physischen Entfernung des Kunden von
Konkurrenten), Travelocity (reduzierte Preise für iPhone-Nutzer in 5% der Fälle)
und bei verschiedenen Anbietern, wenn ihre jeweilige Seite über ein Preisver-
gleichsportal angesteuert worden war. Der Regelfall war aber, dass Preis-
personalisierung nicht nachweisbar war. Dies ergibt sich vor allem aus dem ersten
Teil der Studie von Hannak etal., in dem ergebnisoffen und unabhängig von einzel-
nen Variablen das Vorkommen von Preispersonalisierung getestet wurde. Die übri-
gen Studien bestätigen allesamt dieses Ergebnis.
In der Gesamtschau der Studien– und auch mit dem Blick auf die dokumentier-
ten (freilich eher anekdotischen) Einzelfälle– verdichten sich die Hinweise dahin-
gehend, dass Preispersonalisierung in der Praxis eher von einzelnen Variablen, nicht
aber von komplexen Formen des Prolings abhängig gemacht wird. Bei Staples war
der entscheidende Faktor– soweit erkennbar als einziges Kriterium– der Aufent-
haltsort des Kunden. Amazon.com änderte den Preis in Abhängigkeit davon, ob der
jeweilige Kunde die Seite zum ersten Mal besuchte. Verschiedene Anbieter ver-
langten bei Weiterleitung von Preisvergleichsportalen andere (in der Regel niedri-
gere) Preise als bei direktem Ansteuern. Travelocity wiederum reduzierte in weni-
gen Fällen, aber auf strukturell implementierte Weise, die Preise für iPhone-Nutzer.
Bei all diesen – rein beispielhaft genannten und nicht abschließenden – Fällen
wurde jeweils von einer einzelnen dem Anbieter vorliegenden Information auf die
Zahlungsbereitschaft der jeweiligen Kunden rückgeschlossen. Davon zu trennen ist
die Frage, warum die jeweiligen Variablen mit Preisänderungen gekoppelt waren.
Sie kann mit den Methoden der oben analysierten Studien nicht beantwortet wer-
den: Diese können nur feststellen, ob (und ggf. in welchem Ausmaß) Preis-
änderungen in Abhängigkeit von bestimmten Variablen auftreten– aber nicht, was
den jeweiligen Anbieter gerade zu dieser Verknüpfung zwischen Variable und Preis
bewogen hat.
Die Erwägungen, aufgrund derer Anbieter ihre Preise gerade in Abhängigkeit
von bestimmten kundenspezischen Variablen anheben oder absenken (und nicht
aufgrund von anderen), sind spekulativer Natur. Ohne Kenntnis der internen Ent-
scheidungsndungsprozesse ist es kaum möglich, eindeutig zu bestimmen, wie die
Überlegungen, die diesen „Preissetzungsregeln“ zugrunde liegen, zustande ge-
kommen sind. Es wäre denkbar, dass die Regeln der Umsetzung von Erkenntnissen
dienen, die nach ausführlichen Datenanalysen, Proling und dementsprechender
315 So auch zusammenfassend Locher, ZWeR 16 (2018), 292, 304; Ofce of Fair Trading, Personal-
ised Pricing, 2013, S.13: Organisation for Economic Co-operation and Development (OECD),
Personalised Pricing in the Digital Era, 2018, S.14.
IV.Personalisierte Preise inder Praxis
184
Gruppenbildung hervorgetreten sind. Gleichermaßen denkbar wäre es, dass die
Preissetzungsregeln keine solchen statistisch-analytischen Erkenntnisse wider-
spiegeln, sondern eher auf kaufmännischer Erfahrung oder A/B-Tests basieren–
oder auf einer Kombination verschiedener solcher Erwägungen bzw. Erfahrungen.
Tatsächliche und rechtliche Einschränkungen (zu wenig Datenmaterial vorhanden,
datenschutzrechtliche Vorgaben etc.) setzen dem Handlungsspielraum zudem
Grenzen.
Bei Staples wurde die Zahlungsbereitschaft wohl mit der Wettbewerbssituation
„vor Ort“ in Relation gesetzt. Dies wäre durchaus logisch: Der Reservationspreis ist
keine isolierte, starre Eigenschaft eines Menschen, sondern hängt auch von äußeren
Faktoren (wie eben den von anderen Anbietern verlangten Preisen) ab, welche die
Wertschätzung eines Produktes oder einer Dienstleistung beeinussen. Amazon.
com ging wohl davon aus, dass Bestandskunden eher ohne weitere Preisrecherche
direkt auf der eigenen Seite kaufen und nicht mehr durch niedrigere Preise über-
zeugt werden müssen. Die niedrigeren Preise für Neukunden sind vergleichbar mit
einem Erstkundenrabatt. Amazon.com stolperte aber über die ungeschickte Preis-
kommunikation: Gutscheine für Erstkunden sind eine von Kundenseite ohne Weite-
res akzeptierte Praxis, wenn sie transparent als solche kenntlich gemacht wird. Das
„heimliche“ Anpassen des Preises war hingegen ein schweres Marketing-Versagen.
Im Kontext der niedrigeren Preise für iPhone-Nutzer (Travelocity) spekulierten
Hannak etal., dass diese dazu dienten, den Absatz im (zum damaligen Zeitpunkt)
stark wachsenden Marktsegment der mobilen Smartphone-Nutzer auszuweiten.316
Diese Spekulation deckt sich mit den Ergebnissen der Studie, die im Auftrag des
BMJV erstellt wurde: Dort hat sich gezeigt, dass Anbieter auf Booking.com häug
einen Rabatt in Höhe von etwa 10% einräumen, wenn eine Unterkunft über ein
mobiles Endgerät gebucht wird. In diesem Fall lag mittelbare Preispersonalisierung
vor, da die Preisreduktion offen kommuniziert wurde. Die (teilweise) niedrigeren
Preise beim Ansteuern von Anbieter-Seiten über Preisvergleichsportale lassen sich
aus Sicht der Anbieter mit mehreren, durchaus kumulativ gültigen Überlegungen
erklären. Das Wissen, dass ein Kunde vor dem Besuch der eigenen Seite ein Preis-
vergleichsportal besucht und dieses ihn weitergeleitet hat, deutet zunächst per se
auf eine erhöhte Preissensitivität hin: Kunden, die diese Portale nutzen, dürften den
Produktpreis in der Regel zumindest als einen wichtigen Faktor im Rahmen ihrer
Kaufentscheidung betrachten und auf der Suche nach einem günstigen Preis sein.317
Hinzu kommt, dass es für Anbieter generell– und vor allem auch über den Kauf des
einzelnen Produkts hinaus– attraktiv ist, auf ihrer Seite Trafc zu generieren: Je
mehr Kunden mit niedrigen Preisen auf die Seite „gelockt“ werden, desto wahr-
scheinlicher ist es, dass diese zu diesem oder einem späteren Zeitpunkt auch tat-
316 Vgl. Hannak/Soeller/Lazer u.a., Measuring Price Discrimination and Steering on E-Commerce
Web Sites, 2014, S.11.
317 Freilich wird die Kaufentscheidung in der Regel nicht ausschließlich vom Preis abhängen. Auch
die Reputation/Seriosität eines Anbieters, etwaige frühere Erfahrungen mit ihm oder auch Fakto-
ren wie etwa erweiterte Rückgabemöglichkeiten und angebotener Kundenservice spielen beim
Kaufprozess eine Rolle.
Kapitel 7: Preispersonalisierung
185
sächlich etwas kaufen. Dies gilt zunächst für das vom Kunden ursprünglich ge-
suchte Produkt an sich, aber auch für zukünftige Käufe. Ein anderer Grund mag
schlicht sein, dass es für Anbieter attraktiv ist, im Ranking der Preisvergleichs-
portale möglichst weit oben zu stehen: Es ist lukrativer, ein Produkt im Einzelfall
mit einem niedrigeren Gewinn zu verkaufen als gar nicht.
Alle diese Vorgehensweisen fallen unter den Begriff Preispersonalisierung: Mit
einer vom Anbieter erkannten Eigenschaft des Kunden wird seine vermutete
Zahlungsbereitschaft in Relation gesetzt und der Preis dementsprechend angepasst.
Gleichwohl ist die Form der Umsetzung denkbar simpel und vereinfachend: Es han-
delt sich zwar um die Bildung eines Kundenprols. Dieses weist aber nicht einmal
ansatzweise die Komplexität auf, die in der Theorie technisch möglich wäre. Die
Gruppenbildung ndet statt, ist aber von minimaler Komplexität und besteht nicht
etwa darin, zielgenau die für den Kunden passende Gruppe (und mithin den passen-
den Preis) auszuwählen, sondern erschöpft sich in der Bejahung oder Verneinung
einzelner Variablen.
f. Erklärung anhand des 3-stugen Modells
Die gefundenen Ergebnisse lassen sich mit dem im Rahmen dieser Arbeit skizzier-
ten 3-stugen Modell untersuchen und teilweise erklären. Im Kern hat sich gezeigt,
dass die Erkenntnisse aus der Praxis stark darauf hin deuten, dass unmittelbare
Preispersonalisierung nur sehr selten vorkommt und momentan nicht als sektor-
und anbieterübergreifendes, etabliertes Phänomen bezeichnet werden kann. Wenn
sie vorkommt, erschöpft sie sich in der Regel darin, dass die Personalisierung nur
aufbauend auf einer einzelnen Variablen– anders formuliert: einer einzelnen dem
Anbieter über den Kunden vorliegenden Information– in die Tat umgesetzt wird.
Angesichts der drei Stufen des Modells einerseits und der bereits in der Theorie
skizzierten, in der Praxis erwartbaren Probleme318 andererseits ist dies schlüssig er-
klärbar. Vor allem die erste und die dritte Stufe spielen dabei eine Schlüsselrolle.
Vor dem Hintergrund der ersten Stufe– Sammlung abstrakter Vergleichsdaten
und personenbezogener Daten über den Kunden– hat sich gezeigt, dass die unter-
suchten Unternehmen bevorzugt auf Variablen abstellen, die sich aus Informationen
ergeben, welche sie ohne Weiteres und grundsätzlich bei jedem Kunden selbst er-
heben können: Aus IP-Adresse und MAC-Kennung lassen sich etwa der physische
Aufenthaltsort des Kunden (Staples) sowie das verwendete Endgerät auslesen (Tra-
velocity). Die Weiterleitung von einem Preisvergleichsportal kann leicht aus dem
sog. Referrer Header ausgelesen werden. Amazon.com bediente sich– im Jahr 2000
noch in den Anfängen des Online-Handels und der technischen Möglichkeiten–
eines simplen Cookies, das auf dem Rechner des jeweiligen Kunden gespeichert
war. Alle diese – angesichts der sich konstant änderndern technischen
Rahmenbedingungen bei weitem nicht abschließenden – Beispiele haben ge-
meinsam, dass der Anbieter zur Personalisierung des Preises nicht auf externe
318 Siehe oben Kap.7, II und III.
IV.Personalisierte Preise inder Praxis
186
Datenquellen oder eigene Datensammlungen zugreift. Stattdessen zieht er Informa-
tionen heran, die er bei jedem Kunden, der die Seite besucht, selber und bereits im
Moment des Aufrufs der Seite auslesen kann. Insofern handelt er autark. Ein Zu-
sammenführen und Kombinieren von Daten aus verschiedenen (externen) Quellen
mit dem Ziel der individualisierten Preissetzung scheint nicht oder nur in geringem
Maße in Echtzeit vorzukommen.
In der Praxis nutzen Anbieter also primär singuläre, inhaltlich simple Informa-
tionen. Unklar ist hingegen, in welchem Ausmaß die Anbieter im Einzelfall tatsäch-
lich Zugriff auf Informationen über einzelne Kunden haben. Anders formuliert stellt
sich die Frage, ob die Datennutzung (sich niederschlagend in der Personalisierung
von Preisen) deshalb so spärlich ausfällt, weil nur so wenige Informationen verfüg-
bar sind, oder ob andere Gründe dafür kausal sind. Das quantitative Ausmaß der
gegebenen Zugriffsmöglichkeiten könnte durchaus weit über die Daten hinaus-
gehen, die im Kontext von Preispersonalisierung tatsächlich genutzt werden und
Auswirkungen auf Preise haben. Hilfreich sind in diesem Kontext die im Rahmen
verschiedener Studien durchgeführten Tests dahingehend, ob ein Zusammenhang
besteht– und ggf. welcher– zwischen dem Surfverhalten der Kunden und der Höhe
der ihnen abverlangten Preise. Auf dem Surfverhalten des Einzelnen basierende
Preispersonalisierung konnte in keinem einzigen Fall nachgewiesen werden. Ganz
anders hingegen waren die Ergebnisse gelagert, wenn Search Discrimination im
Fokus der Untersuchung stand: Eine individuelle Anpassung der Reihung der Such-
ergebnisse konnte, sofern auf den zum Test eingesetzten Rechnern Tracking nicht
geblockt war, in vielen Fällen festgestellt und mit dem Surfverhalten der Nutzer in
eine Kausalbeziehung gesetzt werden. Die Anbieter hatten also Zugriff auf die für
die Personalisierung notwendigen Daten, welche das Surfverhalten widerspiegeln
und durch seitenübergreifendes Tracking gesammelt wurden. Diese Daten konnten
oder wollten sie aber nicht zum Zwecke der Preispersonalisierung, sondern nur zur
Personalisierung der Reihung der Suchergebnisse oder für zielgerichtete Werbung
(Targeted Advertising) einsetzen. Auf der ersten Stufe lagen also deutlich mehr
potenziell auch zum Zwecke des Personalised Pricings nutzbare Informationen vor,
als dann tatsächlich zum Einsatz kamen. Anders formuliert war das Ausmaß des
dem Anbieter gegebenen Datenzugangs größer als die tatsächliche Nutzung dieser
Daten. Dies überrascht zunächst angesichts der Gewinnsteigerung, die mit der Per-
sonalisierung potenziell einhergeht. Die bereits diskutierte Studie von Shiller hat
etwa gezeigt, dass Netix bei Auswertung des Surfverhaltens seiner Nutzer eine
Gewinnsteigerung von 12,2% realisieren könnte.319 Weitere Daten, etwa aus ex-
ternen Quellen, mussten für dieses (hypothethische und nicht zwingend auf andere
Sachverhalte übertragbare) Ergebnis nicht hinzugezogen werden.320 Aus diesen Er-
kenntnissen lässt sich im Umkehrschluss ableiten, dass sich aus Gründen, die auf
der zweiten oder dritten Stufe zu verorten sind, ergeben haben muss, dass diese dem
319 Shiller, First-Degree Price Discrimination using Big Data, 2014 (vgl. dazu bereits oben Kap.7,
III. 4.).
320 Vgl. auch die Diskussion der Studie von Shiller von Locher, ZWeR 16 (2018), 292, 302.
Kapitel 7: Preispersonalisierung
187
Anbieter grundsätzlich vorliegenden Informationen nicht für Personalised Pricing
genutzt werden sollen oder können. Insofern fand eine bewusste Verkleinerung des
Ausmaßes der Datennutzung statt.
Die zweite Stufe– Berechnung des Reservationspreises mittels Proling– nimmt
eine Scharnierfunktion ein. Sie verbindet die erste und die dritte Stufe miteinander.
Stufe 1 setzt ihr Grenzen: Die Berechnung des Reservationspreises ist auf das vor-
handene und nutzbare Datenmaterial angewiesen. Je weniger Daten vorhanden sind
(bzw. je weniger der vorhandenen Daten verarbeitet werden können oder dürfen),
desto ungenauer ist das Ergebnis, das auf der zweiten Stufe generiert werden kann.
Die (abstrakte) Bildung von und die (einzelfallbezogene) Einordnung in Vergleichs-
gruppen wird zwangsläug immer grobkörniger und ungenauer, je weniger Infor-
mationen als Datengrundlage dienen. Ein weitgehender Verzicht auf die Bezug-
nahme zu abstrakten Vergleichsgruppen würde die Qualität und Aussagekraft des
Ergebnisses bedeutend absenken. In jedem Fall ist das Resultat der zweiten Stufe
ein bloßer Wahrscheinlichkeitswert. Das gefundene Ergebnis (ausgedrückt als Zu-
gehörigkeit zu einer bestimmten Gruppe; als bestimmter, vermuteter Reservations-
preis; als für den Kunden vermutlich akzeptable Preisspanne) mündet aber nicht
zwangsläug darin, dass ein dementsprechender Preis dem Kunden tatsächlich auch
in dieser Höhe bzw. Preisspanne unmittelbar oder mittelbar kommuniziert wird. Die
Entscheidung, welcher Preis auf welche Weise vom Kunden verlangt wird, wird erst
auf der dritten Stufe getroffen. Dabei bestimmen zwei maßgebliche Gesichtspunkte
sowohl die Entscheidung als solche als auch die Modalitäten ihrer Ausführung: Die
Preiskommunikation und, abhängig von der Wettbewerbssituation, die maximal
durchsetzbare Preishöhe.321 Vor allem angesichts dieser beiden Punkte lässt sich er-
klären, warum Preispersonalisierung in der Praxis so selten und primär basierend
auf solch simplen Parametern zum Einsatz kommt.
Das Problem der zuverlässigen Identizierung einzelner Kunden,322 hier thema-
tisiert als Frage der Preiskommunikation, erklärt die Auswahl der herangezogenen
Variablen. Anbieter scheinen besonders häug auf Informationen abzustellen, die
sie „an Ort und Stelle“ selber erheben und sofort dementsprechend handeln kön-
nen.323 Sie müssen dafür nicht auf andere Datenquellen zugreifen, sondern können
stattdessen den Preis auf ihrer Seite direkt anpassen. Auch kann mit dieser Methode
die Situation vermieden werden, dass Anbieter Kunden verwechseln und ihnen den
„falschen“– also zu hohen oder zu niedrigen– Preis zuweisen. Durch diese grobe
Selektierung anhand simpler Merkmale entfernt Preispersonalisierung sich in der
Praxis deutlich vom theoretisch gezeichneten Bild komplex individualisierter,
kundenspezischer Preise. Die Einfachheit dieser Vorgehensweise führt also zu un-
genaueren Ergebnissen – sie sichert aber zugleich ihre Praktikabilität. Dement-
sprechend geht es den Anbietern letztlich eher darum, verschiedene Kundentypen,
321 Siehe oben Kap.7, III. 3.
322 Siehe oben Kap.7, III. 3. a. aa.
323 Miller, J.Tech. L. & Pol 19 (2014), 41, 53 verwendet hierfür den pointierten Ausdruck „‚rough
and ready‘ indicators“. Vgl. auch Steppe, Computer Law & Security Review 33 (2017), 768, 776.
IV.Personalisierte Preise inder Praxis
188
repräsentiert durch Kundengruppen, unterschiedlich preislich anzusprechen, ohne
dass es ihnen im Einzelfall auf die Identität des Betroffenen ankäme.324
Für Anbieter stellt es eine Kernfrage der Preiskommunikation dar, ob sie den
Weg unmittelbarer oder mittelbarer Preispersonalisierung wählen. Nur die erst-
genannte Form konnte methodisch von den hier analysierten Studien erfasst wer-
den,325 womit auch die sehr niedrige Zahl an nachgewiesenen Fällen zumindest teil-
weise erklärt werden kann: Die Situation, dass zwei Kunden online gleichzeitig das
gleiche Produkt beim gleichen Anbieter betrachten und verschiedene Preise zu
sehen bekommen, wollen Anbieter in der Regel tunlichst vermeiden. Ansonsten lau-
fen sie Gefahr, auf Kundenseite ein Gefühl der Ungleichbehandlung bzw. Un-
fairness hervorzurufen. Mittelbare Preispersonalisierung dürfte häuger vor-
kommen, da diese Form der Preiskommunikation auf Kundenseite bedeutend besser
rezipiert und akzeptiert wird. Es ist allerdings deutlich schwieriger– wenn nicht
unmöglich –, ihr Vorkommen automatisiert und in großem, statistisch signikantem
Ausmaß zu erheben, da sie in ganz verschiedenen Ausprägungen vorkommt, denen
oftmals auch ein verschleierndes Element innewohnt.
Amazon.com war mit der gewählten, von der breiten Öffentlichkeit als willkür-
lich empfundenen Art unmittelbarer Preispersonalisierung gescheitert. Bei Staples
und bei denjenigen Anbietern, die den Preis bei denjenigen Kunden anpassen, wel-
che von Preisvergleichsportalen weitergeleitet worden sind, lässt sich die Ent-
scheidung für unmittelbare Preispersonalisierung zumindest teilweise mit prakti-
schen Erwägungen erklären.
Beim Vorgehen von Staples handelte es sich um unmittelbare Preisper-
sonalisierung: Je nach Aufenthaltsort des Kunden wechselte der ihm angezeigte
Preis. Die Gefahr, dass Kunden dies bemerken, war allerdings geringer als in ande-
ren denkbaren Situationen, etwa einer Preisanpassung aufgrund des verwendeten
Endgeräts oder Browsers. Der Grund hierfür liegt darin, dass die Situation, dass
Preispersonalisierung den Kunden überhaupt durch Zufall auffällt, eher selten ein-
treten dürfte. Dafür müssten zwei Kunden von verschiedenen (zudem von Staples
mit verschiedenen Preisen assoziierten) Orten aus den Preis zeitgleich abfragen und
sich darüber austauschen. Diese Situation dürfte seltener auftreten als die, dass zwei
Kunden– etwa Freunde oder Kollegen – gleichzeitig am gleichen Aufenthaltsort
den Preis für ein bestimmtes Produkt recherchieren. In diesem Fall würde die Preis-
personalisierung bei Staples gar nicht auffallen: Aufgrund der gleichen örtlichen
Herkunft der Preisanfrage würde beiden Kunden derselbe Preis angezeigt werden.
Anbieter, die auf Preisvergleichsportalen niedrigere Preise anzeigen lassen (und
nach Weiterleitung auf ihre Seite auch dort dementsprechend anzeigen), laufen hin-
gegen eher Gefahr, dass dies ihren Kunden auffällt. Auch hier liegt unmittelbare
Preispersonalisierung vor, sofern der Preis im Portal und direkt nach der
324 Im Ergebnis so auch Ofce of Fair Trading, Personalised Pricing, 2013, S.13.
325 Beachte allerdings die oben diskutierten Fälle Expedia, Cheaptickets und Orbitz: Diese Anbieter
wiesen die Preisanpassung als Teil eines Vorteilsprogramms für Mitglieder explizit als solche aus.
Booking.com wies auf Rabatte für Nutzer mobiler Endgeräte hin. Deshalb lag mittelbare Preis-
personalisierung vor.
Kapitel 7: Preispersonalisierung
189
Weiterleitung für den Kunden angepasst wird. Die Wahrscheinlichkeit, dass dieses
Vorgehen tatsächlich negative Kundenreaktionen hervorruft, wird aber in den Fällen
abgemildert, in denen die Preispersonalisierung– sofern sie als solche überhaupt
erkannt wird– zu niedrigeren Preisen führt.326 Die Reduktion eines Referenzpreises
(hier: des Preises, der bei unmittelbarem Aufrufen der Webseite angezeigt wird) be-
urteilen die bevorteilten Kunden nämlich nicht zwangsläug als fair, nehmen ihn
aber als doch eher positiv wahr.327 Negative, durchaus heftige328 Reaktionen sind
aber dann denkbar, wenn andere Kunden, etwa im Nachgang zu ihrem Kauf, er-
fahren, dass sie mehr gezahlt haben als Nutzer von Preisvergleichsportalen. Aus
ihrem Blickwinkel wirkt das gleiche Vorgehen– ökonomisch betrachtet irrational,
aber verhaltenspsychologisch erklärbar– in der Relation unfairer als aus Sicht der
„bevorzugten“ Kunden, deren Preis vom Referenzpreis nach unten abweicht.329 Die
mit dieser Konstellation einhergehenden möglichen negativen Effekte nehmen die
dergestalt agierenden Anbieter aber wohl in Kauf.
g. Wertende Zusammenfassung
Sichere, allgemeingültige Aussagen zum praktischen Vorkommen von personali-
sierten Preisen im Online-Handel sind nach heutigem Stand der Wissenschaft kaum
möglich. Stattdessen präsentiert sich ein fragmentarisches, von Tendenzen ge-
prägtes Bild. Unmittelbare Preispersonalisierung wurde bisher nur in vereinzelten
Fällen nachgewiesen. Es spricht viel dafür, dass sie zum jetzigen Zeitpunkt grund-
sätzlich keine bedeutende Rolle in der Praxis des Online-Handels spielt. Ihr em-
pirischer Nachweis ist sehr anspruchsvoll und hängt vor allem von der sicheren
Abgrenzung zwischen Noise und Preispersonalisierung ab. Mittelbare Preis-
personalisierung ist vermutlich häuger anzutreffen, methodisch aber noch schwie-
riger zu greifen. Bei ihr „verwischen“ Preispersonalisierung und allgemeine
Marketing-Maßnahmen aus Sicht des Kunden, des Anbieters und des externen Be-
obachters. Eine objektive Feststellung, ob eine Personalisierung oder andere Gründe
zu Preisänderungen geführt haben, dürfte oftmals kaum mit der notwendigen
Sicherheit zu treffen sein.
326 Aus den hier analysierten Studien hat sich ergeben, dass diese Form der Preispersonalisierung
in der Regel zu günstigeren Preisen führt (d.h. Kunden hätten bei unmittelbarem Ansteuern der
jeweiligen Anbieter-Seiten mehr gezahlt als nach der Weiterleitung). Dies muss aber nicht zwin-
gend der Fall sein, vgl. beispielsweise European Commission, Consumer Market Study on Online
Market Segmentation through personalised Pricing/Offers in the European Union, 2018, S.203.
327 Dies ist der Grund, warum Preispersonalisierung allgemein häug in eine Situation eingekleidet
wird, in der der Preis des Einzelnen als Rabatt von einem Referenzpreis, nicht aber als Erhöhung
eines solchen dargestellt wird. Vgl. allgemein dazu Ezrachi/Stucke, Virtual Competition, 2016,
S.111f.
328 Vgl. Xia/Monroe/Cox, Journal of Marketing 68 (2004), 1, 2: „A buyer may have feelings of un-
ease or guilt when the inequality is to his or her advantage but feelings of anger or outrage when
the inequality is to his or her disadvantage.“
329 Vgl. dazu dies., Journal of Marketing 68 (2004), 1, 2.
IV.Personalisierte Preise inder Praxis
190
Die Ergebnisse der hier analysierten Studien deuten darauf hin, dass in den we-
nigen Fällen unmittelbarer Preispersonalisierung jeweils nur auf eine einzelne In-
formation abgestellt wird, etwa auf den Aufenthaltsort des Kunden oder auf die
Frage, ob dieser zuvor ein Preisvergleichsportal aufgerufen hat, über das er auf die
Seite des Anbieters gelangt ist. Konzeptionell handelt es sich dabei– wie immer bei
datenbasierter Preispersonalisierung– um Preisdiskriminierung 3. Grades. Da die
Gruppenzuweisung nur von einem Faktor abhängt, ist ihr Ausmaß an Komplexität
allerdings bloß so niedrig wie etwa bei der Gewährung von Studentenrabatt. Es ist
kaum anzunehmen, dass die dieser Art von digitaler Preisdiskriminierung inne-
wohnende Pauschalisierung der Preisanpassung dem Reservationspreis der Be-
troffenen besser gerecht wird. Ein wesentlicher Unterschied besteht allerdings: Die
Anbieter haben die Anpassung des Preises in den hier analysierten Fällen dem Kun-
den verschwiegen. Bei klassischen Gruppentarifen hingegen teilt der Kunde die für
die Gruppeneinordnung notwendige Information in der Regel aktiv selber mit, d.h.
er initiiert den Informationsuss– und kann, wenn er möchte, auf seine Datenpreis-
gabe auch zu Lasten der Preisreduktion verzichten. Bei mittelbarer Preisper-
sonalisierung hängt das Ausmaß an Transparenz wiederum vom gewählten
Kommunikationsweg ab: Entweder verschleiert der Anbieter die Anpassung des
Preises gänzlich oder er teilt sie dem Kunden mit und liefert dafür zugleich eine
Rechtfertigung.
Die Digitalisierung hat in anderen Bereichen des Online-Handels deutlich ge-
läugere Formen von Personalisierung hervorgebracht. Search Discrimination ist
eine weitverbreitete, im Vergleich zu Preispersonalisierung bedeutend häuger
nachgewiesene Form der gezielten Kundenansprache. Das Gleiche gilt für Targeted
Advertising, welches in der Werbewirtschaft einen bedeutenden, stark wachsenden
Markt darstellt und mittlerweile von den Kunden ohne Weiteres akzeptiert wird.330
Diese (zumindest noch) bestehende quantitative Diskrepanz zwischen dem prakti-
schen Einsatz personalisierter Preise einerseits und anderen Formen datenbasierter
Personalisierung andererseits mag mit der Akzeptanz auf Kundenseite erklärt wer-
den. Individualisierte Angebote, Werbung etc. werden von Kunden durchaus positiv
aufgenommen oder zumindest neutral akzeptiert. Dies gilt unabhängig davon, ob
die Personalisierung als solche erkennbar ist. Die Akzeptanz von Personalised Pri-
cing steht und fällt hingegen mit der Preiskommunikation, welche im Falle un-
mittelbarer (und somit „erkennbarer“) Preispersonalisierung die Kunden durchaus
stark verärgern und vom Anbieter abwenden kann. Dieser Umstand kann somit als
(zumindest ein) Grund für das seltene Vorkommen personalisierter Preise be-
trachtet werden.
330 Vgl. dazu European Commission, Consumer Market Study on Online Market Segmentation
through personalised Pricing/Offers in the European Union, 2018, S.34f.
Kapitel 7: Preispersonalisierung
191
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 Inter-
national Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die
Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und
Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nen-
nen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vor-
genommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der
genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes er-
gibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht
und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben
aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers
einzuholen.
IV.Personalisierte Preise inder Praxis
193
Kapitel 8: Weiterführende Überlegungen
I.Preispersonalisierung heute und inZukunft
Unmittelbare Preispersonalisierung im Online-Handel ist in den Ländern der Euro-
päischen Union nach heutigem Wissensstand ein seltenes, nur in wenigen Fällen
beobachtbares Phänomen. Das Ausmaß ist quantitativ wie qualitativ begrenzt: In
den wenigen registrierten Fällen waren die prozentual messbaren Unterschiede
zwar nicht in allen, aber in den meisten Fällen gering. Das Ausmaß mittelbarer
Preispersonalisierung, welche empirisch nur schwer mit der notwendigen statisti-
schen Signikanz zu erheben ist, dürfte größer sein. Es scheint allerdings auch eher
gering zu sein. Häug vorzunden ist hingegen Verhaltensdiskriminierung (Behavi-
oural Discrimination): Internet-Seiten und vernetzte Endgeräte des Internet of
Things sind geprägt durch eine zunehmende Personalisierung, was die Suchergeb-
nisse und andere Formen der Seitengestaltung sowie Werbung jeglicher Art angeht.
Diese Form der Personalisierung ist strikt zu trennen von Preispersonalisierung,
deren Wesen in der Anpassung des Preises an die (aus Eigenschaften und Verhalten
abgeleitete) Zahlungsbereitschaft des Kunden besteht. Gleichermaßen notwendig
ist die Abgrenzung von dynamischen Preisen.
Es ist denkbar, dass Personalised Pricing zukünftig häuger vorkommen wird.
Ein tragender Grund– neben verschiedenen anderen– für ihre gegenwärtige Selten-
heit ist das negativ konnotierte Gefühl der Ungleichbehandlung auf Kundenseite,
wenn Preispersonalisierung als solche erkannt wird.1 Dieser Aspekt mag an Be-
deutung verlieren, sofern die generelle Akzeptanz dieser Art von Preissetzung steigt
und sie im Laufe der Zeit von den Kunden nicht mehr als unfair rezipiert oder zu-
mindest als normales Vorgehen wahr- und hingenommen wird.2
1 Deshalb wird von unmittelbarer Preispersonalisierung meistens abgesehen. Bei mittelbarer Preis-
personalisierung wird diese verschleiert oder offengelegt und mit einer Rechtfertigung versehen
(siehe dazu oben Kap.7, IV. 1.).
2 Siehe dazu bereits oben Kap.7, I. 3.
© Der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9_8
194
Darüber hinaus ist abzusehen, dass neue Geschäftsmodelle mit neuen Formen
der Kundeninteraktion einhergehen. Damit sind auch Formen der Preis-
kommunikation gemeint, welche es erlauben, personalisierte Preise zu verschleiern.
Zu denken ist hierbei etwa an digitale, über das Internet verbundene Assistenz-
systeme, beispielsweise Alexa von Amazon oder Siri von Apple.3 Diese oftmals
sprachgesteuerten, in sich abgeschlossenen Systeme ermöglichen ein äußerst hohes
Maß an Personalisierung im Rahmen der Erbringung verschiedenster Dienst-
leistungen. Neben der Funktion eines „persönlichen virtuellen Assistenten“, der
etwa Auskunft über die Wettervorhersage gibt, Fragen beantwortet oder angewiesen
werden kann, Anrufe einzuleiten oder bestimmte Musikstücke abzuspielen, er-
lauben diese Systeme auch den Kauf von Gütern und Dienstleistungen. Alexa er-
möglicht beispielsweise den Erwerb zahlreicher Produkte aus dem Sortiment von
Amazon. Dies erfolgt mittels Sprachsteuerung, welche mithilfe eines Endgeräts im
Haushalt des Nutzers technisch ermöglicht wird. So führt der Anbieter aus:
„Prime-Mitglieder können Produkte von Amazon.de ganz einfach mit Alexa nach-
bestellen. Wenn Sie ein neues Produkt benötigen sucht Alexa relevante Artikel und
bittet Sie Ihren Kauf zu bestätigen. (…) [S]agen Sie einfach: ‚Alexa, bestelle Kaf-
fee.‘ [oder] ‚Alexa, bestelle Küchenpapier nach.‘“4 Auf diese Weise wird die kon-
krete Kaufentscheidung teilweise in die Hände des Anbieters gelegt. Auf Seiten des
Anbieters läuft das Verfahren gänzlich automatisiert, d.h. ohne Mitwirkung eines
menschlichen Entscheiders ab. Für den Kunden ist es aus Gründen der Bequemlich-
keit– vor allem bei eher niedrigpreisigen Alltagsgegenständen– attraktiv, auf die
getroffene Wahl zu vertrauen. De facto sinkt damit für ihn die Transparenz: Er wählt
das Produkt nicht mehr unbedingt selber aus und unterlässt zudem eher den Preis-
vergleich mit anderen Anbietern. Verhaltensdiskriminierung, etwa in Form des be-
vorzugten Verkaufs eher hochpreisiger Produkte an erkennbar wohlhabende Kun-
den, wird für den Anbieter damit deutlich erleichtert, zumal ein bestimmtes Ausmaß
an Personalisierung Teil des Geschäftsmodells ist und von den Kunden erwartet wird.
Es ist nicht auszuschließen, dass solche und ähnliche Konstellationen zukünftig
von Anbietern vermehrt genutzt werden, um Preise zu personalisieren. Unter ver-
schiedenen Gesichtspunkten sind sie anderen Anbietern gegenüber, welche ihre
Produkte oder Dienstleistungen im regulären Online-Handel vertreiben, im Vorteil:
Sie haben Zugriff auf sehr viele personenbezogene Daten, welche sie im Laufe der
Interaktion mit dem einzelnen Kunden über längere Zeiträume sammeln und aus-
werten können. Die hohe Anzahl an Kunden insgesamt erleichtert die Bildung von
abstrakten Vergleichsgruppen (Stufe 1 des hier vertretenen Modells) und ermöglicht
so eine aussagekräftigere Prolbildung und Bestimmung der Preissensitivität (Stufe
2). Die Identizierung des einzelnen Kunden stellt bei einem dergestalt personali-
sierten System kein Problem dar, da jeder Nutzer sich zwingend einloggen muss. Es
ist auch denkbar, dass ein solches System in der Lage ist, verschiedene im selben
Haushalt wohnende Kunden jeweils anhand ihrer Stimme voneinander zu unter-
scheiden und dementsprechend verschiedene Prole der individuellen Preis-
3 Siehe dazu auch umfassend Ezrachi/Stucke, Virtual Competition, 2016, S.191ff.
4 https://www.amazon.de/b?ie=UTF8&node=12775489031 (zuletzt aufgerufen am 31.3.2023).
Kapitel 8: Weiterführende Überlegungen
195
bestimmung zugrunde zu legen. Personenverwechslungen und darauf basierende
false positives in Form der Zuweisung eines „falschen“ Preises sind damit nahezu
ausgeschlossen (Stufe 3).
Kritisch ist aber auch hier die weitere Gestaltung der Preiskommunikation: Es ist
anzunehmen, dass ein Anbieter eines solchen Systems mediale Aufmerksamkeit
und öffentliche Kritik auf sich ziehen würde, wenn bekannt wird, dass er seine
Preise an die Zahlungsbereitschaft der Nutzer anpasst.5 Je größer und bekannter er
ist, desto stärker steht er zudem im Zentrum der öffentlichen Aufmerksamkeit und
Beobachtung. Unmittelbare Preispersonalisierung scheint demnach so gut wie aus-
geschlossen, sofern die gesellschaftliche Akzeptanz personalisierter Preise in Zu-
kunft nicht deutlich ansteigt. Eher denkbar sind Formen mittelbarer Preis-
personalisierung, wie etwa die Zusendung von Gutscheinen an ausgewählte Nutzer
im Rahmen von Werbeaktionen oder das Angebot von individuell kombinierten
Produkten, die etwa besonders günstig als „individuell zusammengestelltes“ Set
verkauft werden. Wie bereits festgestellt, ist anzunehmen, dass die Personalisierung
von Preisen– sofern sie überhaupt stattndet– am ehesten in der Reduktion eines
Referenzpreises ihren Ausdruck ndet. Denkbar ist auch hier, Preispersonalisierung
mit Produktpersonalisierung zu kombinieren und auf diese Weise zu verschleiern.
II.Ungleichbehandlung durch Gruppenbildung
Proling basiert methodisch auf dem Prinzip der Gruppenbildung: Der Datenver-
arbeiter (oder ein für ihn tätig werdender Dritter) sortiert die Betroffenen in Grup-
pen. Aus der Gruppenzugehörigkeit wird dann auf Eigenschaften oder Verhalten des
Einzelnen geschlossen. Diskriminierung ist dem Proling damit methodisch inhä-
rent.6 Preispersonalisierung macht sich die gleichen Methoden zunutze: Die Bil-
dung von Gruppen und die daran anknüpfende unterschiedliche Behandlung von
Kunden in Form der Zuweisung personalisierter Preise ist ihr zentrales Element.
Dies gilt unabhängig davon, ob die im Einzelfall herangezogenen Gruppen fein
deniert sind und dementsprechend viele persönliche Aspekte des Kunden berück-
sichtigen oder ob nur anhand eines einzelnen Merkmals eine grobe Zuordnung vor-
genommen wird. Der dritte Teil dieser Arbeit analysiert diese Ungleichbehandlung
in rechtlicher Hinsicht.
5 Amazon.com lieferte dafür im Jahr 2000 selber das beste Beispiel, vgl. oben Kap.7, IV. 2. a.
6 Datta/Tschantz/Datta, PoPETs 2015 (2015), 92, 105.
II.Ungleichbehandlung durch Gruppenbildung
196
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 Inter-
national Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die
Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und
Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nen-
nen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vor-
genommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der
genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes er-
gibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht
und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben
aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers
einzuholen.
Kapitel 8: Weiterführende Überlegungen
Teil III
Diskriminierung geschützter Gruppen
durch Preispersonalisierung
199
Kapitel 9: Einleitung
I.Normative Implikationen
Preispersonalisierung ist ein Unterfall von Preisdiskriminierung. Sie hat der Natur der
Sache nach stets ökonomische Auswirkungen, da von ihr Zahlungsströme zwischen
den Kunden und den Anbietern und damit die Verteilung von nanziellen Ressourcen
und Wohlstand abhängen. Die ökonomische Betrachtungsweise ist neutral und wert-
frei: Sie stellt auf Faktoren wie Efzienz und Wohlfahrt ab, ohne die unterschiedliche
Behandlung Einzelner mit einer darüber hinausgehenden Wertung zu verbinden.
Normativ betrachtet ist dies zunächst unproblematisch, da es jedem Kunden
grundsätzlich frei steht, ein Produkt oder eine Dienstleistung zu einem bestimmten
Preis zu kaufen oder vom Kauf abzusehen. Die Diskriminierung aufgrund unter-
schiedlicher Zahlungsbereitschaften kann allerdings dann problematisch werden,
wenn sie mit der Schlechterstellung von Personen einhergeht, die geschützten
Gruppen– beispielsweise Zugehörigen bestimmter Ethnien oder Menschen mit Be-
hinderung– angehören. Die Diskriminierung besteht dann darin, dass von Gruppen-
mitgliedern systematisch ein höherer Preis als von Nicht-Mitgliedern verlangt
wird.1 Zwei Szenarien sind denkbar.
1. Unmittelbare Diskriminierung
Im ersten Szenario ndet die Diskriminierung unmittelbar aufgrund der Gruppen-
zugehörigkeit statt. Sie besteht darin, dass eine Person aufgrund ihrer Zugehörig-
keit zu einer geschützten Gruppe in einer vergleichbaren Situation eine weniger
1 Die Art der Preiskommunikation (mittelbare oder unmittelbare Preispersonalisierung) kann dabei
keine Rolle spielen.
© Der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9_9
200
günstige Behandlung erfährt, als eine andere Person erfährt, erfahren hat oder er-
fahren würde.2 Ein Beispiel3 hierfür sind unterschiedlich hohe Prämien, die von
Männern und Frauen (bei ansonsten gleichen Rahmenbedingungen) aufgrund ihres
Geschlechts für Versicherungen verlangt werden. Auch wenn die unterschiedlich
hohen Prämien bloß die mit dem Geschlecht einhergehende statistisch bestimmte
faktische Kostenintensität widerspiegeln sollen, können sie dennoch unter dem As-
pekt der Gleichbehandlung abzulehnen sein. In Test-Achats hat der EuGH dement-
sprechend eine Ermächtigungsgrundlage für ungültig erklärt, wonach die Mit-
gliedstaaten „proportionale Unterschiede bei den Prämien und Leistungen dann
[zulassen dürfen], wenn die Berücksichtigung des Geschlechts bei einer auf rele-
vanten und genauen versicherungsmathematischen und statistischen Daten beru-
henden Risikobewertung ein bestimmender Faktor ist.“4 Die Entscheidung wurde
im Wesentlichen damit begründet, dass die Regelung gegen Art.21, 23 GRCh ver-
stoße.5 Im Ergebnis sind unterschiedliche Prämien bzw. Leistungen aufgrund des
Geschlechts also aus normativen Gründen selbst dann nicht zu rechtfertigen, wenn
die unterschiedliche Behandlung die ökonomische Realität widerspiegelt. Gene-
ralanwältin Kokott führt in ihren Schlussanträgen etwas nuancierter aus, dass diese
Form unmittelbarer Diskriminierung nicht mit rein statistischen (und dementspre-
chend pauschalisierten) Erfahrungswerten über die geschlechtsspezisch verur-
sachten Kosten, sondern nur bei Vorliegen dahingehend sicherer Erkenntnisse ge-
rechtfertigt werden könne.6 Auf das Geschlecht könne nicht aus Gründen der
Einfachheit als Ersatzkriterium zurückgegriffen werden. Stattdessen sei, um eine
objektiv nicht gerechtfertigte Andersbehandlung aufgrund des Geschlechts auszu-
schließen, die korrekte Erfassung und Bewertung der versicherungsrelevanten, ein-
zelfallbezogenen Aspekte durchzuführen.7 In diesen Ausführungen spiegelt sich
der Grundsatz wider, dass in den Fällen, in denen Gleichbehandlung gesetzlich
vorgegeben ist, Gleiches möglichst gleich und Ungleiches ungleich zu behan-
deln ist.
2 Vgl. etwa die Legaldenition in Art.2 lit. a Richtlinie 2004/113/EG des Rates vom 13. Dezember
2004 zur Verwirklichung des Grundsatzes der Gleichbehandlung von Männern und Frauen beim
Zugang zu und bei der Versorgung mit Gütern und Dienstleistungen (ABl. L 373 vom 21.12.2004,
S.37ff.), im Folgenden „Unisex-RL“.
3 Es handelt sich bei diesem Beispiel nicht um Preispersonalisierung, da die Preishöhe im Einzel-
fall nicht von der individuellen Zahlungsbereitschaft abhängig gemacht wird. Die Problematik der
Diskriminierung geschützter Gruppen ist allerdings auf Proling-basierte Preispersonalisierung
übertragbar.
4 Vgl. dazu das Urteil EuGH, C-236/09, ECLI:EU:C:2011:100 (Test-Achats). Streitgegenstand war
Art.5 II Unisex-RL.
5 EuGH, C-236/09, ECLI:EU:C:2011:100, Rn.32 (Test-Achats).
6 Schlussanträge der Generalanwältin Juliane Kokott, C-236/09, ECLI:EU:C:2010:564, Rn.60f.
(Test-Achats).
7 Schlussanträge der Generalanwältin Juliane Kokott, C-236/09, ECLI:EU:C:2010:564, Rn.66f.
(Test-Achats).
Kapitel 9: Einleitung
201
Unmittelbare Diskriminierungen können grundsätzlich – in Abhängigkeit
vom herangezogenen Anknüpfungsmerkmal und dem mit der Andersbehandlung
verfolgten Zweck– gerechtfertigt sein. Als beispielhafte Vorlage für diese Über-
legung dient der in §20 I S.1 AGG enthaltene Rechtfertigungsgrund. Unmittel-
bare Benachteiligungen i.S.d. §§19 I, 3 I AGG8 sind demnach gerechtfertigt,
wenn sie sich auf die Religion, eine Behinderung, das Alter, die sexuelle Identität
oder das Geschlecht beziehen und zudem ein sachlicher Grund vorliegt. Dies
zeigt zum einen, dass eine Rechtfertigung nicht bei jedem Anknüpfungsmerkmal
möglich ist: Benachteiligungen aus Gründen der Rasse oder ethnischen Herkunft
einer Person können über §20 I AGG beispielsweise gar nicht gerechtfertigt
werden.9 Dies ist letztlich eine aus allgemein anerkannten Grund- und Men-
schenrechten abgeleitete Wertentscheidung. Zum anderen wird deutlich, dass
nicht alle Formen der unmittelbaren Diskriminierung per se verpönt sein müs-
sen, solange ein sachlicher Grund vorliegt. Eine wertende Abwägung ist also
möglich.
Im Kontext von Preispersonalisierung stellt sich – losgelöst von konkreten
Rechtsregimen– die Frage, ob anbieterseitige unmittelbare Diskriminierungen auf-
grund der Zugehörigkeit zu geschützten Gruppen gerechtfertigt sein können. Das
Personalisieren von Preisen dient letztlich immer den ökonomischen Interessen des
Anbieters: Er strebt Gewinnmaximierung durch das Setzen des in der jeweiligen
Situation „besten“ Preises an. Isoliert betrachtet ist dies ein legitimes Ziel: Ein An-
bieter ist darauf angewiesen, sich gegenüber Konkurrenten zu behaupten und im
Preiswettbewerb zu bestehen.10 Wenn dieser Mechanismus allerdings dazu führt,
dass Marktteilnehmer– hier die Kunden als Endverbraucher– aufgrund ihrer Grup-
penzugehörigkeit schlechter gestellt werden, kann dies grundsätzlich nicht von der
Rechtsordnung gebilligt sein. Die Einschränkung der unternehmerischen Freiheit
des Anbieters ist letztlich gering: Es handelt sich nicht um eine Vorgabe dahinge-
hend, mit wem oder zu welchem konkreten Preis der Anbieter kontrahieren muss.
Es geht letztlich– wie in Test-Achats– nur darum, dass bestimmte Merkmale des
Kunden bei der Preisbestimmung keine Berücksichtigung nden dürfen. Ausnah-
men davon sind denkbar. Sie bedürfen einer wertenden Abwägung unter Berück-
sichtigung von Anknüpfungsmerkmal und sachlichem Grund. Gesellschaftlich ak-
zeptiert und aus Sicht des Diskriminierungsschutzes unproblematisch ist etwa das
8 §20 I AGG bezieht sich nicht auf mittelbare Benachteiligungen i.S.d. §3 II AGG.Bei diesen
kann das Vorliegen eines sachlichen Grundes allerdings bereits die Tatbestandsmäßigkeit entfallen
lassen (Franke/Schlichtmann, in: Däubler/Beck (Hrsg.), Allgemeines Gleichbehandlungsgesetz,
52022, §20 Rn.5 AGG).
9 Rechtlicher Hintergrund ist, dass die (dem Allgemeinen Gleichbehandlungsgesetz u.a. zugrunde
liegende) Richtlinie 2000/43/EG des Rates vom 29. Juni 2000 zur Anwendung des Gleichbehand-
lungsgrundsatzes ohne Unterschied der Rasse oder der ethnischen Herkunft (ABl. L 180 vom
19.7.2000, S.22ff., im Folgenden „Antirassismus-RL“) keine Rechtfertigungsmöglichkeiten für
unmittelbare Diskriminierungen vorsieht.
10 Vgl dazu auch Zuiderveen Borgesius, Eur. Bus. Law Rev. 31 (2020), 401, 413–415.
I.Normative Implikationen
202
Anknüpfen an das Alter des Kunden11 im Falle von Rabatten für Senioren oder
Schüler. Mit einer preislichen Besserstellung dieser Gruppen geht zwangsläug
eine Benachteiligung von Kunden außerhalb dieser Altersgruppen einher.12 Diese
Art von Preissetzung ist gesellschaftlich gebilligt, da das Einräumen der Rabatte
dem Umstand geschuldet ist, dass die bevorzugten Gruppen in der Regel kein Er-
werbseinkommen haben. Hinzu kommt, dass ein Verbot dieser Preissetzungspraxis
letztlich nur dazu führen würde, dass der Rabatt nicht mehr gewährt wird.13 Eine zu
missbilligende Altersdiskriminierung der Kunden mittleren Alters liegt mithin nicht
vor. Eine Rechtfertigung unmittelbarer Diskriminierung ist auch bei sog. positiven
Maßnahmen (Afrmative Action)14 denkbar, sofern die Art der Preisgestaltung Be-
nachteiligungen geschützter Gruppen gerade zu verhindern oder auszugleichen
versucht.
Eine pauschale Aussage, wann eine unmittelbare Diskriminierung von der
Rechtsordnung gebilligt ist, ist also kaum möglich: Zu unterschiedlich sind die tra-
ditionell geschützten Gruppen und zu vielfältig die denkbaren Sachgründe, die über
ein bloßes Gewinnstreben auf Seiten des Anbieters hinausgehen. Stattdessen ist eine
wertende Einzelfallbetrachtung nötig, die den Gleichbehandlungsgrundsatz mit der
unternehmerischen Freiheit und Privatautonomie des Anbieters in Einklang bringt.15
2. Mittelbare Diskriminierung
Im zweiten Szenario ndet die Diskriminierung nicht unmittelbar aufgrund der
Gruppenzugehörigkeit statt. Bei der Preisberechnung kommen stattdessen Vor-
schriften, Kriterien oder Verfahren zur Anwendung, die augenscheinlich neutral
sind, de facto– vom Ergebnis her betrachtet– aber zur Benachteiligung geschützter
Gruppen führen.16
Ein Beispiel für diese Form der mittelbaren Diskriminierung stellt das sog. Red-
lining dar. Dieser vor allem im Kontext von Kredit-Scoring verwendete Begriff lei-
tet sich von der früher verbreiteten Praxis von Banken und Versicherungen ab, be-
stimmte Gebiete auf einer Stadtkarte mit einem Rotstift zu markieren, um auf diese
Weise pauschaliert ökonomisch „unattraktive“ Kundengruppen zu kennzeichnen.17
11 Diskriminierungen aufgrund des Alters sind sowohl gem. Art.21 I GRCh als auch gem. §1 AGG
grundsätzlich unzulässig.
12 Das Beispiel basiert auf der Gesetzesbegründung zu § 20 I S. 2 Nr.3 AGG (BT-Drucksache
16/1780, S.44).
13 Vgl. die Gesetzesbegründung zu §20 I S.2 Nr.3 AGG (BT-Drucksache 16/1780, S.44).
14 Siehe etwa Art.6 Unisex-RL.
15 Heese, NJW 2012, 572, 574f.; Zuiderveen Borgesius, Eur. Bus. Law Rev. 31 (2020), 401, 414f.
16 Hildebrandt, Smart Technologies and the End(s) of Law, 2015, S.96. Siehe etwa die Legalde-
nition in Art.2 II lit. b Antirassismus-RL.
17 Vgl. Hammersen/Eisenried, ZD 2014, 342, 343.
Kapitel 9: Einleitung
203
Der Wohnort des Einzelnen wird damit herangezogen, um ihm gegenüber Entschei-
dungen (etwa über die Vergabe von Krediten) zu fällen. Der Wohnort begründet
isoliert betrachtet grundsätzlich keine Zugehörigkeit zu einer geschützten Gruppe.
Unmittelbare Diskriminierung nach dem ersten Szenario liegt also bei einer darauf
basierenden Andersbehandlung nicht vor. Redlining wird aber dann problematisch,
wenn in den negativ konnotierten Gebieten beispielsweise primär Angehörige einer
ethnischen Minderheit wohnen, die durch diese Praxis de facto schlechter gestellt
werden (etwa indem ihnen pauschal ein schlechterer Kredit-Score zugewiesen
wird). Bei solchen Konstellationen handelt es sich um mittelbare Diskriminierung.18
Unter Gleichheitsgesichtspunkten ist diese nicht minder problematisch als unmittel-
bare Diskriminierung.19
Legaldenitionen mittelbarer Diskriminierung schließen ihre Tatbestandsmäßig-
keit regelmäßig dann aus, wenn das zur Diskussion stehende Vorgehen durch ein
rechtmäßiges Ziel sachlich gerechtfertigt ist und die Mittel zur Erreichung dieses
Ziels angemessen und erforderlich sind.20 Dogmatisch liegt dann keine Rechtferti-
gung, sondern von vornherein gar keine Diskriminierung vor. Mittelbaren Diskrimi-
nierungen wohnt kein eigenständiger Unrechtsgehalt inne. Es handelt sich um ein
Konstrukt, das letztlich dazu dient, Fallkonstellationen zu erfassen, die gleicherma-
ßen verwerich wie unmittelbare Diskriminierungen sind.21 Auch hier stellt sich
(hier bereits auf der Tatbestandsebene) die Frage, ob bzw. unter welchen Umstän-
den eine Benachteiligung geschützter Gruppen als Folge von Preispersonalisierung
zulässig sein kann. Insofern gelten die Überlegungen zur Rechtfertigung unmittel-
barer Diskriminierungen entsprechend.
18 Ernst, JZ 72 (2017), 1026, 1032.
19 Auch aus diesen Gründen war in §28b Nr.3 BDSG a.F. vorgesehen, dass beim Erstellen von
Score-Werten „für die Berechnung des Wahrscheinlichkeitswerts nicht ausschließlich Anschriften-
daten genutzt werden“ dürfen. Im Fall der Nutzung bestand zudem eine Unterrichtungs- und Do-
kumentationspicht (§28b Nr.4 BDSG a.F.). Diese Vorschriften wurden fast wortgleich in §31 I
Nr.3 und 4 BDSG n.F. übernommen, um auch unter Geltung der Datenschutz-Grundverordnung
das gleiche Schutzniveau zu gewährleisten (BT-Drucksache 18/11325, S.101f.). Angesichts der
abschließenden Regelungen der Datenschutz-Grundverordnung und mangels einer geeigneten
Öffnungsklausel ist die Europarechtskonformität dieser Regulierung allerdings hoch fraglich (so
Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, §31 Rn.4f. BDSG und Martini, Blackbox Algorithmus, 2019, S.174–176; vgl. aber Tae -
ger, ZRP 2016, 72, 74, der die Beibehaltung der alten Regelungen als Ergänzung und Konkretisie-
rung eines auf europäischer Ebene nicht abschließend geregelten Sachverhalts für zulässig erach-
tet). Das VG Wiesbaden hat mit Beschluss vom 1.10.2021 dem EuGH über Art. 267 AEUV
(indirekt) die Frage vorgelegt, ob § 31 BDSG n. F. mit den Vorgaben der Datenschutz-
Grundverordnung, insbesondere Art.22 DSGVO vereinbar ist (VG Wiesbaden, 6K 788/20.WI,
ECLI:DE:VGWIESB:2021:1001.6K788.20.WI.0A, BeckRS 2021, 30719). Der Generalanwalt
hat sich den geäußerten Zweifeln angeschlossen, vgl. Schlussanträge des Generalanwalts Priit
Pikamäe, C-634/21, ECLI:EU:C:2023:220, Rn.60–94 (SCHUFA Holding u.a. (Scoring)).
20 Art.2 II lit. b Antirassismus-RL; Art.2 lit. b Unisex-RL; §3 II AGG.
21 Thüsing, in: Münchener Kommentar zum Bürgerlichen Gesetzbuch (Hrsg.), Band 1:Allgemei-
ner Teil, 92021, §3 Rn.24 AGG.
I.Normative Implikationen
204
3. Praktische Probleme
Preispersonalisierung ist aus verschiedenen systemimmanenten Gründen geeignet,
vielleicht sogar dafür anfällig, diskriminierende Ergebnisse zu produzieren.22 Un-
mittelbare und mittelbare Formen der Benachteiligung geschützter Gruppen sind
denkbar. Diese können sowohl im eingesetzten Ausgangs-Datenmaterial (Stufe 1)
als auch im internen Entscheidungsndungs- und Ausführungsprozess (Stufe 2 und
3) selber angelegt sein. Es ist beispielsweise möglich, dass die Daten, die in das
Proling einießen, diskriminierende Muster enthalten, welche sich in dementspre-
chend diskriminierenden Ergebnissen niederschlagen. Dies kann etwa der Fall sein
bei Verwendung historischer Daten, in denen bestimmte Ungleichbehandlungen
und Stereotype bereits enthalten sind.23 Gleichermaßen ist denkbar, dass der Algo-
rithmus selber– von den Machern bewusst oder unbewusst implementierte– diskri-
minierende Wertungen enthält, oder dass selbstlernende Algorithmen solche im
Laufe der Zeit entwickeln und umsetzen. Die bereits diskutierten Ausführungen von
Kokott24 lassen sich auf Proling übertragen: Hier wie dort werden statistische Er-
kenntnisse zum Treffen pauschalierter Entscheidungen herangezogen und können
so diskriminierende Auswirkungen zeitigen.
In der Praxis ist aus der Sicht außenstehender Dritter oftmals nicht oder nur
schwer erkennbar, wie es zu den diskriminierenden Ergebnissen gekommen ist.25
Verschiedene, durchaus miteinander verwandte oder zusammenhängende Gründe
für diskriminierende Ergebnisse sind möglich. So konnte beispielsweise empirisch
nachgewiesen werden, dass das Werbenetzwerk Google DoubleClick Männern, die
online nach berufs- bzw. karrierebezogenen Themen suchten, signikant häuger
Werbeanzeigen mit Bezug zu sehr gut bezahlten Stellen angezeigt hat als Frauen
mit ansonsten gleichen Eigenschaften.26 Die Autoren der Studie weisen darauf hin,
dass es aufgrund der unklaren Strukturen und internen Abläufe (die dementspre-
chend als „Blackbox“ bezeichnet werden) nicht möglich ist, festzustellen, welche
der beteiligten Parteien für dieses Ergebnis verantwortlich ist.27 Sie kritisieren, dass
diese Werbepraxis– unabhängig von ihrer rechtlichen Bewertung– angesichts des
sog. Gender Pay Gaps problematisch ist.28 Es ist denkbar, dass die Einblendung der
verschiedenen Werbeanzeigen daher rührt, dass das für die Datenauswertung heran-
gezogene Datenmaterial die Situation widerspiegelt, dass Männer im Durchschnitt
häuger hoch bezahlte Positionen erreichen als Frauen. Durch die Datenauswertung
und darauf basierende Ausspielung der Werbeanzeigen wird dann eine bestehende,
22 Vgl. dazu (mit gleichem Ergebnis) Zander-Hayat/Reisch/Steffen, VuR 2016, 403, 406f.
23 Datenethikkommission der Bundesregierung, Gutachten, 2019, S.167f.
24 Siehe oben Kap.9, I. 1.
25 Hildebrandt, Smart Technologies and the End(s) of Law, 2015, S.96f.
26 Datta/Tschantz/Datta, PoPETs 2015 (2015), 92, 93 und 102. Es ist unklar, ob dieser Effekt heute
auch noch messbar wäre oder ob die Zuweisung der Werbeanzeigen mittlerweile anders funk-
tioniert.
27 Dies., PoPETs 2015 (2015), 92, 93 und 105.
28 Dies., PoPETs 2015 (2015), 92, 105.
Kapitel 9: Einleitung
205
politisch nicht (mehr) gewollte Ungleichbehandlung ungeprüft übernommen und
perpetuiert.29 Die strikte Orientierung am Faktischen führt dann zu normativ unge-
wünschten Ergebnissen. Denkbar wäre auch, dass die Anzeigen auf Veranlassung
der Werbetreibenden selber geschlechtsspezisch ausgespielt werden – oder dass
eine Kombination verschiedener Faktoren zu diesem Ergebnis geführt hat. Ähnliche
Wirkmechanismen sind auch im Kontext von Preispersonalisierung denkbar.
Mittelbare und (ungerechtfertigte) unmittelbare Diskriminierungen sind bei nor-
mativer Betrachtungsweise gleichermaßen abzulehnen: Für den betroffenen, durch
die Preispersonalisierung schlechter gestellten Kunden macht es keinen Unter-
schied, ob der Anbieter bei seiner Preisgestaltung unmittelbar an ein verpöntes
Merkmal ansetzt oder ob die Ungleichbehandlung mittelbar, aber doch kausal auf
seine Gruppenzugehörigkeit zurückzuführen ist. Wenn der Anbieter automatisierte
Verfahren nutzt, um Preise zu personalisieren, liegt es in seiner Verantwortung, et-
waigen rechtlichen Diskriminierungsverboten effektiv nachzukommen. Er kann
sich nicht darauf berufen, dass er die Ergebnisse der von ihm eingesetzten Datenver-
arbeitungsprozesse inhaltlich nicht gänzlich steuern oder inhaltlich nicht nachvoll-
ziehen kann.
II.Rechtliche Implikationen
Die zuvor skizzierten normativen Implikationen führen zu der folgenden rechtli-
chen Fragestellung: Enthält das geltende materielle Recht im Falle von Preisperso-
nalisierung ausreichende Schutzmechanismen vor Diskriminierung, die aus der Zu-
gehörigkeit zu geschützten Gruppen resultiert? Die Untersuchung basiert auf der
Prämisse, dass das Recht verschiedene Wege kennt, um die Diskriminierung ge-
schützter Gruppen im Verhältnis zwischen Privaten zu unterbinden.30 Die Frage,
welche Gruppen mit welchen Mitteln und in welchem Ausmaß geschützt werden
sollen, wurde damit vom Gesetzgeber bereits beantwortet. Die damit einhergehende
grundsätzliche Wertentscheidung wird hier als gegeben vorausgesetzt. Die eingangs
formulierte Fragestellung soll stattdessen beantworten, ob die existierenden Sys-
teme auch im Falle von Preispersonalisierung Anwendung nden– und so ihre in-
tendierte Schutzwirkung entfalten können– oder ob Schutzlücken bestehen. Diese
rechtliche und damit auch normative Analyse beinhaltet zwangsläug zugleich öko-
nomische Überlegungen, da die Diskriminierung in den hier diskutierten Konstella-
tionen stets in einer nanziellen Schlechterstellung des Kunden besteht.
29 Zu diesem Effekt vgl. auch Martini, Blackbox Algorithmus, 2019, S.50f.
30 Diese Schutzsysteme sind teilweise europarechtlich vorgegeben, teilweise einer freien Entschei-
dung des nationalen Gesetzgebers geschuldet. Für den nationalen Gesetzgeber zwingend sind vor
allem die Datenschutz-Grundverordnung und die Vorgaben der sog. Antidiskriminierungs-
Richtlinien (siehe unten Kap.10, III), welche im Allgemeinen Gleichbehandlungsgesetz umge-
setzt wurden. Letzteres geht inhaltlich aber deutlich über die europarechtlichen Mindestvorga-
ben hinaus.
II.Rechtliche Implikationen
206
Bourreau und de Streel führen aus, dass für die rechtliche Bewertung von Preis-
personalisierung generell vier übergeordnete Rechtsregime relevant sind: Verbrau-
cherschutzrecht, Datenschutzrecht, Kartellrecht und Antidiskriminierungsrecht.31
Diese Rechtsregime verfolgen verschiedene Schutzzwecke. Sie ergänzen sich,
wobei gerade die beiden erstgenannten durchaus auch inhaltliche Überschneidun-
gen aufweisen.32 Die vier Gebiete lassen sich grob anhand ihrer jeweiligen Rege-
lungsmethodik voneinander abgrenzen: Das Kartell- und das Antidiskriminierungs-
recht postulieren Handlungsverbote, indem sie bestimmte wettbewerbsschädliche
bzw. diskriminierende Verhaltensweisen untersagen. Verbraucher- und Daten-
schutzrecht setzen hingegen bereits zu einem vorgelagerten Zeitpunkt an.33 Ob-
gleich diese Rechtsregime teilweise auch Handlungsverbote aufstellen (etwa Art.22
I DSGVO), liegt ein gemeinsamer Schwerpunkt eher auf der Absicherung von
Transparenz zugunsten von Verbrauchern bzw. Betroffenen. So soll letztlich u.a.
sichergestellt werden, dass Kunden eine informierte Kaufentscheidung tref-
fen können.
Funktionierenden Wettbewerb vorausgesetzt, kommt es für die rechtliche Analyse
von Preispersonalisierung unter dem eingangs beschriebenen Aspekt der Diskrimi-
nierung geschützter Gruppen auf verbraucherschutz-, datenschutz- und antidiskrimi-
nierungsrechtliche Regelungen an.34 Auch wenn antidiskriminierungsrechtliche Vor-
schriften– in Deutschland auf einfachgesetzlicher Ebene vor allem das Allgemeine
Gleichbehandlungsgesetz (AGG)– genuin der Sicherstellung von Gleichbehandlung
in bestimmten Situationen dienen, ist das durch sie etablierte Schutzsystem nicht in
sich abgeschlossen. Verbraucherschutzrechtliche Normen dienen der Fairness und
der Transparenz im Rechtsverkehr. Sie geben den Kunden damit Möglichkeiten an
die Hand, Diskriminierung zu entdecken und sich vor ihr zu schützen. Durch das
Aufstellen von Transparenzerfordernissen ermöglichen sie auch die Kontrolle durch
Dritte, etwa die zuständigen Behörden oder Verbraucherschutzverbände.35 Sie ergän-
zen damit das Antidiskriminierungsrecht qualitativ.
Auch datenschutzrechtlichen Regelungen ist Diskriminierungsschutz inhärent.36
Ebenso wie im Verbraucherschutzrecht gelten hier, die Verarbeitung personenbezo-
gener Daten vorausgesetzt, verschiedene Transparenzpichten.37 Ein Diskriminie-
rungsschutz wird mittelbar zudem dadurch erreicht, dass Betroffene (hier: Kunden)
„Kontrolle über ihre eigenen Daten besitzen.
38 Je mehr Transparenz und Kontroll-
31 Bourreau/de Streel, The Regulation of Personalised Pricing in the Digital Era, 2018, S.5–11.
32 Dies., The Regulation of Personalised Pricing in the Digital Era, 2018, S.10. Zum Zusammen-
spiel von Wettbewerbs-, Verbraucherschutz- und Datenschutzrecht in der Digitalökonomie siehe
auch Botta/Wiedemann, The Antitrust Bulletin 64 (2019), 428, 434–437.
33 Bourreau/de Streel, The Regulation of Personalised Pricing in the Digital Era, 2018, S.10.
34 Eine vertiefte kartellrechtliche Analyse ndet nicht statt. Siehe dazu oben Kap.1, I.
35 Bourreau/de Streel, The Regulation of Personalised Pricing in the Digital Era, 2018, S.10.
36 Martini, Blackbox Algorithmus, 2019, S.77f.
37 Art.5 I lit. a DSGVO führt Transparenz als übergeordneten datenschutzrechtlichen Grundsatz
an, der z.B. in den Art.13–15 DSGVO konkretisiert wird.
38 Erwägungsgrund 7 DSGVO.
Kapitel 9: Einleitung
207
möglichkeiten zugunsten eines Kunden bestehen, desto unwahrscheinlicher ist es,
dass Anbieter diskriminieren und dass Diskriminierung unentdeckt bleibt. Am deut-
lichsten tritt der datenschutzrechtliche Diskriminierungsschutz in den in Art.9 I und
22 IV DSGVO enthaltenen Regelungen zum Schutz sensibler Daten zutage.39 Den
in Art.9 I DSGVO enthaltenen Datenkategorien, welche u.a. die Zugehörigkeit des
Betroffenen zu bestimmten geschützten Gruppen abbilden, wohnt eine besondere
Missbrauchs- und Diskriminierungsgefahr inne, weshalb sie besonderen Schutz er-
fahren.40 Die Datenschutz-Grundverordnung wählt eine präventive Herangehens-
weise, indem sie die Verarbeitung sensibler Daten verbietet bzw. erhöhte Anforde-
rungen an sie stellt. Zudem stellt sie in ihren Erwägungsgründen ausdrücklich den
Zusammenhang zwischen der automatisierten Verarbeitung personenbezogener
Daten und dem damit einhergehenden Diskriminierungsrisiko her.41 Der Gedanke
hinter diesen Regelungen ist, dass die Möglichkeit, jemanden zu diskriminieren,
ausgeschlossen oder zumindest erschwert ist, wenn der Verantwortliche von den für
die Diskriminierung notwendigen Informationen gar nicht erst Kenntnis erlangt.42
Diese Form des Diskriminierungsschutzes macht sich also ein (Datenverarbei-
tungs-)Verbot zunutze, setzt dabei aber zu einem frühen, der eigentlichen Preisent-
scheidung vorgelagerten Zeitpunkt an. Es geht damit funktional nicht primär um
das Verbot diskriminierender Entscheidungen an sich, sondern um ihre Verhinde-
rung bereits im Vorfeld.43 Ein relevantes Handlungsverbot, welches ggf. auch zum
Schutz vor Diskriminierung herangezogen werden kann, enthält die Datenschutz-
Grundverordnung zudem in Art.22 I DSGVO.
Ausgehend von der eingangs formulierten Rechtsfrage widmet sich der dritte
Teil dieser Arbeit der Analyse, welche konkreten Regelwerke relevant sind, welche
Schutzmechanismen sie bereitstellen und wie diese ineinandergreifen. Ausgangs-
punkt ist der Rechtsrahmen, der sich aus dem primären und sekundären Gemein-
schaftsrecht sowie, soweit relevant, der deutschen Umsetzung sowie der sonstigen
deutschen Regulierung ergibt. Der Aufbau orientiert sich am hier vertretenen
3- stugen Modell.
39 Vgl. auch die Begründung des ursprünglichen Entwurfs der Datenschutz-Grundverordnung,
KOM(2012) 11 endgültig vom 25.1.2012, S.7, in dem auf das Diskriminierungsverbot des Art.21
GRCh als betroffene Grundrechtsposition Bezug genommen wird.
40 Weichert, DuD 2017, 538, 539. Dies ergibt sich auch aus Erwägungsgrund 51 DSGVO: „Perso-
nenbezogene Daten, die ihrem Wesen nach hinsichtlich der Grundrechte und Grundfreiheiten be-
sonders sensibel sind, verdienen einen besonderen Schutz, da im Zusammenhang mit ihrer Verar-
beitung erhebliche Risiken für die Grundrechte und Grundfreiheiten auftreten können.“
41 Siehe Erwägungsgrund 75 DSGVO („Die Risiken für die Rechte und Freiheiten natürlicher Per-
sonen (…) können aus einer Verarbeitung personenbezogener Daten hervorgehen, die zu einem
physischen, materiellen oder immateriellen Schaden führen könnte, insbesondere wenn die Verar-
beitung zu einer Diskriminierung (…) führen kann“) sowie Erwägungsgründe 71 und 85 DSGVO.
42 Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.1 Rn.14 DSGVO.
43 Zu dieser Regelungstechnik siehe auch Hildebrandt, Smart Technologies and the End(s) of Law,
2015, S.193f.
II.Rechtliche Implikationen
208
Generell gilt, dass die Preishöhe nur in Ausnahmefällen rechtlich vorgegeben
sein kann, etwa im Arzneimittelsektor. Sie spielt nur am Rande eine Rolle. Rele-
vante Ansatzpunkte sind hingegen die Preisbestimmung und die Preiskommunika-
tion. Die Preisbestimmung spielt sich auf Stufe 1 und 2 des Modells ab. Aus
rechtlicher Sicht stellt sich die Frage, welche Daten erhoben und wie sie zwecks
Preisbestimmung verarbeitet werden dürfen. Diese beiden Stufen sind vor allem
unter den Aspekten der Transparenz und der datenschutzrechtlichen Kontrollmög-
lichkeiten relevant. Die Preiskommunikation– das Fordern eines bestimmten Prei-
ses einem bestimmten Kunden gegenüber– entspricht Stufe 3 des Modells. Auch
hier stellen sich Transparenzfragen, welche aber von verschiedenen möglicherweise
einschlägigen Handlungsverboten ankiert werden.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International
Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung,
Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format er-
laubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen
Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der
genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes er-
gibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht
und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben
aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers
einzuholen.
Kapitel 9: Einleitung
209
Kapitel 10: Relevante Rechtsregime
Der folgende Überblick dient dazu, die (möglicherweise) einschlägigen Regel-
werke zu eruieren und festzustellen, ob ihnen grundsätzliche Relevanz und An-
wendbarkeit im Kontext von Preispersonalisierung zukommt. Im darauf folgenden
Kap.11 erfolgt die eigentliche rechtliche Analyse unter Rückgriff auf das 3-stu-
ge Modell.
I.Datenschutzrecht
1. Datenschutz-Grundverordnung
Sobald zur Personalisierung von Preisen personenbezogene Daten verarbeitet wer-
den, ist die Datenschutz-Grundverordnung anwendbar, Art. 2 I i. V. m. 4 Nr. 1
DSGVO.Es sind keine Methoden denkbar, welche auf allen Stufen gänzlich daten-
schutzneutral sind. Dies gilt auch, soweit zur Preispersonalisierung pseudonym
erhobene oder pseudonymisierte Daten1 i.S.d. Art.4 Nr.5 DSGVO verarbeitet
werden, da diese aufgrund ihrer Personenbeziehbarkeit einen Unterfall der personen-
bezogenen Daten i. S. d. Art. 4 Nr. 1 DSGVO darstellen.2 Die Datenschutz-
Grundverordnung, welche als dogmatische Vorlage für das hier vertretene Modell
dient, kann mithin auf allen drei Stufen relevant sein.
1 Art. 4 Nr. 5 DSGVO beschreibt Pseudonymisierung als aktiven Vorgang, der mit personen-
bezogenen Daten beginnt, welche die Identität des Betroffenen offenlegen („(…) Verarbeitung
personenbezogener Daten in einer Weise, dass die personenbezogenen Daten ohne Hinzuziehung
zusätzlicher Informationen nicht mehr einer spezischen betroffenen Person zugeordnet werden
können (…)“). Es ist aber auch möglich, die Daten von vornherein pseudonymisiert zu erheben
(vgl. dazu Schleipfer, ZD 2017, 460, 463).
2 Klar/Kühling, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.4 Nr.5 Rn.11 DSGVO.Dies ergibt sich auch aus Erwägungsgrund 26 DSGVO.
© Der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9_10
210
2. ePrivacy-Richtlinie und Telekommunikation-Telemedien-
Datenschutz-Gesetz
a. Regelungsgehalt der ePrivacy-Richtlinie
Zudem stellt sich die Frage, welche Rolle die datenschutzrechtlichen Vorschriften
spielen, die in der Richtlinie 2002/58/EG3 (Datenschutzrichtlinie für elektronische
Kommunikation, sog. ePrivacy-Richtlinie) sowie im deutschen Telekommuni-
kation-Telemedien- Datenschutz-Gesetz4 enthalten sind. Diese könnten vor allem
auf der ersten Stufe des Modells relevant sein. Die ePrivacy-Richtlinie hat ein tele-
kommunikationsrechtliches Sonderregime etabliert. Sie wurde 2009 durch die
Richtlinie 2009/136/EG5 (sog. Cookie-Richtlinie) geändert und in ihrem An-
wendungsbereich erweitert. Ursprünglich sollte zeitgleich mit Erlass der
Datenschutz- Grundverordnung die ePrivacy-Richtlinie durch eine ePrivacy-Ver-
ordnung ersetzt werden.6 Ob bzw. wie dieses Gesetzgebungsvorhaben tatsächlich
realisiert werden wird, ist momentan unklar.7 Die ePrivacy-Richtlinie „sieht die
Harmonisierung der Vorschriften der Mitgliedstaaten vor, die erforderlich sind,
um einen gleichwertigen Schutz der Grundrechte und Grundfreiheiten, ins-
besondere des Rechts auf Privatsphäre und Vertraulichkeit, in Bezug auf die Ver-
arbeitung personenbezogener Daten im Bereich der elektronischen Kommu-
nikation sowie den freien Verkehr dieser Daten und von elektronischen
Kommunikationsgeräten und -diensten in der Gemeinschaft zu gewährleisten.“8
Laut ihrem zweiten Erwägungsgrund dient sie nicht nur der Umsetzung von Art.8
GRCh (Schutz personenbezogener Daten), sondern auch dem Schutz der Privat-
3 Richtlinie 2002/58/EG des Europäischen Parlaments und des Rates vom 12. Juli 2002 über die
Verarbeitung personenbezogener Daten und den Schutz der Privatsphäre in der elektronischen
Kommunikation (Datenschutzrichtlinie für elektronische Kommunikation) (ABl. L 201 vom
31.7.2002, S.37ff.), im Folgenden „ePrivacy-RL“.
4 Gesetz über den Datenschutz und den Schutz der Privatsphäre in der Telekommunikation und bei
Telemedien (Telekommunikation-Telemedien-Datenschutz-Gesetz – TTDSG) vom 23.6.2021,
BGBl. 2021 I, S.1982, zuletzt geändert durch Art.4 Gesetz zur Änderung des Strafgesetzbuches
Strafbarkeit des Betreibens krimineller Handelsplattformen im Internet vom 12.8.2021 (BGBl.
2021 I, S.3544), im Folgenden „TTDSG“.
5 Richtlinie 2009/136/EG des Europäischen Parlaments und des Rates vom 25. November 2009 zur
Änderung der Richtlinie 2002/22/EG über den Universaldienst und Nutzerrechte bei elektroni-
schen Kommunikationsnetzen und -diensten, der Richtlinie 2002/58/EG über die Verarbeitung
personenbezogener Daten und den Schutz der Privatsphäre in der elektronischen Kommunikation
und der Verordnung (EG) Nr.2006/2004 über die Zusammenarbeit im Verbraucherschutz (ABl. L
337 vom 18.12.2009, S.11ff.), im Folgenden „Cookie-RL“.
6 Die Datenschutz-Grundverordnung ist gem. Art.99 II DSGVO seit dem 25.5.2018 anwendbar.
Vgl. auch Erwägungsgrund 173 DSGVO, der die Änderung bzw. Überprüfung der ePrivacy-
Richtlinie bereits andeutet.
7 Siehe dazu unten Kap.10, I. 3.
8 Art.1 I ePrivacy-RL.
Kapitel 10: Relevante Rechtsregime
211
heit und des Kommunikationsgeheimnisses gem. Art.7 GRCh.9 Insoweit zieht sie
ihren Anwendungsbereich weiter als die Datenschutz- Grundverordnung.10 Gem.
Art.1 II S.1 ePrivacy-RL dient sie zur Detaillierung und Ergänzung– und mithin
als lex specialis11– der mittlerweile aufgehobenen12 Datenschutz- Richtlinie. Aus
Art.95 DSGVO ergibt sich, dass nationale, die ePrivacy- Richtlinie umsetzende
Gesetze bei Vorliegen bestimmter Voraussetzungen als sektorspezisches Daten-
schutzrecht vorrangig anwendbar sind.13
b. Umsetzung von Art.5 III ePrivacy-Richtlinie
Im Kontext von Preispersonalisierung ist einzig die nationale Umsetzung von Art.5
III ePrivacy-RL relevant. Dieser wurde durch die Cookie-Richtlinie eingeführt14
und richtet sich u.a. an die Anbieter von Diensten der Informationsgesellschaft.15
Damit sind auch Anbieter nach dem hiesigen Verständnis, also Online-Händler von
Waren und Dienstleistungen, als Normadressaten erfasst. Die Norm verpichtet die
Mitgliedstaaten in ihrem Satz 1, sicherzustellen, „dass die Speicherung von Infor-
mationen oder der Zugriff auf Informationen, die bereits im Endgerät eines Teil-
nehmers oder Nutzers gespeichert sind, nur gestattet ist, wenn der betreffende Teil-
nehmer oder Nutzer auf der Grundlage von klaren und umfassenden Informationen,
die er gemäß der [Datenschutz-Richtlinie] u.a. über die Zwecke der Verarbeitung
erhält, seine Einwilligung gegeben hat.“ Der Begriff „Einwilligung“ bezeichnet
eine Einwilligung im Sinne der Datenschutz-Grundverordnung, Art.2 lit. f ePriva-
cy-RL, 94 II S. 1 DSGVO. Der Ausdruck „Informationen“ erfasst personen-
bezogene und nicht personenbezogene Daten.16 Gem. Art.5 III S.2 ePrivacy-RL ist
nur im Falle der technischen Erforderlichkeit von Speicherung bzw. Zugriff keine
Einwilligung des Betroffenen einzuholen. Klassischer Anwendungsfall ist das Set-
zen von Cookies auf den Endgeräten von Nutzern bzw. Teilnehmern.17 Art.5 III
9 Vgl. dazu auch Kühling/Raab, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/
Bundesdatenschutzgesetz, 32020, Art.95 Rn.1 DSGVO.
10 Vgl. Art.1 II sowie Erwägungsgrund 1 DSGVO, die primär auf Art.8 GRCh abstellen.
11 Hornung/Spiecker gen. Döhmann, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Daten-
schutzrecht, 2019, Einl. Rn.221.
12 Art.94 I DSGVO.
13 Jandt, ZD 2018, 405. Zum Verhältnis zwischen Datenschutz-Grundverordnung, ePrivacy-
Richtlinie und nationalen Regelungen vgl. auch Kühling/Raab, in: Kühling/Buchner (Hrsg.),
Datenschutz- Grundverordnung/Bundesdatenschutzgesetz, 32020, Art.95 Rn.5ff. DSGVO.
14 Siehe Art.2 Nr.5 Cookie-RL.
15 Datenschutzkonferenz (DSK), Orientierungshilfe der Aufsichtsbehörden für Anbieter von Tele-
medien, März 2019, S.3.
16 EuGH, C-673/17, ECLI:EU:C:2019:801, Rn.66–71 (Planet49).
17 Die Unterscheidung zwischen Nutzern und Teilnehmern hat im hiesigen Kontext keine Be-
deutung. Im Folgenden wird nur der telemedienrechtliche Begriff Nutzer verwendet.
I.Datenschutzrecht
212
ePrivacy-RL ist technologieneutral gehalten und erfasst auch andere Arten des
Trackings (z.B. Browser Fingerprinting), welche ohne das Setzen bzw. Auslesen
von Cookies auskommen.18 Da Tracking zum Zwecke der Preispersonalisierung
eingesetzt werden könnte, besteht insoweit grundsätzlich Relevanz für die vor-
liegende Arbeit. Art.5 III ePrivacy-RL ist in Deutschland seit 1.12.2021 durch §25
TTDSG umgesetzt.
c. §15 III TMG a.F.
Die Vorgängernorm zu §25 TTDSG, §15 III TMG a.F.,19 war äußerst umstritten.
Sie erlaubte Diensteanbietern „für Zwecke der Werbung, der Marktforschung oder
zur bedarfsgerechten Gestaltung der Telemedien Nutzungsprole bei Verwendung
von Pseudonymen [zu] erstellen, sofern der Nutzer dem nicht widerspricht“ (§15
III S.1 TMG a.F.). Solange für die Erstellung dieser Nutzungsprole nur pseudo-
nyme20 Daten zum Einsatz kamen, war Tracking zum Zwecke der Webanalyse,
Reichweitenmessung und personalisierten Werbung (Targeted Advertising) einer
Widerspruchslösung unterworfen (sog. Opt-out).21 Der Nutzer musste sich ggf.
aktiv gegen die Datenverarbeitung wehren. §15 III S.1 TMG a.F. stand damit in
klarem Widerspruch zum Einwilligungserfordernis des Art.5 III S.1 ePrivacy-RL.22
§15 III TMG a.F. stellte damit keine Umsetzung von Art.5 III ePrivacy-RL in na-
18 Vgl. Schleipfer, ZD 2017, 460, 461; Schmidt/Babilon, K&R 2016, 86, 87.
19 Im Folgenden bezieht sich „TMG a.F.“ auf das Telemediengesetz (TMG) vom 26.2.2007, BGBl.
2007 I, S.179, zuletzt geändert durch Art.39 Gesetz zur Umsetzung der Richtlinie (EU) 2018/1972
des Europäischen Parlaments und des Rates vom 11. Dezember 2018 über den europäischen
Kodex für die elektronische Kommunikation (Neufassung) und zur Modernisierung des Tele-
kommunikationsrechts (Telekommunikationsmodernisierungsgesetz) vom 23.6.2021 (BGBl.
2021 I, S.1858). Mit Einführung des Telekommunikation-Telemedien-Datenschutz-Gesetzes wur-
den die datenschutzrechtlichen Regelungen des Telemediengesetzes aufgehoben (Art.3 Nr.2 Ge-
setz zur Regelung des Datenschutzes und des Schutzes der Privatsphäre in der Telekommunikation
und bei Telemedien vom 23.6.2021, BGBl. 2021 I, S.1982).
20 Pseudonyme bzw. pseudonymisierte Daten sind personenbezogene Daten (Erwägungsgrund
26 DSGVO).
21 Die Datenerhebung musste also so ausgestaltet sein, dass der Tracker, wenn überhaupt, erst nach
Hinzuziehung weiterer Daten auf die Identität des jeweiligen Kunden schließen konnte. §15 III
S. 3 TMG a. F. formulierte ein dahingehendes Zusammenführungsverbot, solange keine Ein-
willigung vorlag. Vgl. Schleipfer, ZD 2017, 460, 461.
22 Die deutsche Bundesregierung vertrat in einem Fragebogen, der von der Europäischen
Kommission zur Evaluierung der Umsetzung der ePrivacy-Richtlinie in den Mitgliedstaaten ein-
gesetzt wurde, die Meinung, dass Art.5 III ePrivacy-RL über die §§12 und 15 TMG a.F. in na-
tionales Recht umgesetzt worden war. Auf den problematischen §15 III TMG a.F. ging sie aller-
dings nicht ein, siehe Questionnaire on the implementation of the Article 5(3) of the ePrivacy
Directive (COCOM11- 20), abrufbar unter https://www.telemedicus.info/uploads/Dokumente/
COCOM11- 20QuestionnaireonArt.53e-PrivacyDir.pdf (zuletzt aufgerufen am 31.3.2023). Vgl.
dazu auch Heberlein, Datenschutz im Social Web, 2017, S.178 und Jandt, ZD 2018, 405, 406f.
Kapitel 10: Relevante Rechtsregime
213
tionales Recht dar, sondern war mit diesem unvereinbar.23 Die Anwendbarkeit der
Norm über Art.95 DSGVO wurde dementsprechend mit guten Gründen abgelehnt.24
Die Abschaffung des §15 III TMG a.F. wurde letztlich durch die Rechtsprechung
in der Rechtssache Planet4925 angestoßen. Dort konnte der EuGH sich zwar nicht
unmittelbar zur Europarechtskonformität des §15 III TMG a.F. äußern, die der vor-
legende BGH indirekt thematisiert hatte.26 Die Ausführungen des EuGH hinsicht-
lich der Anforderungen, die an eine wirksame Einwilligungserklärung i.S.d. Art.5
III S.1 ePrivacy-RL zu stellen sind, ließen aber erkennen, dass die deutsche Opt-
out-Lösung europarechtswidrig war.27 Der BGH urteilte daraufhin, dass §15 III
TMG a.F. richtlinienkonform dahingehend auszulegen sei, dass in die Norm contra
legem ein aktives Einwilligungserfordernis hineinzulesen sei.28 Die recht ge-
künstelte Argumentation, dass „[im] Fehlen einer (wirksamen) Einwilligung (…)
der nach dieser Vorschrift der Zulässigkeit der Erstellung von Nutzungsprolen ent-
gegenstehende Widerspruch gesehen werden“29 könne, ist nur vor diesem Hinter-
grund verständlich und war letztlich Ausdruck einer richtlinienkonformen Rechts-
fortbildung.30
d. §25 TTDSG
Der Wortlaut des §25 TTDSG entspricht im Wesentlichen dem des Art.5 III ePri-
vacy- RL.Die Speicherung von bzw. der Zugriff auf Informationen in der Endein-
richtung (etwa einem Smartphone oder einem Smarthome-Gerät31) eines End-
23 So auch Heberlein, Datenschutz im Social Web, 2017, S.179; Jandt, ZD 2018, 405, 407. Im Er-
gebnis wohl für eine Weitergeltung des § 15 III TMG a. F. auch unter der Datenschutz-
Grundverordnung Hanloser, ZD 2018, 213, 216. Vgl. dazu auch ders., ZD 2019, 264, 266.
24 Zu diesem Ergebnis kamen etwa auch eine im Auftrag der Europäischen Kommission erstellte
Studie (European Commission, ePrivacy Directive: Assessment of Transposition, Effectiveness
and Compatibility with proposed Data Protection Regulation, 2015, S.63) sowie die Konferenz
der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (Datenschutz-
konferenz (DSK), Orientierungshilfe der Aufsichtsbehörden für Anbieter von Telemedien, März
2019, S.4f. und dass., Zur Anwendbarkeit des TMG für nicht-öffentliche Stellen ab dem 25. Mai
2018, 2018, S.2).
25 EuGH, C-673/17, ECLI:EU:C:2019:801 (Planet49).
26 Vgl. den Vorlagebeschluss BGH, GRUR 2018, 96, 97f. Rn.13 (Cookie-Einwilligung I).
27 Vgl. EuGH, C-673/17, ECLI:EU:C:2019:801, Rn.44–65 (Planet49) und vor allem Rn.65, wo-
nach ein „voreingestelltes Ankreuzkästchen (…), das der Nutzer zur Verweigerung seiner Ein-
willigung abwählen muss“, weder den Vorgaben der nicht mehr anwendbaren Datenschutz-Richt-
linie noch denen der Datenschutz-Grundverordnung genügt. Siehe dazu auch bereits Wiedemann,
IIC 51 (2020), 543, 551f.
28 BGH, NJW 2020, 2540, 2545f. Rn.52–55 (Cookie-Einwilligung II).
29 BGH, NJW 2020, 2540, 2546 Rn.55 (Cookie-Einwilligung II).
30 Rauer/Bibi, ZUM 2020, 887, 889.
31 Vgl. die Legaldenition in § 2 II Nr. 6 TTDSG. Die Gesetzesbegründung nennt beispielhaft
Küchengeräte, Heizkörperthermostate und Alarmsysteme (BT-Drucksache 19/27441, S.38).
I.Datenschutzrecht
214
nutzers32 ist gem. §25 I S.1 TTDSG nur zulässig, wenn dieser auf der Grundlage
von klaren und umfassenden Informationen eingewilligt hat. Bzgl. der Information
des Endnutzers und der Einwilligung verweist §25 I S.2 TTDSG pauschal auf die
Datenschutz- Grundverordnung. Die Ausnahmen vom Einwilligungserfordernis in
§25 II TTDSG entsprechen denen des Art.5 III S.2 ePrivacy-RL.Der Anwendungs-
bereich der Norm erfasst personenbezogene und nicht personenbezogene Daten.
Die deutsche Umsetzung steht nun mit den europarechtlichen Vorgaben im Ein-
klang.33 Die daraus resultierende Rechtssicherheit ist angesichts des jahrelang
schwelenden Streits über die Anwendbarkeit des §15 III TMG a.F. zu begrüßen.
Die streitgegenständliche Thematik bedarf aufgrund der oftmals grenzüber-
schreitenden Sachverhalte und der drohenden Rechtsfragmentierung einer europä-
ischen Lösung. §25 TTDSG stellt damit eine Übergangslösung bis zum Erlass der
ePrivacy- Verordnung dar.
Soweit §25 TTDSG einschlägig ist und dabei personenbezogene Daten ver-
arbeitet werden, werden die Regelungen der Datenschutz-Grundverordnung wegen
der Kollisionsnorm Art. 95 DSGVO verdrängt.34 Eine Einwilligung i.S.d. §25 I
S.2 TTDSG i.V.m. Art.4 Nr.11 und 7 DSGVO35 ist notwendig, solange keine der
Ausnahmen des §25 II TTDSG greift. Der Anwendungsvorrang des §25 TTDSG
erstreckt sich nur auf den Regelungsbereich der Rechtmäßigkeit der Datenver-
arbeitung (mithin vor allem auf das Vorliegen einer Rechtsgrundlage), nicht aber
etwa auf die weiterhin anwendbaren Betroffenenrechte der Datenschutz-
Grundverordnung.36 §25 TTDSG kommt nur im kurzen Moment der Speicherung
von Informationen bzw. des Zugriffs auf diese im Endgerät des Endnutzers zur
Anwendung. Die zeitlich nachfolgende Datenverarbeitung unterliegt, soweit es
sich um personenbezogene Daten handelt, den Regelungen der Datenschutz-
Grundverordnung.37
Wenn Informationen zum Zwecke der Preispersonalisierung in der Endein-
richtung eines Endnutzers gespeichert werden (bzw. wenn zu diesem Zweck auf
dort bereits gespeicherte Informationen zugegriffen wird), ist mithin stets eine Ein-
willigung notwendig, da die im zweiten Absatz der Norm formulierten Ausnahmen
nicht greifen. Abgesehen davon hat §25 TTDSG für den hiesigen Untersuchungs-
gegenstand keine Relevanz.
32 Siehe die Legaldenition in §§2 I TTDSG i.V.m. 3 Nr.13 TKG.
33 Ein zwischenzeitlich geleakter Referentenentwurf sah demgegenüber vor, das Einwilligungs-
erfordernis teilweise aufzuweichen, vgl. Schwartmann/Benedikt/Reif, MMR 2021, 99, 99f. und
Ettig, in: Taeger/Gabel (Hrsg.), DSGVO– BDSG– TTDSG, 42022, §25 Rn.10 TTDSG.
34 Ettig, in: Taeger/Gabel (Hrsg.), DSGVO– BDSG– TTDSG, 42022, §25 Rn.16 und 18 TTDSG.
35 Vgl. die Gesetzesbegründung, BT-Drucksache 19/27441, S.37f.
36 Ettig, in: Taeger/Gabel (Hrsg.), DSGVO– BDSG– TTDSG, 42022, §25 Rn.16 TTDSG.Die
konkrete Reichweite des Anwendungsvorrangs ist umstritten, vgl. Golland, NJW 2021, 2238,
2238 Rn.2 und Hanloser, ZD 2021, 399, 399f.
37 Gesetzesbegründung, BT-Drucksache 19/27441, S.38; Hanloser, ZD 2021, 399, 400.
Kapitel 10: Relevante Rechtsregime
215
e. Zwischenergebnis
Durch §25 TTDSG wurde Art.5 III ePrivacy-RL europarechtskonform in nationa-
les Recht umgesetzt und kommt über Art.95 DSGVO als bereichsspezisches
Datenschutzrecht der Datenschutz-Grundverordnung gegenüber vorrangig zur An-
wendung. Wenn die Speicherung von bzw. der Zugriff auf Informationen im End-
gerät des Endnutzers dem Ziel der Preispersonalisierung dient, ist mithin eine
Einwilligung i.S.d. §25 I S.2 TTDSG i.V.m. Art.4 Nr.11, 7 DSGVO auf der
Grundlage von klaren und umfassenden Informationen zwingend erforderlich. Eine
darüber hinausgehende Bedeutung der Regelung ist im hiesigen Kontext nicht ge-
geben. Aufgrund der bestehenden Sachnähe wird §25 TTDSG im Folgenden nicht
in einem separaten Abschnitt, sondern im Kontext der Datenschutz-Grundver-
ordnung thematisiert.
3. ePrivacy-Verordnung (Entwurf)
Im Januar 2017 hat die Europäische Kommission einen Vorschlag für eine Ver-
ordnung über Privatsphäre und elektronische Kommunikation (sog. ePrivacy-
Verordnung) veröffentlicht.38 Die ePrivacy-Verordnung wurde als Teil der Strategie
für einen digitalen Binnenmark gesehen. Sie sollte die ePrivacy-Richtlinie ersetzen,
den Schutzstandard innerhalb der Europäischen Union durch die gewählte Rechts-
form weiter vereinheitlichen und mit neuen Regelungen auf verschiedene techni-
sche Entwicklungen reagieren.
Der Vorschlag der Kommission fand keine ausreichende Unterstützung in den
Mitgliedstaaten. Im Oktober 2017 wurde ein Vorschlag des Europäischen Parla-
ments veröffentlicht.39 Im Rat der Europäischen Union wurden daraufhin zahlreiche
Änderungsvorschläge zirkuliert und diskutiert.40 Im Februar 2021 hat der Rat der
Europäischen Union schließlich einen Entwurf beschlossen, der als Grundlage
38 Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über die Achtung des
Privatlebens und den Schutz personenbezogener Daten in der elektronischen Kommunikation und
zur Aufhebung der Richtlinie 2002/58/EG (Verordnung über Privatsphäre und elektronische Kom-
munikation), COM(2017) 10 nal vom 10.1.2017.
39 Bericht über den Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates über
die Achtung des Privatlebens und den Schutz personenbezogener Daten in der elektronischen
Kommunikation und zur Aufhebung der Richtlinie 2002/58/EG (Verordnung über Privatsphäre
und elektronische Kommunikation), A8-0324/2017 vom 20.10.2017.
40 Vgl. etwa die Vorschläge der österreichischen und der nnischen Ratspräsidentschaften (abruf-
bar unter http://data.consilium.europa.eu/doc/document/ST-13256-2018-INIT/en/pdf und https://
data.consilium.europa.eu/doc/document/ST-11001-2019-INIT/en/pdf, beide zuletzt aufgerufen
am 31.3.2023).
I.Datenschutzrecht
216
eines Verhandlungsmandats für Trilog-Verhandlungen dienen sollte.41 Ob bzw.
wann diese Verhandlungen erfolgreich abgeschlossen werden können, ist zum Zeit-
punkt der Drucklegung dieser Arbeit noch nicht absehbar.
Für eine vertiefte Analyse der Relevanz dieses Gesetzesvorhabens im Kontext von
Preispersonalisierung fehlt mithin eine geeignete Arbeitsgrundlage. Immerhin lässt
sich aus den zirkulierten Entwürfen die Tendenz ablesen, die Zulässigkeit der Ver-
arbeitung endgerätebezogener Informationen von einer Einwilligung des Endnutzers
abhängig zu machen.42 Da nach hiesiger Ansicht Preispersonalisierung nur bei Vor-
liegen einer Einwilligung des Kunden i.S.d. Art.6 I S.1 lit. a DSGVO zulässig ist,43
sieht es momentan danach aus, dass der (etwaige) Erlass der ePrivacy- Verordnung
auf die hier gefundenen Ergebnisse keinen bedeutenden Einuss haben wird.
II.Verbraucherschutzrecht
Gem. Art.38 GRCh „stellt [die Politik der Union] ein hohes Verbraucherschutz-
niveau sicher.“ In ähnlicher Weise spricht Art.169 I AEUV– neben der auch dort
erwähnten „Gewährleistung eines hohen Verbraucherschutzniveaus“ – von der
„Förderung der Interessen der Verbraucher“ durch die Union. Darüber hinaus ist
das europäische Verbraucherschutzrecht historisch und rechtlich eng mit dem
Schutz des europäischen Binnenmarkts verknüpft.44 Diese Zusammenhänge werden
etwa mit Blick auf die Richtlinie über unlautere Geschäftspraktiken (sog.
UGP-Richtlinie)45 deutlich. Diese Richtlinie bezweckt, „zu einem reibungslosen
Funktionieren des Binnenmarkts und zum Erreichen eines hohen Verbraucher-
schutzniveaus beizutragen.“46 Dies zeigt, dass das Verbraucherschutzrecht, welches
dem Zweck dient, den Verbraucher als strukturell schwächer gestellten Marktteil-
nehmer zu schützen, einen grundrechtlichen Charakter hat und zugleich von wett-
bewerbspolitischen Implikationen geprägt ist.47 Preispersonalisierung könnte unter
verschiedenen verbraucherschutzrechtlichen Aspekten relevant sein.
41 Proposal for a Regulation of the European Parliament and of the Council concerning the respect
for private life and the protection of personal data in electronic communications and repealing
Directive 2002/58/EC (Regulation on Privacy and Electronic Communications)– Mandate for ne-
gotiations with EP, 6087/21 vom 10.2.2021.
42 Vgl. dazu Ettig, in: Taeger/Gabel (Hrsg.), DSGVO– BDSG– TTDSG, 42022, §25 Rn.7 TTDSG.
43 Siehe dazu unten Kap.11, I. 2.
44 Albors-Llorens, Yb. Eur. L. 33 (2014), 163, 173.
45 Richtlinie 2005/29/EG des Europäischen Parlaments und des Rates vom 11. Mai 2005 über un-
lautere Geschäftspraktiken von Unternehmen gegenüber Verbrauchern im Binnenmarkt und zur
Änderung der Richtlinie 84/450/EWG des Rates, der Richtlinien 97/7/EG, 98/27/EG und 2002/65/
EG des Europäischen Parlaments und des Rates sowie der Verordnung (EG) Nr.2006/2004 des
Europäischen Parlaments und des Rates (Richtlinie über unlautere Geschäftspraktiken) (ABl. L
149 vom 11.6.2005, S.22ff.), im Folgenden „UGP-RL“.
46 Art.1 UGP-RL.
47 Graef, Colum. J.Eur. L. 24 (2018), 541, 551.
Kapitel 10: Relevante Rechtsregime
217
1. AGB-Richtlinie
Die Richtlinie 93/13/EWG über mißbräuchliche Klauseln in Verbraucherverträgen
(sog. AGB-Richtlinie)48 wurde in Deutschland in den Regelungen zur AGB-
Kontrolle in den §§305 ff. BGB umgesetzt. Von der Missbrauchskontrolle von
vornherein ausgenommen sind gem. Art.4 II AGB-RL allerdings u.a. die „Ange-
messenheit zwischen dem Preis bzw. dem Entgelt und den Dienstleistungen bzw. den
Gütern, die die Gegenleistung darstellen, sofern diese Klauseln klar und verständ-
lich abgefaßt sind.“ Die Mitgliedstaaten können, wie sich aus Art. 8 AGB-RL er-
gibt, strengere Bestimmungen zum Schutz der Verbraucher erlassen (Mindest-
harmonisierung). Deutschland hat von dieser Möglichkeit keinen Gebrauch
gemacht. Eine Kontrolle der Höhe des Preises ist damit, wie sich auch aus der na-
tionalen Umsetzung in §307 III S.1 BGB ergibt,49 grundsätzlich ausgeschlossen.50
Dies ist angesichts des aus der Vertragsfreiheit abgeleiteten Grundsatzes der Preis-
gestaltungsfreiheit konsequent: Bei der betriebswirtschaftlichen Kalkulation des
Preises und der Entscheidung für eine bestimmte Preishöhe ist der Anbieter grund-
sätzlich frei.51 Eine Kontrolle preisbezogener Klauseln ist nur über das Transparenz-
gebot des §307 I S.2 BGB möglich. Dieses kommt gem. §307 III S.2 BGB auch
bei ansonsten kontrollfreien Klauseln zur Anwendung. Demnach kann eine unan-
gemessene Benachteiligung des Kunden auch darin begründet liegen, dass Be-
stimmungen in AGB aus Sicht eines durchschnittlichen Vertragspartners nicht klar
und verständlich formuliert sind.52 Die bloße Intransparenz einer Klausel genügt
aber noch nicht. Nur wenn die Intransparenz dazu führt, dass der Kunde inhaltlich
benachteiligt wird, liegt eine gem. §307 I S.1 BGB unwirksame Klausel vor.53
Der Anwendungsbereich des § 307 BGB dürfte im Kontext von Preis-
personalisierung eng sein. Sofern in den AGB eine datenschutzrechtliche Ein-
willigung in eine Datenverarbeitung zwecks Preispersonalisierung verlangt wird,
geht es der Sache nach um eine Preishöhenbestimmung, sodass wegen §307 III S.1
BGB eine Angemessenheitsprüfung per se nicht stattndet. Sollte ein Einwilligungs-
verlangen intransparent formuliert sein, kommt es auf das Transparenzgebot des
§307 III S.2 i.V.m. I S.2 BGB nicht an, da die Datenschutz-Grundverordnung
ohnehin hohe Anforderungen an die Transparenz der Einwilligungserklärung stellt.54
48 Richtlinie 93/13/EWG des Rates vom 5. April 1993 über mißbräuchliche Klauseln in Ver-
braucherverträgen (ABl. L 95 vom 21.4.1993, S.29ff.), im Folgenden „AGB-RL“.
49 Die Umsetzung in Form des §307 III S.1 BGB gilt aufgrund des divergierenden Wortlauts der
Normen als eher missglückt, eine richtlinienkonforme Auslegung wird aber– zu Recht – ganz
überwiegend als möglich angesehen. Vgl. dazu Wurmnest, in: Münchener Kommentar zum
Bürgerlichen Gesetzbuch (Hrsg.), Band 2: Schuldrecht Allgemeiner Teil I, 92022, §307 Rn.3f.
m.w.N.
50 Vgl. dazu auch Graef, Colum. J.Eur. L. 24 (2018), 541, 551.
51 Vgl. dazu auch Hofmann, WRP 62 (2016), 1074, 1077 und Obergfell, ZLR 2017, 290, 295f.
52 BGH, NJW 1999, 2279, 2280. Vgl. auch Wurmnest, in: Münchener Kommentar zum Bürger-
lichen Gesetzbuch (Hrsg.), Band 2: Schuldrecht Allgemeiner Teil I, 92022, §307 Rn.58ff.
53 BGH, NJW 2016, 2670, 2672 Rn.30.
54 Vgl. Art.4 Nr.11 DSGVO: „in informierter Weise“.
II.Verbraucherschutzrecht
218
Eine Einwilligungserklärung, die diesen Anforderungen nicht genügt, ist auch ohne
eine darüber hinausgehende inhaltliche Benachteiligung des Kunden unwirksam.
Dennoch sind Einzelfälle denkbar, in denen die in §307 III S.2 i.V.m. I S.2
BGB vorgesehene Transparenzkontrolle eine Rolle spielt. Sie könnte etwa zur An-
wendung kommen, wenn Anbieter versuchen, mithilfe intransparenter Klauseln
Verschleierungspraktiken zu legitimieren, die den Kunden unangemessen be-
nachteiligen.
2. Gesetz gegen den unlauteren Wettbewerb
Im Kontext des Gesetzes gegen den unlauteren Wettbewerb,55 welches u.a. der Um-
setzung der UGP-Richtlinie dient, werden personalisierte Preise unter verschiedenen
Gesichtspunkten diskutiert. Im April 2018 hat die Europäische Kommission die
sog. New Deal for Consumers-Initiative vorgeschlagen, mit der eine „Neugestaltung
der Rahmenbedingungen für die Verbraucher“ vorgesehen war.56 Diese führte
schließlich zu einer neuen Richtlinie „zur besseren Durchsetzung und Modernisie-
rung der Verbraucherschutzvorschriften der Union“, welche Ende 2019 erlassen
wurde und u.a. die UGP-Richtlinie, die AGB-Richtlinie und die Verbraucherrechte-
Richtlinie57 abgeändert hat.58 Das UWG wurde dementsprechend mit Wirkung zum
28.5.2022 geändert. Im Kontext von Preispersonalisierung hatten diese Änderungen
keine materiell-rechtlichen Auswirkungen.59
55 Im Folgenden „UWG“.
56 Die Initiative beinhaltete die Mitteilung COM(2018) 183 nal vom 11.4.2018 sowie zwei Richt-
linienvorschläge bezüglich Verbandsklagen (COM(2018) 184 nal vom 11.4.2018) und bezüglich
der besseren Durchsetzung und Modernisierung der EU-Verbraucherschutzvorschriften
(COM(2018) 185 nal vom 11.4.2018).
57 Richtlinie 2011/83/EU des Europäischen Parlaments und des Rates vom 25. Oktober 2011 über
die Rechte der Verbraucher, zur Abänderung der Richtlinie 93/13/EWG des Rates und der Richt-
linie 1999/44/EG des Europäischen Parlaments und des Rates sowie zur Aufhebung der Richtlinie
85/577/EWG des Rates und der Richtlinie 97/7/EG des Europäischen Parlaments und des Rates
(ABl. L 304 vom 22.11.2011, S.64ff.), im Folgenden „Verbraucherrechte-RL“.
58 Richtlinie (EU) 2019/2161 des Europäischen Parlaments und des Rates vom 27. November 2019
zur Änderung der Richtlinie 93/13/EWG des Rates und der Richtlinien 98/6/EG, 2005/29/EG und
2011/83/EU des Europäischen Parlaments und des Rates zur besseren Durchsetzung und Moder-
nisierung der Verbraucherschutzvorschriften der Union (ABl. L 328 vom 18.12.2019, S.7ff.), im
Folgenden „Modernisierungsrichtlinie“.
59 Im Folgenden bezeichnet „UWG“ das Gesetz gegen den unlauteren Wettbewerb (UWG) in der
Fassung der Bekanntmachung vom 3.3.2010, BGBl. 2010 I, S.254, zuletzt geändert durch Art.1
Gesetz zur Stärkung des Verbraucherschutzes im Wettbewerbs- und Gewerberecht vom 10.8.2021
(BGBl. 2021 I, S.3504). Letzteres setzt Teile der Modernisierungsrichtlinie in nationales Recht
um. Die im Folgenden zitierte Literatur bezieht sich teilweise noch auf ältere Fassungen des
UWGs (etwa die Kommentierung von Harte-Bavendamm und Henning-Bodewig). Dies spielt hier
aber keine Rolle, da es sich dabei (zumindest mit Blick auf die hier diskutierten Fragestellungen)
nur um redaktionelle, nicht aber materiell-rechtlich relevante Gesetzesänderungen handelt.
Kapitel 10: Relevante Rechtsregime
219
Auf Stufe 1 und 2 des hiesigen Modells spielen lauterkeitsrechtliche Erwägungen
keine Rolle. Mit Blick auf die dritte Stufe gilt, dass auch das Lauterkeitsrecht keine
Kontrolle der Preishöhe anordnet oder erlaubt. Es gilt der Grundsatz der Preis-
gestaltungsfreiheit.60 Sonderpreise gegenüber Einzelnen sind– abgesehen von kar-
tellrechtlich relevanten Fällen– auch ohne sachlichen Grund oder eine anderweitige
Rechtfertigung zulässig.61 Dementsprechend gibt es auch kein lauterkeitsrechtliches
Gebot, von allen Kunden stets den gleichen Preis zu verlangen.62
Relevanz erfährt das Gesetz gegen den unlauteren Wettbewerb allerdings im
Kontext der Preiskommunikation (Stufe3). So wird etwa diskutiert, ob personali-
sierte Preise als per se unzulässige Täuschung über Markt- bzw. Anbieter-
bedingungen gem. Anhang Nr.18 zu §3 III UWG eingeordnet werden können.63
Heftig diskutiert– und verbraucherpolitisch gefordert64– wird zudem auch, ob aus
dem UWG eine Picht für Anbieter abgeleitet werden kann, Kunden über den Ein-
satz von Preispersonalisierungsmethoden aktiv aufzuklären.65 Teil dieser Diskussion
ist auch die Frage, ob Anbieter lauterkeitsrechtlich verpichtet sind, aus Trans-
parenzgründen ggf. Durchschnitts- oder andere Referenzpreise anzuzeigen. Art.4
Nr.4 lit. a (ii) Modernisierungsrichtlinie hat schließlich auf europarechtlicher Ebene
eine verbraucherschutzrechtliche Picht eingeführt, Kunden darüber zu informie-
ren, wenn von ihnen personalisierte Preise verlangt werden. Diese Informations-
picht wurde in Art.246a §1 I S.1 Nr.6 EGBGB aufgenommen und kommt seit
dem 28.5.2022 über §§312d I S.1, 312j II BGB zur Anwendung.66
60 Bornkamm/Feddersen, in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlauteren
Wettbewerb, 412023, §5 Rn.3.34 UWG. Vgl. dazu auch BGH, GRUR 2003, 626, 627f.: „Der
Gewerbetreibende ist in seiner Preisgestaltung grundsätzlich frei. Er kann seine allgemein an-
gekündigten Preise zu jedem ihm sinnvoll erscheinenden Zeitpunkt nach Belieben erhöhen oder
senken, sofern nicht Preisvorschriften entgegenstehen oder unlautere Begleitumstände, wie bei-
spielsweise das systematische Herauf- und Heruntersetzen von Preisen zur Verschleierung von
‚Mondpreisen‘ (Preisschaukelei), gegeben sind (…).“
61 Dies., in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlauteren Wettbewerb,
412023, §5 Rn.3.44 UWG.
62 Hofmann, WRP 62 (2016), 1074, 1080; Obergfell, ZLR 2017, 290, 296. Siehe auch bereits BGH,
GRUR 1958, 487, 489 (Antibiotica): „Bei der Beantwortung der Frage, ob die unterschiedliche
Preisgestaltung eines Unternehmens gegenüber Abnehmern der gleichen Abnehmergruppe einen
Wettbewerbsverstoß darstellt, ist zunächst davon auszugehen, daß es – soweit nicht Sonder-
bestimmungen entgegenstehen– einem Unternehmen im Rahmen einer marktwirtschaftlich orien-
tierten Wirtschaftsordnung grundsätzlich freisteht, seine Preisgestaltung in eigener Verantwortung
vorzunehmen. Es ist ihm daher auch unbenommen, von seinen von ihm üblicherweise geforderten
Preisen bestimmten Kunden gegenüber abzugehen und einzelnen Kunden Sonderpreise zu ge-
währen. Für den Einzelhandel bestehen insoweit allerdings Einschränkungen auf Grund des
Rabattgesetzes.“ Das in Bezug genommene Rabattgesetz wurde mit Wirkung zum 25.7.2001 auf-
gehoben (Gesetz zur Aufhebung des Rabattgesetzes und zur Anpassung anderer Rechtsvorschriften
vom 23.7.2001, BGBl. 2001 I, S.1663).
63 Obergfell, ZLR 2017, 290, 296f.
64 Zander-Hayat/Reisch/Steffen, VuR 2016, 403, 407f.
65 Hofmann, WRP 62 (2016), 1074, 1080; Obergfell, ZLR 2017, 290, 298ff.
66 Siehe dazu unten Kap.11, III. 2. c. bb.
II.Verbraucherschutzrecht
220
3. Preisangabenverordnung
Die Preisangabenverordnung67 stellt formelles Preisrecht dar und regelt somit nicht
die Preishöhe oder die anbieterseitige Bestimmung des Preises, sondern die Art und
Weise, wie Preise im Geschäftsverkehr kommuniziert werden.68 Demzufolge ist
auch die Preisangabenverordnung potenziell (nur) auf der dritten Stufe des Modells
relevant. Verstöße gegen die in ihr enthaltenen Vorschriften haben auf materiell-
rechtlicher Ebene keine Auswirkungen und führen nicht zur (teilweisen) Unwirk-
samkeit von Verträgen.69 Die hier diskutierten Konstellationen – Online-
Preispersonalisierung von Anbietern gegenüber Kunden – fallen grundsätzlich in
den Anwendungsbereich der Preisangabenverordnung, vgl. §§ 1 I i. V. m. 3 I
PAngVO.Das Regelwerk „dient dem Zweck, durch eine sachlich zutreffende und
vollständige Verbraucherinformation Preiswahrheit und -klarheit zu gewährleisten,
durch optimale Preisvergleichsmöglichkeiten die Stellung der Verbraucher gegen-
über Handel und Gewerbe zu stärken und den Wettbewerb zu fördern (…).“70 Damit
werden sowohl der Verbraucher als auch der Wettbewerb als solches geschützt.71
§1 III S.2 PAngVO verlangt, dass Preisangaben der allgemeinen Verkehrsauf-
fassung sowie den Grundsätzen von Preisklarheit und Preiswahrheit entsprechen
müssen.72 Im Kontext personalisierter Preise werden diese Grundsätze vor allem vor
dem Hintergrund etwaiger Informationspichten diskutiert.73 Im Folgenden werden
sie aufgrund der bestehenden Sachnähe zusammen mit den Regelungen des Geset-
zes gegen den unlauteren Wettbewerb diskutiert.
67 Im Folgenden bezeichnet „PAngVO“ die novellierte Preisangabenverordnung vom 12.11.2021,
welche seit dem 28.5.2022 anwendbar ist und u.a. der Umsetzung der Modernisierungsrichtlinie
dient (Art.1 und 3 Verordnung zur Novellierung der Preisangabenverordnung vom 12.11.2021,
BGBl. 2021 I, S.4921). Im Rahmen dieser Novelle wurde die PAngVO grundlegend neu struktu-
riert (vgl. dazu den Überblick von Sosnitza, GRUR 2022, 794ff.). Die im Folgenden zitierte Lite-
ratur bezieht sich teilweise noch auf ältere Fassungen der PAngVO. Dies spielt hier aber keine
Rolle, da mit der Novelle (mit Blick auf die hier diskutierten Fragestellungen) nur redaktionelle,
nicht aber materiell-rechtlich relevante Änderungen einhergingen.
68 Köhler, in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlauteren Wettbewerb,
412023, Vor. Rn.1 PAngVO.
69 Vgl. BGH, GRUR 1974, 416, 417.
70 BGH, GRUR 2013, 850, 851 Rn.13.
71 Köhler, in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlauteren Wettbewerb,
412023, Vor. Rn.2 PAngVO.
72 Im Kontext von Preisen ergeben sich gewisse Informationspichten zudem vor allem aus §6 I,
II PAngVO sowie aus §§312d I S. 1, 312j II BGB i. V.m. Art. 246a § 1 I S. 1 Nr.5 und 7
EGBGB.Diese beziehen sich aber bloß auf die Angabe des Gesamtpreises (inklusive Steuern und
Abgaben) sowie der ggf. zusätzlich anfallenden Fracht-, Liefer- oder Versandkosten bzw. sonsti-
gen Kosten. Diese Informationspichten spielen mithin im Kontext personalisierter Preise keine
besondere Rolle.
73 Obergfell, ZLR 2017, 290, 299f.
Kapitel 10: Relevante Rechtsregime
221
III.Antidiskriminierungsrecht
Der verfassungsrechtliche Rahmen des Antidiskriminierungsrechts der Europä-
ischen Union wird auf Ebene des primären Unionsrechts vor allem durch Art.10,
18, 19, 157 AEUV und Art.2, 3 III UA 2, 6, 9 S.1 EUV gezogen.74 Art.6 I EUV
erkennt die Europäische Grundrechte-Charta und ihre rechtliche Gleichrangigkeit
mit den europäischen Verträgen an. Gem.Art.51 I S.1 GRCh sind damit alle Stel-
len der Union sowie die Mitgliedstaaten bei der Durchführung des Unionsrechts
den in Art.20, 21 und 23 GRCh enthaltenen Gleichheitsrechten verpichtet. Art.6
III EUV nimmt Bezug auf die in der europäischen Menschenrechtskonvention ent-
haltenen Grundrechte sowie auf die gemeinsamen Verfassungsüberlieferungen der
Mitgliedstaaten und erkennt diese als allgemeine Grundsätze des Unionsrechts an.
Im nationalen Verfassungsrecht ist vor allem Art.3 GG relevant.
Das Antidiskriminierungsrecht auf Ebene des sekundären Gemeinschaftsrechts
wird vor allem durch die sog. Antidiskriminierungsrichtlinien geprägt, die für be-
stimmte Lebensbereiche Gleichstellungsgebote zugunsten verschiedener ge-
schützter Gruppen etablieren.75 Ihre Umsetzung auf nationaler Ebene ist gebündelt
durch das Allgemeine Gleichbehandlungsgesetz76 erfolgt. Sein Ziel ist es, „Be-
nachteiligungen aus Gründen der Rasse oder wegen der ethnischen Herkunft, des
Geschlechts, der Religion oder Weltanschauung, einer Behinderung, des Alters oder
der sexuellen Identität zu verhindern oder zu beseitigen.“77 Das Allgemeine Gleich-
behandlungsgesetz regelt primär arbeitsrechtliche Sachverhalte. Sein 3. Abschnitt
dient aber– teilweise weit über die europarechtlichen Vorgaben hinausgehend78
auch dem Schutz vor Benachteiligung im allgemeinen Zivilrechtsverkehr. § 19 I
AGG postuliert ein dahingehendes Handlungsverbot.
74 Zur Entwicklung des Antidiskriminierungsrechts der Europäischen Union siehe Agentur der
Europäischen Union für Grundrechte/Europarat, Handbuch zum europäischen Antidis-
kriminierungsrecht (Ausgabe 2018), 2018, S.21ff.
75 Dabei handelt es sich um die Antirassismus-RL; Richtlinie 2000/78/EG des Rates vom 27. No-
vember 2000 zur Festlegung eines allgemeinen Rahmens für die Verwirklichung der Gleich-
behandlung in Beschäftigung und Beruf (ABl. L 303 vom 2.12.2000, S.16ff.); die Unisex-RL und
Richtlinie 2006/54/EG des Europäischen Parlaments und des Rates vom 5. Juli 2006 zur Ver-
wirklichung des Grundsatzes der Chancengleichheit und Gleichbehandlung von Männern und
Frauen in Arbeits- und Beschäftigungsfragen (Neufassung) (ABl. L 204 vom 26.7.2006, S.23ff.).
76 Im Folgenden „AGG“.
77 §1 AGG.
78 Siehe dazu Thüsing, in: Münchener Kommentar zum Bürgerlichen Gesetzbuch (Hrsg.), Band
1:Allgemeiner Teil, 92021, Einl. AGG Rn.3.
III.Antidiskriminierungsrecht
222
IV.Zwischenergebnis
Die Untersuchung, ob das geltende materielle Recht im Kontext von Preis-
personalisierung ausreichenden Schutz vor Diskriminierung geschützter Gruppen
gewährt, fokussiert sich im Folgenden auf die Datenschutz-Grundverordnung, das
Gesetz gegen den unlauteren Wettbewerb, die Preisangabenverordnung und das All-
gemeine Gleichbehandlungsgesetz. Die Analyse orientiert sich am hier vertretenen
3- stugen Modell.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 Inter-
national Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die
Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und
Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nen-
nen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vor-
genommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der
genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes er-
gibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht
und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben
aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers
einzuholen.
Kapitel 10: Relevante Rechtsregime
223
Kapitel 11: Rechtliche Analyse anhand des
3-stugen Modells
I.Erste Stufe: Datenbeschaffung
1. Datenschutzrecht
Im Kontext der Datenschutz-Grundverordnung stellt sich zunächst die Frage, in welchen
Konstellationen Preispersonalisierung mit der Verarbeitung personenbezogener Daten
i.S.d. Art.4 Nr.1 DSGVO einhergeht. Nur dann ist sie anwendbar, Art.2 I DSGVO.So-
fern personenbezogene Daten verarbeitet werden, muss gem. Art.6 I bzw. 9 II DSGVO
eine geeignete Rechtsgrundlage vorliegen. Zudem steht zu untersuchen, welche daten-
schutzrechtlichen Transparenzpichten der Anbieter zu befolgen hat und wie weitrei-
chend diese im Fall des Personalised Pricings sind. In Frage kommen Informations-
pichten (Art.13 und 14 DSGVO) sowie das Auskunftsrecht des Art.15 DSGVO.
a. Personenbezug
aa. Vorüberlegungen
Art.4 Nr.1 DSGVO deniert, welche Arten von Informationen personenbezogene
Daten darstellen. Ausgangspunkt bei der rechtlichen Bestimmung des Personenbe-
zugs ist die Prüfung, ob es möglich ist, zwischen der dem datenschutzrechtlich
Verantwortlichen (hier: dem Anbieter) im Einzelfall vorliegenden Information und
der natürlichen Person (hier: dem Kunden) eine Verbindung herzustellen.1 Die
1 Karg, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019, Art.4 Nr.1
Rn.46. Klar/Kühling, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.4 Nr.1 Rn.11 DSGVO stellen in diesem Kontext auf die Formulierung
„auf eine natürliche Person beziehen“ ab und betrachten den damit zum Ausdruck gebrachten
Konnex zwischen Information und Person als eigenständiges Tatbestandsmerkmal.
© Der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9_11
224
Datenschutz- Grundverordnung stellt damit die Frage, ob im konkreten Fall auf die
Identität des Betroffenen geschlossen werden kann, in den Mittelpunkt der Prüfung.
Zwei Fallkonstellationen erfüllen die Legaldenition des Art.4 Nr.1 DSGVO glei-
chermaßen: Ein personenbezogenes Datum liegt demnach vor, wenn die Identizie-
rung des Betroffenen direkt aus der vorliegenden Information möglich ist (vgl. den
Wortlaut „identizierte (…) natürliche Person“).2 Alternativ reicht es aus, wenn es
möglich ist, den Kunden über die Hinzuziehung zusätzlicher Informationen bzw.
mithilfe anderweitiger Zwischenschritte zu identizieren („identizierbare natürli-
che Person“).3 Dies bedeutet, dass ein personenbezogenes Datum auch dann vorlie-
gen kann, wenn die in Frage stehende Information „für sich genommen die Identi-
zierung der betreffenden Person [nicht] ermöglicht.“4
Viele der in der Praxis vorkommenden oder zumindest denkbaren Fälle von Da-
tenverarbeitung, welche der Personalisierung von Preisen dienen, stellen ohne Wei-
teres eine Verarbeitung personenbezogener Daten i.S.d. Art.4 Nr.1 und 2 DSGVO
dar. Leicht zu bejahen ist der Personenbezug etwa dann, wenn ein Kunde auf der
Seite eines Anbieters ein Kundenkonto erstellt hat und der Anbieter diesem (konkret
auf den Kunden bezogenen) Prol Informationen über den Kunden hinzufügt, um
darauf aufbauend seine allgemeine Preissensitivität oder seinen Reservationspreis
im Einzelfall zu bestimmen.5 In einem vergleichbaren Kontext hat diesen Ansatz
auch die französische Datenschutzbehörde CNIL in ihrem Verfahren gegen Google
gewählt.6 Google wurde vorgeworfen, unter Verstoß gegen Transparenzpichten
und ohne wirksame Rechtsgrundlage massenhaft Informationen über seine Nutzer
zu sammeln und diese mit ihrem Google-Acount zu verknüpfen. Der Personenbe-
zug dieser Daten wurde weder von der CNIL noch von Google selber in Frage ge-
stellt. Stattdessen bezog der Streit sich auf die Frage, ob die Voraussetzungen für
eine wirksame Einwilligung i.S.d. Art.6 I S.1 lit. a DSGVO vorlagen.7 Der Perso-
2 Klar/Kühling, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.4 Nr.1 Rn.18 DSGVO.Der EuGH, C-291/12, ECLI:EU:C:2013:670, Rn.27
(Schwarz), spricht dementsprechend auch von „objektiv unverwechselbare[n] Informationen über
natürliche Personen[, die] deren genaue Identizierung ermöglichen (…).“ Im Fall Breyer stellte
der EuGH, C-582/14, ECLI:EU:C:2016:779, Rn.38 fest, dass ein Bezug zu einer bestimmten na-
türlichen Person bei einer Information vorliegt, aus der sich „unmittelbar (…) die Identität der
natürlichen Person ergibt“. Beide Urteile beziehen sich noch auf die Datenschutz-Richtlinie, wel-
che nicht den Ausdruck „identiziert/identizierbar“, sondern „bestimmt/bestimmbar“ verwendet
hat, Art.2 lit. a DSRL.Diese begrifiche Änderung hat allerdings keine materiell-rechtlichen Aus-
wirkungen. Dies zeigt sich schon daran, dass in der englischsprachigen Fassung der Datenschutz-
Grundverordnung keine Änderungen vorgenommen wurden. Früher wie heute kam der Ausdruck
„identied/identiable“ zur Anwendung (vgl. Karg, in: Simitis/Hornung/Spiecker gen. Döhmann
(Hrsg.), Datenschutzrecht, 2019, Art.4 Nr.1 Rn.13). Die Ausführungen des EuGH können damit
weiterhin zur Auslegung herangezogen werden.
3 Karg, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019, Art.4 Nr.1
Rn.46 DSGVO.
4 EuGH, C-582/14, ECLI:EU:C:2016:779, Rn.41 (Breyer).
5 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 357.
6 Siehe zu diesem Fall ausführlich oben Kap.2, I 1. d.
7 Vgl. Beschluss CNIL, S. 19 Rn.129ff.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
225
nenbezug wurde damit von beiden Seiten implizit vorausgesetzt. Für den Personen-
bezug spielt es keine Rolle, ob der Kunde die Informationen selbst hinzugefügt hat
(etwa durch manuelle Eingabe von Post- und E-Mail-Adresse, Geburtsdatum und
Zahlungsinformationen bei Erstellung des Prols) oder ob der Anbieter die Infor-
mationen sammelt, dem Prol hinzufügt und dieses im Laufe der Zeit schrittweise
erweitert. Speichert er etwa Informationen über das seitenbezogene Nutzungs-
verhalten des Kunden, werden auf diese Weise personenbezogene Daten generiert.8
Der Personenbezug ist in diesen Fällen spätestens in dem Moment gegeben, in
dem der Anbieter die Verknüpfung zwischen der Information und dem konkreten
Prol tätigt: Zumindest von diesem Moment an besteht eine Verbindung zwischen
der natürlichen Person (dem Kunden) und der Information (demograsche Daten,
Kauf- bzw. Surfverhalten auf der Anbieter-Seite, berechnete Prognosen über sein
zukünftiges Verhalten bzw. seine Vorlieben und Interessen etc.). Ein personenbezo-
genes Datum i.S.v. Art.4 Nr.1 DSGVO liegt mithin vor und die Datenschutz-
Grundverordnung ist anwendbar. Dies gilt auch dann, wenn beispielsweise der im
Kundenprol hinterlegte Wohnort oder das Alter des Kunden (mit) herangezogen
werden, um Preise zu personalisieren.
bb. Rechtliche Qualikation technischer kundenbezogener Daten
Mit Blick auf die nachgewiesenen Fälle von Preispersonalisierung hat sich heraus-
kristallisiert, dass dem Kunden personalisierte Preise oft bereits in dem Moment
angezeigt werden, in dem er die Seite des Anbieters ansteuert. Dieses Vorgehen
konnte etwa vereinzelt im Falle der Weiterleitung von Preisvergleichsportalen oder,
in seltenen Fällen, auch bei Verwendung bestimmter Endgeräte registriert werden.
Die Anbieter haben in diesen Fallkonstellationen– welche beide nach hiesigem Ver-
ständnis als unmittelbare Preispersonalisierung zu denieren sind– vor allem auf
technische Daten abgestellt, welche ihnen vom Endgerät des Kunden übermittelt
wurden. Im Falle unmittelbarer Preispersonalisierung ist dies logisch: Der Preis
muss möglichst sofort bei Beginn des Besuchs auf der Anbieter-Seite angepasst
werden, da es auf den Kunden befremdlich und verwirrend wirkt, wenn während
des Webseitenbesuchs der Preis ohne ersichtlichen Grund steigt oder fällt. Mittel-
bare Preispersonalisierung, vor allem in Form von Gutscheinen oder anderweitig
bezeichneten individuellen Rabatten, kann hingegen durchaus zu einem späteren
Zeitpunkt erfolgen. Wenn der Anbieter– genauer gesagt: seine Pricing-Software
oder die eines eingeschalteten Dienstleisters– etwa bei einem zögernden Kunden
oder bei einem solchen, der zuvor auf den Seiten anderer Anbieter gesurft hat, eine
erhöhte Preissensitivität vermutet, kann er ihn per Pop-up bzw. über E-Mail oder
andere Kommunikationswege mit einem Gutschein zum Kauf bewegen.
Mit dem Blick auf die vorangegangenen Ausführungen zeigt sich, dass techni-
sche, vom Endgerät bzw. Browser an den Anbieter übermittelte kundenbezogene
8 Vgl. Karg, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019, Art.4
Nr.1 Rn.35.
I.Erste Stufe: Datenbeschaffung
226
Daten eine bedeutende Rolle im Kontext von Personalised Pricing spielen können.
Der Begriff technische kundenbezogene Daten wird hier weit verstanden: Er um-
fasst technische Gerätekennungen jeder Art (beispielsweise Smartphone-IDs und
MAC-Adressen), Cookies, IP-Adressen, Referrer Header usw. Dies richtet den Fo-
kus der Untersuchung auf die Frage, ob bzw. unter welchen Umständen diese Daten
sich auf eine identizierbare natürliche Person i.S.d. Art.4 Nr.1 Alt.2 DSGVO
beziehen und mithin als personenbezogen einzuordnen sind. Dieser Aspekt ist so-
wohl auf der ersten als auch auf der dritten Stufe des 3-stugen Modells relevant:
Auf Stufe 1 geht es zunächst um die (rechtliche) Frage, ob überhaupt personenbe-
zogene Daten vorliegen und die Datenschutz-Grundverordnung anwendbar ist. Auf
Stufe 3 stellt sich im Kontext der Preiskommunikation– in Fortsetzung dieser The-
matik– die (tatsächliche) Frage, ob eine zuverlässige Identikation des einzelnen
Kunden (und mithin die Zuweisung des „richtigen“ Preises) überhaupt möglich ist.
In der Praxis konnten einige Fälle von Preispersonalisierung nachgewiesen wer-
den, welche sich zu diesem Zweck kundenbezogener technischer Daten bedienten.
Naturgemäß handelt es sich dabei um Einzelbeispiele, welche aber den Einstieg
in die Prüfung erleichtern. Generell gilt, dass die datenschutzrechtliche Bewertung
von Preispersonalisierung angesichts der möglichen bzw. erwartbaren zukünftigen
technischen Entwicklungen möglichst technologieneutrale Lösungsansätze nden
muss.9 In manchen der genannten Fälle wurden diese Daten von den Endgeräten des
Kunden an die Anbieter übermittelt. Diese stellten dabei auf Faktoren ganz ver-
schiedener Art und auf verschiedene Methoden der Preissetzung ab: Staples be-
diente sich der IP-Adresse des Kunden, um den Preis in Abhängigkeit von seinem
Aufenthaltsort zu bestimmen. Amazon.com machte die Preise von zuvor gesetzten
Cookies abhängig, welche Bestandskunden markieren sollten. Manche Anbieter la-
sen die sog. Referrer Header aus, um etwa denjenigen Kunden, die von einem Preis-
vergleichsportal weitergeleitet worden waren, (in der Regel) günstigere Preise an-
zuzeigen. Teilweise spielte auch das vom Kunden verwendete Endgerät eine Rolle.
In der Praxis bisher nicht als Vehikel für Preispersonalisierung nachgewiesen wurde
das sog. Device bzw. Browser Fingerprinting.10 Diese Vorgehensweise soll hier
dennoch auch Beachtung nden, da auch sie potenziell durchaus dafür in Betracht
käme. Die Besonderheit dabei ist, dass der Anbieter beim passiven11 Fingerprinting
nicht zwingend Dateien bzw. Software auf dem Rechner des Kunden speichern
muss (vor allem werden keine Cookies gesetzt). Zugleich kann aber anhand der
übermittelten technischen Informationen eine durchaus hohe Identizierbarkeit des
Endgeräts erreicht werden. Das aktive Fingerprinting basiert auf den gleichen
Grundprinzipien. Im Gegensatz zur passiven Variante wird hier allerdings auf dem
Endgerät des Kunden Programmcode ausgeführt.12 Diese Tracking-Methode be-
schränkt sich also nicht auf ein schlichtes „Beobachten“ des Endgeräts des Kunden,
sondern erfordert eine aktive Einussnahme auf dieses.
9 In diesem Sinne auch Erwägungsgrund 15 DSGVO.
10 Siehe dazu bereits oben Kap.7, III. 3. a. aa.
11 Zur Abgrenzung von passivem und aktivem Fingerprinting siehe Karg/Kühn, ZD 2014, 285, 286f.
12 Dies., ZD 2014, 285, 286f.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
227
Allen diesen Datenarten wohnen einige Gemeinsamkeiten, aber auch gewisse
Unterschiede inne. Generell gilt, dass es sich bei den kundenbezogenen technischen
Daten um solche handelt, welche vom Endgerät des Kunden an den Anbieter gesen-
det werden oder vom Anbieter ausgelesen werden können. Ihre Übermittlung ist
technisch notwendig (etwa im Fall der IP-Adresse, ohne die die anbieterseitige Be-
antwortung der Anfrage des Kunden, der die Seite aufrufen und auf ihr surfen
möchte, nicht möglich wäre) oder zumindest der praktische Regelfall. Der Kunde
müsste aktive Maßnahmen tätigen, um den Datenuss zu stoppen oder um ihn in-
haltlich zu beeinussen, etwa durch Nutzung eines (die wahre IP-Adresse verschlei-
ernden) VPN-Clients. In manchen, nicht aber allen Fällen gestaltet sich die Sach-
lage so, dass der Anbieter (bzw. ein von ihm genutzter Dienstleister, wie etwa das
Werbenetzwerk DoubleClick von Google) selber aktiv tätig wird, um einen Daten-
uss vom Kunden an den Anbieter zu etablieren. Typische Fälle dafür sind etwa das
Setzen von Cookies beim Kunden und der Einsatz von Zählpixeln oder Software.
Hier wird der Anbieter also zu einem bestimmten Zeitpunkt aktiv tätig, um zu einem
nachgelagerten Zeitpunkt Informationen über den Kunden zu erhalten.
Bei der datenschutzrechtlichen Qualikation dieser Daten stellt sich die Frage,
ob, und wenn ja, ab welchem Moment und unter welchen Voraussetzungen eine
Identizierbarkeit des Kunden i.S.d. Art.4 Nr.1 Alt.2 DSGVO zu bejahen ist. Den
wichtigsten Anhaltspunkt bietet der Wortlaut der Norm: „(…) als identizierbar wird
eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zu-
ordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortda-
ten, zu einer Online-Kennung (…) identiziert werden kann“. Für die Auslegung
hinzuzuziehen ist auch Erwägungsgrund 26 DSGVO, wonach bei der Feststellung
der Identizierbarkeit „alle Mittel berücksichtigt werden [sollten], die von dem Ver-
antwortlichen oder einer anderen Person nach allgemeinem Ermessen wahrschein-
lich genutzt werden, um die natürliche Person direkt oder indirekt zu identizieren,
wie beispielsweise das Aussondern. Bei der Feststellung, ob Mittel nach allgemei-
nem Ermessen wahrscheinlich zur Identizierung der natürlichen Person genutzt
werden, sollten alle objektiven Faktoren, wie die Kosten der Identizierung und der
dafür erforderliche Zeitaufwand, herangezogen werden, wobei die zum Zeitpunkt
der Verarbeitung verfügbare Technologie und technologische Entwicklungen zu be-
rücksichtigen sind.“
Vor allem die von der Datenschutz-Grundverordnung gemachten Ausführungen
zur indirekten Identizierbarkeit machen deutlich, dass es bei der Bestimmung der
Identizierbarkeit des Einzelnen nicht zwingend auf seine bürgerliche Identität–
etwa seinen bürgerlichen Namen– ankommt. Stattdessen wird auf die Individuali-
sierbarkeit des Einzelnen abgestellt.13 Es reicht aus, wenn der Anbieter den einzelnen
Kunden von anderen Personen unterscheiden und gezielt adressieren kann.14 Dem-
entsprechend spricht Erwägungsgrund 26 DSGVO in diesem Kontext auch vom
„Aussondern“ des Betroffenen. Es muss allerdings grundsätzlich möglich sein,
zwischen dem Kunden und der (im Kontext von Preispersonalisierung technischen
13 Vgl. dies., ZD 2014, 285, 287f.
14 Dies., ZD 2014, 285, 288.
I.Erste Stufe: Datenbeschaffung
228
kundenbezogenen) Information eine Verbindung herzustellen. Wenn dies ausge-
schlossen ist, liegt keine Bestimmbarkeit im datenschutzrechtlichen Sinne vor.15
Mit Blick auf die hier interessierenden technischen kundenbezogenen Daten ist
demzufolge eine Risikoanalyse notwendig, mithilfe der– unter Beachtung der Ver-
hältnismäßigkeit im Einzelfall– die Wahrscheinlichkeit zu bestimmen ist, mit der
der Kunde identiziert werden wird.16
Ohne Weiteres zu bejahen ist die Identizierbarkeit in den – durchaus häug
anzutreffenden – Fallkonstellationen, in denen der Anbieter anhand technischer
Hilfsmittel positive Kenntnis von der Identität des die Seite besuchenden Kunden
hat. Hat dieser beispielsweise bei einem Anbieter ein Kundenkonto angelegt und in
dessen Online-Shop etwas bestellt und wird mithilfe eines Cookies zu einem späte-
ren Zeitpunkt wiedererkannt, fungiert das Cookie als Online-Kennung i.S.d. Art.4
Nr.1 DSGVO.17 Über den im Cookie enthaltenen Datensatz kann der Kunde vom
Anbieter nämlich eindeutig identiziert werden.18 Macht der Anbieter sich das da-
raus ableitbare Wissen zwecks Preispersonalisierung zu Nutze– wie es etwa im ähn-
lich gelagerten Amazon.com-Fall geschehen war– ist der Anwendungsbereich des
Datenschutzrechts eröffnet. Praxisrelevant ist auch die vergleichbare Konstellation,
dass ein Anbieter mehrere Dienste in verschiedenen Geschäftsfeldern anbietet und
dadurch mittelbar die Identizierung des Kunden erleichtert wird.19 Google bietet
etwa neben seinem E-Mail-Dienst Gmail auch Preisvergleichsportale für Ver-
brauchsgüter, Flugreisen etc. an. Ist ein Kunde etwa bei Gmail registriert und einge-
loggt, während er bei Google Flights eine Flugreise sucht, ist die Verbindung der
Suchanfrage mit der Identität des Nutzers gegeben und dieser aus Sicht des Anbie-
ters zweifelsfrei identizierbar i.S.d. Art.4 Nr.1 DSGVO.Gleiches gilt ggf. für
weitere Suchanfragen über die reguläre Google-Suchmaschine, welche ebenso mit
dem Prol des Kunden verbunden werden können.
Der Personenbezug kann auch dann gegeben sein, wenn kundenbezogene tech-
nische Daten es dem Anbieter erlauben, Kunden mit einem hohen Grad an Genau-
igkeit wiederzuerkennen oder beim Surfen zu verfolgen. Der Unterschied zum zu-
vor beschriebenen Szenario liegt darin, dass der Anbieter (zunächst) keine positive
Kenntnis von der Identität des Kunden hat, ihn aber dennoch von anderen unter-
scheiden bzw. ihn wiedererkennen kann. Browser bzw. Device Fingerprinting-
Technologien sind hierfür ein gutes Beispiel. Auch Cookies, welche als eindeutige
Kennung fungieren und zum Tracking von Kunden verwendet werden, ohne dass
15 Vgl. Ernst, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32021, Art.4 Rn.9 DSGVO.
16 Vgl. Klar/Kühling, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.4 Nr.1 Rn.22 DSGVO.
17 Siehe Erwägungsgrund 30 DSGVO.
18 Karg, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019, Art.4 Nr.1
Rn.66; Klar/Kühling, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.4 Nr.1 Rn.36 DSGVO; Zuiderveen Borgesius/Poort, J Consum Policy
40 (2017), 347, 357.
19 Vgl. dazu Klar/Kühling, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundes-
datenschutzgesetz, 32020, Art.4 Nr.1 Rn.36 DSGVO.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
229
die Identität des konkreten Kunden dem Anbieter bereits (etwa aufgrund eines be-
stehenden Kundenkontos) zwingend bekannt ist, können dementsprechend perso-
nenbezogene Daten darstellen. Für die Bejahung des Personenbezugs kommt es in
diesen Konstellationen darauf an, dass „nach allgemeinem Ermessen wahrschein-
lich [vom Anbieter oder einem Dritten Mittel] genutzt werden, um die natürliche
Person direkt oder indirekt zu identizieren“.20 Die tatsächliche Möglichkeit der
Identizierung des Betroffenen ist damit eine zwingende Voraussetzung, um von
einem personenbezogenen Datum sprechen zu können. Die bloße Möglichkeit der
Individualisierung bzw. Aussonderung des Einzelnen reicht für sich genommen
nicht aus.21 Dies gilt auch dann, wenn das mittels Fingerprinting generierte techni-
sche Prol des Endgeräts des Kunden eine sichere Reidentikation erlaubt: Auch in
diesen Fällen muss zumindest die Möglichkeit bestehen, dass der „wiedererkannte“
bzw. „ausgesonderte“ Kunde identiziert wird.22 Dementsprechend hat der Düssel-
dorfer Kreis23 bereits 2014 die Meinung vertreten, dass dauerhaft mit dem auf Kun-
denseite verwendeten Endgerät assoziierte Geräte- und Kartenkennungen als perso-
nenbezogene Daten zu betrachten sind, da in der Regel die Zuordnung zu einer
natürlichen Person möglich ist.24 Diese Aussage bezog sich auf verschiedene tech-
nische Daten, welche typischerweise vom Anbieter erfasst werden können.25
Bei allen diesen Identikationsmerkmalen kommt es also letztlich darauf an, ob dem
Anbieter zugängliche Informationen vorliegen, mit deren Hilfe er auf die Identität
des Kunden schließen kann und dies nach objektiven Maßstäben– unter Berück-
sichtigung etwa der dafür aufzubringenden Kosten und des Zeitaufwandes26– mit
einer gewissen Wahrscheinlichkeit auch tun wird.27 Erwägungsgrund 26 DSGVO
macht deutlich, dass das zur Identizierung notwendige Zusatzwissen nicht zwin-
gend beim Anbieter selber vorliegen muss. Es genügt grundsätzlich, wenn die Iden-
tizierung nur über den Rückgriff auf Informationen möglich ist, welche bei einem
Dritten vorliegen (vgl. den Wortlaut „Mittel (…), die von dem Verantwortlichen
oder einer anderen Person (…) wahrscheinlich genutzt werden“). Gerade bei tech-
nischen Daten ist diese Situation durchaus häug gegeben. Im Folgenden wird das
20 Erwägungsgrund 26 DSGVO.So auch Steppe, Computer Law & Security Review 33 (2017),
768, 773f.
21 Dies wird bestätigt durch das im Anschluss diskutierte Breyer-Urteil des EuGH, vgl. Moos/Roth-
kegel, MMR 2016, 845, 846.
22 Karg, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019, Art.4 Nr.1
Rn.66; Karg/Kühn, ZD 2014, 285, 288.
23 Der Düsseldorfer Kreis ist formal gesehen der Arbeitskreis „Wirtschaft“ der Konferenz der un-
abhängigen Datenschutzbehörden des Bundes und der Länder.
24 Düsseldorfer Kreis, Orientierungshilfe zu den Datenschutzanforderungen an App-Entwickler
und App-Anbieter, 2014, S.5.
25 Beispielhaft werden die folgenden Kennungen genannt: IMEI, UDID, IMSI, MAC-Adresse,
MSISDN.
26 Erwägungsgrund 26 DSGVO.
27 Vgl. Klar/Kühling, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.4 Nr.1 Rn.23 DSGVO.
I.Erste Stufe: Datenbeschaffung
230
sog. Breyer-Urteil des EuGH analysiert, welches sich u.a. mit der Rolle von Dritten
im Kontext der datenschutzrechtlichen Identizierbarkeit beschäftigt hat.
cc. Breyer-Urteil: Identizierbarkeit durch Dritte
Der EuGH hat sich in der Rechtssache Breyer zu der Frage geäußert, unter welchen
Umständen eine dynamische IP-Adresse in Verbindung mit einem Zeitstempel, der
angibt, wann mit dieser Adresse eine bestimmte Webseite aufgerufen wurde, für den
Diensteanbieter (also den Betreiber der Webseite) ein personenbezogenes Datum
darstellt.28 Die beklagten Diensteanbieter waren vorliegend (nicht näher bezeich-
nete) Einrichtungen des Bundes, welche stets die IP-Adressen ihrer Webseitenbesu-
cher sowie bestimmte Informationen über den jeweiligen Seitenbesuch in Proto-
kolldateien gespeichert hatten. Grund für die Speicherung waren die Abwehr und
die Verfolgung von Cyberattacken. Eine im Rahmen dieser Entscheidung zu beant-
wortende Frage war, ob die Identizierbarkeit eines Webseitenbesuchers zu bejahen
ist, wenn dem Betreiber der Webseite nur die (dynamische) IP-Adresse und der
Zeitpunkt des Seitenaufrufs bekannt sind.29 Aus diesen Informationen alleine
kann nämlich nicht auf die Identität des Seitenbesuchers geschlossen werden. Die
Verbindung zwischen IP-Adresse und Seitenbesucher kann bloß der Internetzu-
gangsanbieter (sog. Access Provider, etwa die Telekom) herstellen, welcher dem
Seitenbesucher den Internetzugang technisch ermöglicht und ihm die IP-Adresse
regelmäßig neu zuweist.30
Aus dem Urteil lassen sich gewisse Anhaltspunkte für die Frage ableiten, welche
Rolle Dritte im Rahmen der datenschutzrechtlichen Identizierbarkeit mittels kun-
denbezogener technischer Daten spielen. Der Entscheidung lag die (zutreffende)
Prämisse zugrunde, dass der Webseitenbetreiber vom Internetzugangsanbieter nicht
ohne Weiteres die Offenlegung der Identität des Besuchers verlangen kann. Dies ist
rechtlich nur zulässig über den Umweg der Hinzuziehung von Behörden, welche
etwa im Rahmen strafrechtlicher Ermittlungen den Internetzugangsanbieter zur
Herausgabe u.a. des Namens verpichten können.31 Im Normalfall weiß der Web-
seitenbetreiber damit nicht, wer hinter der IP-Adresse steht, von der seine Seite
28 EuGH, C-582/14, ECLI:EU:C:2016:779 (Breyer).
29 EuGH, C-582/14, ECLI:EU:C:2016:779, Rn.39 (Breyer).
30 EuGH, C-582/14, ECLI:EU:C:2016:779, Rn.37 (Breyer). Für den Internetzugangsanbieter liegt
ohne Weiteres ein personenbezogenes Datum vor, da er alle Informationen besitzt, um IP-Adresse
und Identität zusammenzuführen (so schon EuGH, C-70/10, ECLI:EU:C:2011:771, Rn.51 (Scar-
let Extended)). Die Frage der Rolle Dritter stellt sich in dieser Konstellation damit nicht.
31 Im Falle des Verdachts der Begehung von Straftaten wie etwa §§ 303a, 303b StGB, 23 Ge-
schGehG kann die Staatsanwaltschaft beim Internetzugangsanbieter gem. §100g StPO im not-
wendigen Umfang die Verkehrsdaten gem. §§9, 12 TTDSG erheben. Der Webseitenbetreiber kann
diese dann per Akteneinsicht i.S.d. §406e StPO einsehen und auf diese Weise Kenntnis von der
Identität des Webseitenbesuchers erlangen (vgl. Mantz/Spittka, NJW 2016, 3582, 3583 und Moos/
Rothkegel, MMR 2016, 845, 846).
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
231
aufgerufen wird, und kann dies– solange der Besucher nicht weitere Informationen
mitteilt– nur in Ausnahmefällen herausnden.
Der Internetzugangsanbieter ist damit der Dritte, von dem aus datenschutzrecht-
licher Sicht die Frage der Identizierbarkeit abhängt. Angelpunkt der Entscheidung
war damit, „ob die Möglichkeit, eine dynamische IP-Adresse mit den Zusatzinfor-
mationen zu verknüpfen, über die der Internetzugangsanbieter verfügt, ein Mittel
darstellt, das vernünftigerweise zur Bestimmung der betreffenden Person eingesetzt
werden kann.“32 Der EuGH führt aus, dass dies nicht der Fall ist, wenn die Identi-
zierung des Webseitenbesuchers gesetzlich verboten oder praktisch undurchführbar
ist, etwa aufgrund eines unverhältnismäßig hohen Aufwandes an Zeit, Kosten und
Arbeitskraft, welcher dazu führe, dass das Risiko der Identizierung vernachlässigt
werden könne.33 In der beschriebenen Fallkonstellation läge somit– vorbehaltlich
einer Prüfung der national gegebenen rechtlichen Möglichkeiten durch das vorle-
gende Gericht– aufgrund der mit rechtlichen Mitteln ggf. erzwingbaren Identizie-
rungsmöglichkeit ein personenbezogenes Datum vor.34 Aus dem Urteil ergibt sich,
dass diese rechtliche Möglichkeit der Informationsbeschaffung beim Diensteanbie-
ter liegen muss: Nur wenn sie für ihn besteht, handelt es sich auch für ihn (und nicht
etwa nur für den Internetzugangsanbieter oder die Behörde) um ein personenbezo-
genes Datum.35
Der vom EuGH entschiedene Sachverhalt betraf eine spezielle, eng gefasste Fall-
konstellation. Das Breyer-Urteil kann deshalb nicht ohne Weiteres wie eine Blau-
pause auf alle hier interessierenden kundenbezogenen technischen Daten übertra-
gen werden. Dennoch lassen sich daraus Erkenntnisse für ihre rechtliche Bewertung
ableiten. Dies lässt sich am Beispiel Staples verdeutlichen.36 Das Vorgehen von
Staples (Nutzung der in den IP-Adressen enthaltenen ortsbezogenen Informationen
zwecks Preispersonalisierung) ist vergleichbar mit dem vom EuGH entschiedenen
Sachverhalt: Da die sich aus dem Aufenthaltsort des Kunden ableitende Preisanpas-
sung zwingend bis zum Ende des (etwaigen) Bestellvorgangs bestehen bleiben
muss, ist eine (zumindest vorübergehende) Speicherung der IP-Adresse durchaus
denkbar. Ein Personenbezug der verarbeiteten Daten wäre demnach zu bejahen:
Staples kennt zwar im Moment des Seitenaufrufs nicht die Identität des Kunden,
sondern nur dessen ungefähren Aufenthaltsort.37 Ebenso wie im Falle der Einrich-
tungen des Bundes besteht für Staples als Diensteanbieter allerdings die grundsätz-
liche Möglichkeit, diese im Falle von Cyberattacken auf rechtmäßigem Wege he-
32 EuGH, C-582/14, ECLI:EU:C:2016:779, Rn.45 (Breyer).
33 EuGH, C-582/14, ECLI:EU:C:2016:779, Rn. 46 (Breyer). Der EuGH bezieht sich dabei aus-
drücklich auf die Schlussanträge des Generalanwalts Manuel Campos Sánchez-Bordona, C-582/14,
ECLI:EU:C:2016:339, Rn.68 (Breyer).
34 EuGH, C-582/14, ECLI:EU:C:2016:779, Rn.47–49 (Breyer).
35 Moos/Rothkegel, MMR 2016, 845, 845f.
36 Der Fall spielte in den USA.Die Anwendbarkeit des europäischen Datenschutzrechts wird hier
unterstellt.
37 Dies gilt allerdings nur für den Fall eines Neukunden bzw. eines Kunden, den Staples nicht an-
hand von Cookies oder ähnlichen Mitteln wiedererkennen kann.
I.Erste Stufe: Datenbeschaffung
232
rauszunden. Der EuGH hat die grundsätzliche Möglichkeit des Zugriffs auf die
Informationen des Dritten (über den Umweg der Strafverfolgungsbehörde, die als
„Vierter“ bezeichnet werden kann) ausreichen lassen.38 Im Fall Staples kommt noch
hinzu, dass es diesem Anbieter sogar tatsächlich darauf ankommt, Kenntnis von der
Identität des Seitenbesuchers zu erlangen. Schließlich handelt es sich um einen po-
tenziellen Kunden, der im Idealfall etwas kauft und in diesem Rahmen seinen Na-
men, seine Adresse etc. offenlegt. Die Zweckbestimmung im Rahmen der Datener-
hebung– Preispersonalisierung– ist also ein weiteres Argument dafür, die erhobenen
Daten als personenbezogen zu qualizieren. Dies alles spricht dafür, im Fall Staples
(so wie in Breyer) den Personenbezug zu bejahen.
dd. Weiterführende Überlegungen
Einige aus dem Breyer-Urteil abgeleitete Überlegungen helfen trotz der eng gefass-
ten Fallkonstellation bei der Analyse seiner Implikationen für die datenschutzrecht-
liche Bewertung online personalisierter Preise. Auf andere technische kundenbe-
zogene Daten, wie etwa auf ID-Nummern von Smartphones, Cookie-IDs oder
MAC-Adressen, lässt es sich nicht pauschal übertragen, da dem Anbieter mit Blick
auf diese Datenarten keine der Situation bei IP-Adressen vergleichbare rechtliche
Möglichkeit der Informationsbeschaffung zur Verfügung steht.39 Dies ist aber auch
nicht per se notwendig, um den Personenbezug zu bejahen. Der EuGH stellt in sei-
nen Ausführungen nur darauf ab, ob „die Identizierung der betreffenden Person
gesetzlich verboten oder praktisch nicht durchführbar wäre“.40 Es kommt damit
auf die faktische Möglichkeit der Identizierung an, unabhängig davon, ob diese
mit rechtlichen Mitteln erzwungen werden kann oder auf anderem Wege zu-
stande kommt.
Die wichtigste Erkenntnis im Kontext von Preispersonalisierung ergibt sich aus
einem anderen Blickwinkel, nämlich mit dem Blick auf die aus dem Breyer-Urteil
ablesbaren Aussagen zur Relation zwischen der faktischen Identizierungsmög-
lichkeit und der dafür maßgebenden zeitlichen Komponente. Der EuGH macht
deutlich, dass ein personenbezogenes Datum bereits vorliegen kann, bevor die Iden-
tikation (mittels Rückgriff auf das Wissen Dritter) tatsächlich stattgefunden hat.
38 Karg, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019, Art.4 Nr.1
Rn.61. Ob Staples im Einzelfall tatsächlich Opfer von Hacker-Angriffen o.Ä. wird, ist irrelevant.
Vgl. aber auch Moos/Rothkegel, MMR 2016, 845, 846: „Unklar bleibt, ob die bloße Existenz eines
rechtlichen Mittels und die rein theoretische Möglichkeit, dieses in Anspruch nehmen zu können,
genügt, um einen Personenbezug zu bejahen; oder ob es auch darauf ankommt, dass die jeweils
verarbeitende Stelle tatsächlich in der Lage ist, dieses Mittel einsetzen zu können (da etwa die
Voraussetzungen vorliegen, um ein staatsanwaltschaftliches Verfahren einzuleiten). Dies wäre
etwa dann anzuzweifeln, wenn Informationen zu Zwecken erhoben werden, die eine Einschaltung
der StA oder entsprechender Aufsichtsbehörden nicht nach sich ziehen können, wie etwa Markt-
analysezwecke. In diesem Zusammenhang ist die Entscheidung des EuGH leider nicht ergiebig.“
39 Moos/Rothkegel, MMR 2016, 845, 846.
40 EuGH, C-582/14, ECLI:EU:C:2016:779, Rn.46 (Breyer).
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
233
Dies ergibt sich vor allem aus der folgenden, auf den Konjunktiv zurückgreifenden
Aussage: „Der Anbieter (…) verfügt somit offenbar über Mittel, die vernünftiger-
weise eingesetzt werden könnten, um mit Hilfe Dritter (…) die betreffende Person
(…) bestimmen zu lassen.“41 Die damit zum Ausdruck gebrachte weite Auslegung
des Begriffs der Personenbeziehbarkeit spielt auch im Kontext von Preispersonali-
sierung eine Rolle.42 Sie verlagert den für die rechtliche Einordnung des Datums
maßgeblichen Zeitpunkt recht weit nach vorne. Zugleich verlagert sie damit dogma-
tisch den Schwerpunkt der Prüfung auf die Frage, ob die Identizierung des Kunden
„nach allgemeinem Ermessen wahrscheinlich“ ist i.S.v. Erwägungsgrund 26 DS-
GVO. Auch bei der Bestimmung dieser Wahrscheinlichkeit ist der EuGH eher
großzügig: Laut Urteil gelten alle vom Bund gespeicherten IP- Adressen als per-
sonenbezogene Daten, obwohl das ihren Personenbezug begründende hypotheti-
sche Szenario (Abwehr und Strafverfolgung etwaiger Cyberattacken) nur bei einem
Bruchteil der Seitenbesucher tatsächlich Realität werden dürfte. Die Wahrschein-
lichkeit, dass der Besucher eines Online-Shops bei diesem auch tatsächlich einen
Einkauf tätigt, dürfte „nach allgemeinem Ermessen“ bedeutend höher sein, sodass
ein Personenbezug in diesen Fällen erst recht anzunehmen ist.
Angesichts dieses weit gefassten zeitlichen Maßstabs wird im Kontext von Prei-
spersonalisierung ein Personenbezug bei Erhebung und Verarbeitung kundenbezo-
gener technischer Daten in aller Regel zu bejahen sein, unabhängig davon, ob die-
sen isoliert betrachtet eine bedeutsame Aussagekraft innewohnt. Dies liegt daran,
dass der Anbieter ab dem Moment, in dem ein Kunde seinen Online-Shop aufruft,
ein subjektives Interesse43 und die bei objektiver Betrachtungsweise realistische
Aussicht hat, zumindest zu einem späteren Zeitpunkt die Identität des Kunden zu
erfahren. Gemeint ist der Zeitpunkt des Kaufvorgangs: Spätestens beim Kauf des
Produktes bzw. der Dienstleistung muss der Kunde seine (bürgerliche) Identität of-
fenlegen.44
Die Identizierung des Kunden ist damit– wenngleich es dem Anbieter nicht
primär um sie, sondern um den Abschluss des Kaufvertrags bzw. Dienstleistungs-
vertrags geht– Ziel oder zumindest Reexwirkung der Datenerhebung. Die Fall-
konstellationen, in denen technische kundenbezogene Daten mit der Absicht erfasst
werden, sie (zumindest möglicherweise) zu Zwecken des Personalised Pricings
zu nutzen, eröffnen deshalb den Anwendungsbereich des Datenschutzrechts.45 Es
kommt nicht darauf an, ob sich die Identizierung des Kunden tatsächlich realisiert.
Vielmehr genügt es, dass die Möglichkeit besteht, die Verknüpfung zwischen tech-
41 EuGH, C-582/14, ECLI:EU:C:2016:779, Rn.48 (Breyer).
42 Vgl. Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 358.
43 Dieses ist bei der Einschätzung der Wahrscheinlichkeit der Identizierung zu berücksichtigen,
vgl. Klar/Kühling, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.4 Nr.1 Rn.23 DSGVO.
44 So auch Hofmann/Freiling, ZD 2020, 331, 334.
45 Ähnlich auch Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 358, die aber wohl
erst ab dem Moment der tatsächlichen Verknüpfung mit dem Kundenprol den Personenbezug
bejahen.
I.Erste Stufe: Datenbeschaffung
234
nischer Information und Identität herzustellen.46 Die sich möglicherweise in einem
Schaden für Persönlichkeitsrechte niederschlagende Gefahr genügt, um das Schutz-
system der Datenschutz-Grundverordnung auszulösen. Damit liegt auch eine Verar-
beitung personenbezogener Daten vor, wenn ein Kunde die Seite des Anbieters auf-
ruft und, ohne einen Kauf zu tätigen, wieder verlässt. Voraussetzung dafür ist, dass
der Anbieter die Personalisierung der Preise zumindest als Option vorgesehen und
zu diesem Zweck die technischen Daten erhoben hat. Auf die im Einzelfall zum
Einsatz kommenden Techniken und die Art der erhobenen Daten kann es dabei
nicht ankommen. Um Umgehungen des von der Datenschutz-Grundverordnung in-
stallierten Schutzsystems zu verhindern, ist diese technologieneutral ausgestaltet.47
Deshalb ist sie auch in diesem Sinne auszulegen. Es spielt also keine Rolle, ob der
Anbieter Fingerprinting-Technologien bzw. Cookies einsetzt, um den Kunden zu
tracken, oder ob er nur den Referrer Header ausliest, um darin enthaltene Informa-
tionen zur Personalisierung von Preisen einzusetzen.
ee. Abgrenzung von der rechtlichen Bewertung personalisierter Werbung
Preispersonalisierung und personalisierte Werbung basieren auf vergleichbaren
technischen Methoden. Mit Blick auf die Identizierbarkeit einzelner Kunden
i.S.d. Art.4 Nr.1 DSGVO besteht allerdings ein wesentlicher tatsächlicher Unter-
schied, der bei der rechtlichen Bewertung zu berücksichtigen ist: Bei Preispersona-
lisierung ist es für den Anbieter essenziell, den Kunden ab dem ersten Kontakt (etwa
dem Webseitenaufruf) bis zum Kaufabschluss möglichst durchgängig aussondern
zu können. Nur auf diese Weise ist sichergestellt, dass ihm der „richtige“ Preis zu-
gewiesen wird. Spätestens im Zeitpunkt des Kaufabschlusses legt der Kunde seine
bürgerliche Identität offen. Im Gegensatz dazu spielt bei personalisierter Werbung
die Identität des Empfängers der Werbung für den Werbenden oftmals eine unterge-
ordnete Rolle: Ihm geht es primär darum, dass dem Nutzer geeignete Werbung ein-
geblendet wird, welche das Interesse an einem bestimmten Produkt weckt oder ver-
stärkt. Das durchgängige Aussondern des Kunden bis zum Kaufabschluss ist nicht
zwingend notwendig, denn der Werbende hat sein Ziel etwa auch dann erreicht,
wenn der Nutzer das Produkt im stationären Handel oder zu einem späteren
Zeitpunkt kauft. Von der bürgerlichen Identität des Beworbenen muss der Werbende
nicht unbedingt Kenntnis nehmen. Bei den im Rahmen von Online-Werbung verar-
beiteten Informationen handelt es sich häug um pseudonyme und mithin personen-
46 Vgl. Karg, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019, Art.4
Nr. 1 Rn. 62 und Ernst, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32021, Art.4 Rn. 12 DSGVO. So wohl auch Schlussanträge des Generalanwalts
Manuel Campos Sánchez-Bordona, C-582/14, ECLI:EU:C:2016:339, Rn.77 (Breyer). Ähnlich
argumentieren auch Hofmann/Freiling, ZD 2020, 331, 334.
47 Erwägungsgrund 15 DSGVO.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
235
bezogene Daten, teilweise aber auch um anonym verarbeitete.48 Mit Blick auf das
einleitend Gesagte kommt es bei der Abgrenzung, ob im Falle personalisierter Wer-
bung ein Personenbezug vorliegt, mithin auch darauf an, wie hoch die Wahrschein-
lichkeit der Identizierung des Einzelnen (i.S.d. Erwägungsgrundes 26 DSGVO)
konkret ist und welches subjektive Interesse der Werbende an der Identizierung
hat. Die hier im Kontext des Personalised Pricings vertretene, eher weite Auslegung
des Begriffs „personenbezogenes Datum“ lässt sich also nicht pauschal auf perso-
nalisierte Werbung übertragen.
ff. Zwischenergebnis
Online-Preispersonalisierung eröffnet den Anwendungsbereich der Datenschutz-
Grundverordnung gem. Art.2 I, 4 Nr.1 DSGVO.Das Datenschutzrecht beinhaltet
damit auch eine indirekte Regulierung von Preispersonalisierung. In vielen Fällen
ist die für die Bejahung der Anwendbarkeit relevante Frage, ob den verarbeiteten
Daten ein Personenbezug innewohnt, gänzlich unproblematisch zu bejahen. Bei der
Auswertung von bereits bestehenden Kundenprolen handelt es sich bei den darin
gespeicherten Informationen beispielsweise ohne Weiteres um personenbezogene
Daten, da sie mit der dem Anbieter bekannten Identität des Kunden verknüpft wer-
den. Schwieriger wird die rechtliche Bewertung dann, wenn Anbieter mit Informa-
tionen zu tun haben (und diese zur Personalisierung von Preisen nutzen), welche
aus sich heraus keinen offensichtlichen Personenbezug erkennen lassen und deren
Übertragung oftmals aus technischen Gründen geboten ist. Der aus rechtlicher Sicht
maßgebende Angelpunkt ist in diesen Fällen die Frage, ob diese Informationen sich
auf eine identizierbare natürliche Person i.S.d. Art.4 Nr.1 Alt.2 DSGVO bezie-
hen oder nicht. Die faktische Identizierungswahrscheinlichkeit, zu bestimmen
nach den Maßgaben des Erwägungsgrundes 26DSGVO, rückt damit in den Mittel-
punkt der datenschutzrechtlichen Prüfung. Aus dem Breyer-Urteil des EuGH lässt
sich ableiten, dass die Bejahung der Identizierbarkeit (und mithin die Annahme
von Personenbezug) zu einem durchaus frühen Zeitpunkt möglich ist. Zudem lässt
das Urteil sich so verstehen, dass ein personenbezogenes Datum schon dann vorlie-
gen kann, wenn die tatsächliche Identizierung des Betroffenen von Umständen
abhängt, die außerhalb der Einussmöglichkeiten des Anbieters liegen. Übertragen
auf Preispersonalisierung und die in der Praxis zum Einsatz kommenden techni-
schen kundenbezogenen Daten lässt dies den Schluss zu, dass diese Daten bereits
im Zeitpunkt der ersten Verarbeitung personenbezogen sind: Der Anbieter erhebt
sie mit dem (zumindest mittelbar verfolgten) Ziel, den Kunden später, nämlich im
48 Galetzka, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 2018, S.45, 52. Pseudo-
nymisierte Daten stellen auch personenbezogene Daten i.S.d. Art.4 Nr.1 DSGVO dar, vgl. dazu
Art.4 Nr.5 i.V.m. Erwägungsgrund 26 DSGVO.Dies muss erst recht für solche Daten gelten, die
von vornherein pseudonym erhoben wurden. Erwägungsgrund 28f. DSGVO macht deutlich, dass
Pseudonymisierung aus datenschutzrechtlicher Sicht zu begrüßen ist.
I.Erste Stufe: Datenbeschaffung
236
Moment des Kaufabschlusses, zu identizieren. Die konkrete technische Natur die-
ser Daten ist irrelevant, sofern ihre Erhebung zumindest auch der Preispersonalisie-
rung und nicht nur technischen Erfordernissen dient. Nur diese technologieneutrale,
bereits zu einem frühen Zeitpunkt ansetzende Betrachtungsweise kann den von
der Datenschutz-Grundverordnung bezweckten umfassenden Grundrechtsschutz
effektiv absichern. Preispersonalisierung unterscheidet sich damit in einem wesent-
lichen Punkt von anderen Formen von Personalisierung, bei denen die Identität
des Internet- Nutzers für denjenigen, der die Personalisierung veranlasst, oftmals
nur von zweitrangiger Bedeutung ist. Dies gilt im besonderen Maße für Online-
Werbung, deren rechtliche Bewertung mithin unter anderen Vorzeichen stattn-
den muss.
b. Rechtsgrundlage für die Datenverarbeitung
Anbieter, die Preise personalisieren möchten, dürfen personenbezogene Daten zu
diesem Zweck nur verarbeiten, wenn sie sich dafür auf eine Rechtsgrundlage beru-
fen können, Art.6 I S.1 DSGVO.Bei Online-Preispersonalisierung im privatrecht-
lichen Kontext kommen dafür Art.6 I S.1 lit. a DSGVO (Einwilligung des Kun-
den), Art.6 I S.1 lit. b DSGVO (vertragliche Notwendigkeit) und Art.6 I S.1 lit. f
DSGVO (allgemeine Interessenabwägungsklausel) in Betracht. Bei sensiblen per-
sonenbezogenen Daten i.S. d. Art.9 I DSGVO ist zudem Art.9 II lit. a DSGVO
(ausdrückliche Einwilligung des Kunden) als Rechtsgrundlage denkbar.
Unabhängig von der im Einzelfall herangezogenen Rechtsgrundlage gilt, dass
Anbieter als datenschutzrechtlich Verantwortliche i.S.d. Art.4 Nr.7 DSGVO den
Zweck der Datenverarbeitung bestimmen müssen (Zweckbindungsgrundsatz, Art.5
I lit. b DSGVO). Die Zweckbestimmung muss spätestens im Moment der ersten
Datenerhebung erfolgt sein (vgl. den Wortlaut: „festgelegte (…) Zwecke“)49 und
dem Kunden gem. Art.13 I lit. c bzw. 14 I lit. c DSGVO mitgeteilt werden. Der
beabsichtigte Zweck „Preispersonalisierung“ muss demnach eindeutig und mit hin-
reichender, für den Kunden erkennbarer Bestimmtheit als alleiniger Zweck oder als
einer von mehreren Zwecken genannt werden.50 Eine allgemein gehaltene Aussage,
wie etwa, dass die Daten zwecks Personalisierung der Dienstleistung oder der
49 Article 29 Data Protection Working Party, Opinion 03/2013 on Purpose Limitation, 2013, S.15
(zur Vorgängernorm Art.6 I lit. b DSRL); Herbst, in: Kühling/Buchner (Hrsg.), Datenschutz-
Grundverordnung/Bundesdatenschutzgesetz, 32020, Art.5 Rn.31 DSGVO.So auch eindeutig Er-
wägungsgrund 39 DSGVO: „Insbesondere sollten die bestimmten Zwecke, zu denen die personen-
bezogenen Daten verarbeitet werden, (…) zum Zeitpunkt der Erhebung der personenbezogenen
Daten feststehen.“
50 Vgl. Herbst, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.5 Rn.35f. DSGVO; Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017),
347, 358. Article 29 Data Protection Working Party, Opinion 03/2013 on Purpose Limitation,
2013, S.16 nennt folgende Beispiele für (in der Regel) zu allgemein gehaltene Angaben: „impro-
ving users’ experience“, „marketing purposes“, „IT-security purposes“ und „future research“.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
237
Webseitennutzung verarbeitet werden, genügt nicht.51 Die Absichten des Anbieters
müssen für den Kunden also eindeutig erkennbar sein.
aa. Einwilligung
aaa. Überblick
Die Erteilung einer wirksamen Einwilligung in die Datenverarbeitung i.S.d. Art.6
I S.1 lit. a DSGVO begegnet a priori keinen grundsätzlichen Bedenken. Ihre Wirk-
samkeit bemisst sich (neben den Vorgaben des Art.6 I S.1 lit. a DSGVO, welcher
die eigentliche Rechtsgrundlage für den Anbieter darstellt) vor allem nach den Vor-
gaben der Legaldenition des Art.4 Nr.11 DSGVO und den in Art.7 DSVO formu-
lierten Bedingungen. Eine Einwilligung ist „jede freiwillig für den bestimmten Fall,
in informierter Weise und unmissverständlich abgegebene Willensbekundung in
Form einer Erklärung oder einer sonstigen eindeutigen bestätigenden Handlung,
mit der die betroffene Person zu verstehen gibt, dass sie mit der Verarbeitung der sie
betreffenden personenbezogenen Daten einverstanden ist“ (Art.4 Nr.11 DSGVO).
Nur wenn alle diese Voraussetzungen erfüllt sind, liegt eine wirksame Einwilligung
und damit eine Rechtsgrundlage für die Datenverarbeitung vor.
Es bietet sich an, in diesem Kontext gedanklich zwei Ebenen zu unterscheiden:
Die Erteilung der Einwilligung einerseits und ihre konkrete Ausgestaltung (und da-
mit Reichweite ihrer Legitimationswirkung) andererseits. Zunächst stellt sich also
die Frage, in welchen Fällen vom Kunden überhaupt eine rechtlich relevante Erklä-
rung abgegeben wurde, die datenschutzrechtlich als Einwilligung qualiziert
werden kann. Zudem ist zu klären, wie die Einwilligungserklärung qualitativ ausge-
staltet sein muss, um eine taugliche Rechtsgrundlage für Preispersonalisierung dar-
zustellen. Beide Ebenen hängen miteinander zusammen: So ist eine Einwilligung
beispielsweise nur wirksam, wenn sie „für den bestimmten Fall“ (Art.4 Nr.11 DS-
GVO) erteilt wurde und damit dem Bestimmtheitsgrundsatz52 genügt. Die Ausge-
staltung der Einwilligungserklärung muss also zwangsläug gewisse Anforderungen
erfüllen, damit sie überhaupt rechtliche Wirkungen entfaltet und die Legitimations-
wirkung des Art.6 I S.1 lit. a DSGVO auszulösen vermag.
bbb. Erteilung
Grundvoraussetzung der Einwilligung ist eine Erklärung oder eine sonstige eindeu-
tige bestätigende Handlung, dass der Kunde mit der Datenverarbeitung einverstan-
den ist, Art.4 Nr.11 DSGVO.Im Online-Kontext werden daran hohe Anforderun-
gen gestellt: „Stillschweigen, bereits angekreuzte Kästchen oder Untätigkeit“ des
Kunden sind gem. Erwägungsgrund 32 DSGVO nicht ausreichend. Der Kunde
muss zur Einwilligung in die Nutzung seiner Daten zum Zwecke von Preispersona-
51 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 359.
52 Siehe dazu unten Kap.11, I. 1. b. aa. ccc.
I.Erste Stufe: Datenbeschaffung
238
lisierung aufgefordert werden und diese „unmissverständlich“ erklären. Sie kann
vom Kunden jederzeit nach Belieben widerrufen werden. Dies ist ihm vor ihrer
Abgabe mitzuteilen, Art.7 III S.1 und 3 DSGVO.Die bis zum Zeitpunkt des Wi-
derrufs durchgeführte Datenverarbeitung bleibt aber rechtmäßig (Art.7 III S.2 DS-
GVO). Möchte der Anbieter sensible Daten i. S. d. Art. 9 I DSGVO verarbeiten
(oder führt die Verarbeitung „normaler“ personenbezogener Daten zur Schaffung
sensibler Daten), ist gem. Art.9 II lit. a DSGVO eine ausdrückliche Einwilligung
des Kunden notwendig.53
Aus diesen Rahmenbedingungen lassen sich im Kontext von Preispersonalisie-
rung einige relevante Erkenntnisse ableiten. Eine Opt-out-Lösung, bei der eine Ein-
willigung ngiert und Preise grundsätzlich immer personalisiert werden, solange
der Kunde nicht widerspricht, genügt nicht den rechtlichen Anforderungen, die
Art.4 Nr.11 DSGVO an eine eindeutige bestätigende Handlung stellt. Gleiches gilt
für alle anderen Kommunikationsformen, in denen dem Kunden die Erteilung einer
Einwilligung unterstellt wird, welche er de facto nicht erteilt hat– etwa, wenn
ein Anbieter die bloße tatsächliche Nutzung seiner Webseite (nach entsprechendem
Hinweis) einer Einwilligung gleichsetzen möchte.54 In solchen Fällen liegt auf Kun-
denseite kein Bewusstsein vor, eine rechtlich relevante Erklärung abzugeben. Das
bereits öfter in Bezug genommene Vorgehen von Staples (unmittelbare Preisperso-
nalisierung bei jedem Kunden anhand des aus der IP-Adresse ablesbaren Aufent-
haltsorts) wäre deshalb unzulässig, sofern der Anbieter die Datenverarbeitung auf
eine Einwilligung stützen möchte.55 Eine Anpassung der Preise wäre erst nach ihrer
Erteilung möglich– nicht aber als „Standardeinstellung“ bei jedem Kunden, der die
Seite des Anbieters besucht und von der Personalisierung gar keine Kenntnis hat.56
Möchte Staples– die Anwendbarkeit europäischen Rechts unterstellt– die Persona-
lisierung auf Art.6 I S.1 lit.a DSGVO stützen, dürfte die diesbezügliche Auswer-
tung der IP-Adresse erst nach Erteilung der Einwilligung stattnden und könnte
sich erst dann in personalisierten Preisen (in unmittelbarer Form oder in Form von
Gutscheinen, personalisierten Coupons etc.) niederschlagen.
Die auf die Einwilligung bezogene Kommunikation mit dem Kunden kann auf
verschiedene Weisen erfolgen. Es wäre möglich, die Einwilligung mithilfe eines Pop-
up-Fensters, eines beim Aufrufen der Seite erscheinenden Banners bzw. einer ander-
weitigen Einblendung zu ersuchen, solange sichergestellt ist, dass nur eine aktive,
53 Siehe dazu Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 360f. (auch zum sehr
fernliegenden Fall des Art.9 II lit. e DSGVO (vom Kunden offensichtlich öffentlich gemachte
sensible Daten)).
54 Vgl. dazu Article 29 Data Protection Working Party, Guidelines on Consent under Regulation
2016/679, 2018, S.16; Buchner/Kühling, in: dies. (Hrsg.), Datenschutz-Grundverordnung/Bun-
desdatenschutzgesetz, 32020, Art.7 Rn.58–58c DSGVO; Kühling/Martini, EuZW 2016, 448, 451
und Buchner, DuD 40 (2016), 155, 158, wonach es nicht „am einzelnen Betroffenen [ist], durch
Auskreuzen, Ausklicken, Durchstreichen o.Ä. die unterstellte Einwilligung im konkreten Fall wie-
der hinfällig zu machen.“
55 Steppe, Computer Law & Security Review 33 (2017), 768, 776f.
56 Ders., Computer Law & Security Review 33 (2017), 768, 776f. Vgl. auch Ernst, ZD 2017, 110,
111 (Einwilligung muss im Vorhinein erteilt werden; Genehmigung im Nachhinein ist nicht möglich).
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
239
bestätigende Handlung des Kunden als Einwilligung gewertet wird. Um ein unüber-
legtes „Wegklicken“ zu verhindern, mit dem der Kunde eine Einwilligung nur deshalb
erteilt, um die Anbieter-Seite möglichst schnell weiter benutzen zu können, weist Er-
wägungsgrund 32 DSGVO darauf hin, dass unnötige Unterbrechungen zu vermeiden
sind. Das (aktive) Ankreuzen eines Kästchens auf der Seite des Anbieters (entweder
unmittelbar in die Seite integriert oder in einem Pop-up-Fenster) kann eine Einwilli-
gungserklärung darstellen.57 Denkbar wäre etwa die Nutzung eines Zwei- Ebenen- Sys-
tems, welches so ausgestaltet ist, dass in der Einblendung eine pointierte Zusammen-
fassung des Verarbeitungszwecks (verbunden mit einer Einwilligungsmöglichkeit) zu
erkennen ist und zugleich über einen Link weiterführende, ausführlichere Informatio-
nen abgerufen werden können.58 Auf diese Weise kann der Anbieter von allen Kun-
den, die seine Seite besuchen, eine Einwilligung einholen. Dies gilt unabhängig da-
von, ob er im Moment des Seitenaufrufs ihre Identität (er)kennt, wie etwa bei
Bestandskunden, die über ein Cookie wiedererkannt werden, oder ob es sich um einen
gänzlich unbekannten Kunden handelt. Grundsätzlich ist es auch möglich, Einwilli-
gungen für bestimmte Sachverhalte im Vorhinein pauschal mithilfe der eigenen Brow-
ser-Einstellungen zu erklären (vgl. den Wortlaut von Erwägungsgrund 32 DSGVO:
„Auswahl technischer Einstellungen für Dienste der Informationsgesellschaft“).
Auch eine solche Erklärung darf nicht als Standardeinstellung voreingestellt sein,
sondern muss vom Kunden aktiv vorgenommen, z.B. angekreuzt werden. Aufgrund
der in diesen Fällen hohen Pauschalität der Einwilligungserklärungen und der nicht
unerheblichen Auswirkungen auf die Kunden sind in diesem Kontext erhöhte Anfor-
derungen an Transparenz und Kundenaufklärung zu stellen.
Unter bestimmten Voraussetzungen ist es möglich, dass ein Kunde ein Einwilli-
gungsersuchen wirksam annimmt, welches in allgemeinen Geschäftsbedingungen
oder in anderen vorformulierten Texten enthalten ist. In diesen Fällen kommt Art.7
II S.1 DSGVO zur Anwendung. Dieser postuliert gewisse Anforderungen hinsicht-
lich Form, Sprache und Darstellung bei bestimmten schriftlichen59 Erklärungen, die
57 So eindeutig Erwägungsgrund 32 DSGVO.
58 Vgl. dazu Article 29 Data Protection Working Party, Guidelines on Transparency under Regula-
tion 2016/679, 2018, S.19.
59 Nach ihrem Wortlaut bezieht die Norm sich auf „schriftliche“ Erklärungen. Deshalb steht zur
Diskussion, ob sie ausschließlich analoge Sachverhalte (unter Verwendung physisch vorhandener
Urkunden) erfasst. Dafür spricht vor allem der Wortlaut von Art.12 I S.2 DSGVO („Die Über-
mittlung der Informationen erfolgt schriftlich oder in anderer Form, gegebenenfalls auch elektro-
nisch.“), der eine materiell-rechtliche Unterscheidung zwischen schriftlichen und elektronischen
Erklärungen nahelegt. Allerdings sprechen die besseren Argumente dafür, dass der Anwendungs-
bereich des Art.7 II S.1 DSGVO auch rein elektronische Sachverhalte erfasst. Dies ergibt sich
zunächst mit Blick auf den Wortlaut des Erwägungsgrundes 32 DSGVO („etwa in Form einer
schriftlichen Erklärung, die auch elektronisch erfolgen kann“), welcher sich– im Gegensatz zu
Art.12 I S.2 DSGVO– auf Einwilligungen bezieht. Zudem spricht für diese eher weite Auslegung
der Sinn und Zweck der Norm: Der großen Bedeutung des Datenschutzes im Kontext von Online-
Sachverhalten und der Absicht des Verordnungsgebers, einen möglichst umfassenden Schutz zu
etablieren, kann nur Genüge getan werden, wenn auch rein elektronische Sachverhalte erfasst sind.
Die gebotene europarechtliche Auslegung der Norm muss dementsprechend weit sein und lässt
keinen unmittelbaren Rückgriff auf den nationalen, in §126 BGB konkretisierten Begriff „Schrift-
I.Erste Stufe: Datenbeschaffung
240
neben der datenschutzrechtlichen Einwilligungserklärung noch andere Sachver-
halte betreffen.60 Das Einwilligungsersuchen muss demnach „in verständlicher und
leicht zugänglicher Form in einer klaren und einfachen Sprache so erfolgen, dass es
von den anderen Sachverhalten klar zu unterscheiden ist.“ Die Norm postuliert also
ein Gebot der gestalterischen und inhaltlichen Transparenz und bezweckt, dass das
Einwilligungsersuchen deutlich hervorgehoben präsentiert wird.61 Sie ist damit lex
specialis zu den in Art.4 Nr.11 DSGVO enthaltenen Anforderungen, dass die Ein-
willigung „in informierter Weise“ und „unmissverständlich“ abgegeben werden
muss.62 Die Ausgestaltung des Einwilligungsersuchens muss mithin so vorgenom-
men werden, dass der Kunde weiß, dass er eine datenschutzrechtlich relevante Ein-
willigung erteilt hat und welchen Umfang diese (auch in zeitlicher Hinsicht) auf-
weist.63 Sie darf nicht in den AGBs untergehen. Der beabsichtigte Zweck
„Preispersonalisierung“ muss klar aus der Erklärung hervorgehen.
Der in Erwägungsgrund 42 DSGVO enthaltene Verweis auf die AGB- Richtlinie64
macht deutlich, dass die Datenschutz-Grundverordnung einer AGB-rechtlichen An-
gemessenheitskontrolle grundsätzlich nicht entgegensteht, auch wenn sie selber
eine solche in ihrem verfügenden Teil nicht vorsieht. Diese Angemessenheitskon-
trolle bezieht sich ausschließlich auf Art und Ausmaß der von der Einwilligung be-
handelten Datenverarbeitung. Es geht also nicht um die Überprüfung, ob die (ohne-
hin nicht dispositiven) Wirksamkeitsvoraussetzungen eingehalten werden, die die
Datenschutz-Grundverordnung aufstellt.65
Ein Einwilligungsersuchen, welches die Verarbeitung von Daten zum Zwecke
des Personalised Pricings zum Gegenstand hat, unterfällt wegen §307 III S.1 BGB
von vornherein nicht der Angemessenheitskontrolle des § 307 I S. 1 BGB: Die
Preishöhe ist grundsätzlich nicht von der AGB-Kontrolle erfasst.66 Allenfalls eine
Transparenzkontrolle gem. §307 III S.2 i.V.m. I S.2 BGB bleibt denkbar.67 Auf
die datenschutzrechtliche Wirksamkeit der Einwilligungserklärung hat die
AGB-rechtliche Transparenzkontrolle allerdings keine Auswirkungen.
form“ zu (vgl. Heckmann/Paschke, in: Ehmann/Selmayr (Hrsg.), Datenschutz-Grundverordnung,
22018, Art. 7 Rn. 76 f.; Klement, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Daten-
schutzrecht, 2019, Art.7 Rn.76).
60 Zur Formulierung „andere Sachverhalte“ vgl. Klement, in: Simitis/Hornung/Spiecker gen. Döh-
mann (Hrsg.), Datenschutzrecht, 2019, Art.7 Rn.76: Gemeint ist damit der Fall, dass in einer Er-
klärung nicht nur die Einwilligung als solche, sondern auch andere rechtserhebliche Akte enthalten
sind (beispielsweise eine auf Vertragsabschluss gerichtete Willenserklärung).
61 Buchner/Kühling, in: dies. (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.7 Rn.25f. DSGVO; Ernst, ZD 2017, 110, 113.
62 Klement, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019, Art.7 Rn.77.
63 So Erwägungsgrund 42 DSGVO.
64 Siehe zur AGB-Richtlinie bereits oben Kap. 10, II. 1.
65 Vgl. Klement, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019,
Art.7 Rn.80f.
66 Siehe dazu bereits oben Kap. 10, II. 1.
67 Siehe dazu bereits oben Kap. 10, II. 1.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
241
Mit Blick auf die Transparenz besteht angesichts der datenschutzrechtlichen Wirk-
samkeitsvoraussetzungen (Art. 4 Nr. 11, 6 und 7 DSGVO) ohnehin ein hohes
Schutzniveau. Diese Regelungen sind nicht dispositiv68 und kommen zudem (im
Gegensatz zu §307 III S.2 i.V.m. I S.2 BGB) unabhängig davon zur Anwendung,
ob der Kunde unangemessen benachteiligt wird i.S.d. §307 I S.1 BGB.
ccc. Ausgestaltung
Der Kunde muss seine Einwilligung „für einen oder mehrere bestimmte Zwecke“
erteilen, Art.6 I S. 1 lit. a DSGVO.69 Dieser Bestimmtheitsgrundsatz ergibt sich
auch aus Art.4 Nr.11 DSGVO („für den bestimmten Fall“) und aus dem allgemei-
nen Zweckbindungsgrundsatz des Art.5 I lit. b DSGVO („für festgelegte (…) Zwe-
cke“).70 Er sichert Kontrolle und Transparenz zugunsten des Betroffenen, hier also
des Kunden.71 Im Kontext von Preispersonalisierung bedeutet dies, dass diese als
Zweck konkret bezeichnet und auf (für den Durchschnittskunden) verständliche
Weise72 vom Anbieter beschrieben werden muss. Nur dann kann der Kunde „in in-
formierter Weise“ (Art. 4 Nr. 11 DSGVO) in die Datenverarbeitung zu diesem
Zweck einwilligen.73 Der Kunde muss deshalb u.a. auch absehen können, welche
Konsequenzen die von ihm erteilte Einwilligung möglicherweise für ihn haben
wird.74 Übertragen auf die Situation personalisierter Preise muss es für den Kunden
also ohne Weiteres möglich sein, zu verstehen, dass die Verarbeitung der sich auf
ihn beziehenden personenbezogenen Daten dazu dient, den Preis an seine Preissen-
sitivität bzw. seinen Reservationspreis anzupassen. Es muss für ihn auch erkennbar
sein, dass der von ihm verlangte Preis in Folge der Erteilung der Einwilligung und
basierend auf den Ergebnissen von Proling möglicherweise sinken oder steigen
wird. Das Personalisieren von Preisen kann nicht unter einen allgemeinen, weiter
gefassten Begriff wie „Personalisierung des Nutzererlebnisses“, „Personalisierung
der angebotenen Dienste/Dienstleistungen“, „Zusendung persönlicher Angebote“
o.Ä. gefasst werden.75 Dies liegt daran, dass es sich qualitativ und mit Blick auf die
möglicherweise beim Kunden eintretenden (möglicherweise auch negativen) wirt-
68 Wendehorst/Graf von Westphalen, NJW 2016, 3745, 3748.
69 Siehe dazu auch Erwägungsgrund 32 DSGVO; Schantz, in: Simitis/Hornung/Spiecker gen. Döh-
mann (Hrsg.), Datenschutzrecht, 2019, Art.6 I Rn.8.
70 In der englischsprachigen Fassung wird in beiden genannten Normen der Ausdruck „specied
purposes“ verwendet (vgl. auch ders., in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Da-
tenschutzrecht, 2019, Art.6 I Rn.8).
71 Article 29 Data Protection Working Party, Guidelines on Consent under Regulation 2016/679,
2018, S.11.
72 Dass., Guidelines on Consent under Regulation 2016/679, 2018, S.14.
73 Vgl. dass., Guidelines on Consent under Regulation 2016/679, 2018, S.11; Buchner/Kühling, in:
dies. (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32020, Art.7 Rn.63 DSGVO.
74 Vgl. Buchner/Kühling, in: dies. (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.7 Rn.59 DSGVO.
75 Steppe, Computer Law & Security Review 33 (2017), 768, 777 und Zuiderveen Borgesius/Poort,
J Consum Policy 40 (2017), 347, 359. Vgl. auch die Beispiele bei Ernst, ZD 2017, 110, 113.
I.Erste Stufe: Datenbeschaffung
242
schaftlichen Effekte bei Preispersonalisierung um einen speziellen Verarbeitungs-
zweck handelt, den der Kunde oftmals weder erwarten noch als Konzept grundsätz-
lich gutheißen würde.76
Die konkreten Anforderungen, die an das notwendige Maß an Bestimmtheit ei-
ner Einwilligungserklärung zu stellen sind, sind relativ und je nach Verarbeitungs-
zweck, zum Einsatz kommendem Datenmaterial und zu erwartenden Auswirkungen
auf die Rechte und Interessen des Betroffenen einer Abwägung zu unterwerfen.77
Kunden stehen personalisierten Preisen oftmals skeptisch gegenüber und fürchten
(oftmals unabhängig davon, ob diese Sorge in ihrem Fall tatsächlich begründet ist),
dass sie selber durch höhere Preise benachteiligt werden.78 Eine hohe Relevanz ist
aus ihrer Sicht also gegeben. Dafür spricht auch die Auswertung von Verbraucher-
beschwerden, von der das britische Ofce of Fair Trading berichtet.79 Nach Ansicht
der Behörde kann das Vertrauen in Online-Märkte absinken, wenn Kunden die
Preissetzungsmethoden von Anbietern nicht verstehen oder wenn sie befürchten,
dass diese für sie als Individuen zu höheren Preisen führen.80 Sie macht deshalb
deutlich, dass Transparenz, Mitwirkungsmöglichkeiten (bei der Datenerhebung)
und Verständnis (der preisbezogenen Abläufe) für das Aufrechterhalten von Ver-
trauen in Online-Märkte von großer Bedeutung sind.81 Auf datenschutzrechtlicher
Ebene muss dies in den Anforderungen zum Ausdruck kommen, die an die Wirk-
samkeit einer Einwilligung gestellt werden. Gerade weil Kunden heimlich stattn-
dender Preispersonalisierung skeptisch gegenüberstehen, ist es notwendig, das Aus-
maß der dafür notwendigen Datenverarbeitung transparent offenzulegen, um dem
Bestimmtheitsgrundsatz des Art.6 I S.1 lit. a DSGVO und den Anforderungen, die
Art.4 Nr.11 DSGVO an die Informiertheit Betroffener stellt, gerecht zu werden.82
Das datenschutzrechtliche Konzept der Einwilligung als Rechtsgrundlage ist ein
unmittelbarer Aususs des Rechts auf informationelle Selbstbestimmung.83 Es kann
deshalb nur dann sinnvoll ausgeübt werden, wenn die aus Kundensicht relevanten
Aspekte diesem vollumfänglich bekannt sind.
Aufgrund dieser bestehenden Skepsis und aufgrund der kundenseitig beige-
messenen Relevanz ist fraglich, ob es den Kunden möglich sein muss, die Einwil-
76 Vgl. Steppe, Computer Law & Security Review 33 (2017), 768, 777.
77 Vgl. Buchner/Kühling, in: dies. (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.7 Rn.65 DSGVO; Schantz, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.),
Datenschutzrecht, 2019, Art.6 I Rn.9.
78 Maggiolino, Bocconi Legal Studies Research Paper No. 2984840 2017, 1, 12; Ofce of Fair
Trading, Personalised Pricing, 2013, S.19f.; Zuiderveen Borgesius/Poort, J Consum Policy 40
(2017), 347, 355.
79 Ofce of Fair Trading, Personalised Pricing, 2013, S.19.
80 Dass., Personalised Pricing, 2013, S.19f.
81 Dass., Personalised Pricing, 2013, S.20.
82 So auch Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 359.
83 Buchner/Petri, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.6 Rn.17 DSGVO; Schantz, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.),
Datenschutzrecht, 2019, Art.6 I Rn.3. Vgl. auch Art.8 II S.1 GRCh, der unmittelbar auf die Einwil-
ligung als Rechtsgrundlage Bezug nimmt.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
243
ligung in die Datenverarbeitung zwecks Preispersonalisierung ggf. immer auch
gesondert – also unabhängig von anderen vom Anbieter beabsichtigten Verarbei-
tungszwecken– erteilen bzw. durch Nichterteilung bewusst ablehnen zu können.
Diese Frage hat dann Relevanz, wenn der Anbieter möchte, dass der Kunde in meh-
rere verschiedene Datenverarbeitungsvorgänge einwilligt, etwa in Preispersonali-
sierung einerseits und in Zusendung personalisierter Werbung andererseits. Dogma-
tischer Angelpunkt ist dabei die Freiwilligkeit der Einwilligungserklärung. Gemäß
Erwägungsgrund43 DSGVO liegt diese nicht vor, wenn für verschiedene Verarbei-
tungsvorgänge keine gesonderten Einwilligungserklärungen erteilt werden können,
„obwohl dies im Einzelfall angebracht ist“. Weitere Auslegungshinweise über
diesen rein normativen Ausdruck hinaus gibt die Datenschutz-Grundverordnung
nicht.84 Eine pauschale Aussage kann damit nicht getroffen werden, da letztlich
immer der Gesamtzusammenhang mit den anderen vom Anbieter ersuchten Einwil-
ligungserklärungen und ihren Auswirkungen auf den Kunden herzustellen ist.85
Grundsätzlich wird eine separate Einwilligungsmöglichkeit aber tendenziell nicht
zu verlangen sein, solange der Kunde nicht auf einen Vertragsabschluss mit dem
konkreten Anbieter angewiesen ist. Solange er die Möglichkeit hat, zu einem Kon-
kurrenten zu wechseln, bleibt seine Erklärung freiwillig.86
Aus demselben Grund liegt im Regelfall auch kein Verstoß gegen das sog. Kop-
pelungsverbot des Art.7 IV DSGVO vor. Laut dieser Norm muss bei der Beurtei-
lung der Freiwilligkeit „dem Umstand in größtmöglichem Umfang Rechnung getra-
gen werden, ob unter anderem die Erfüllung eines Vertrags, einschließlich der
Erbringung einer Dienstleistung, von der Einwilligung zu einer Verarbeitung von
personenbezogenen Daten abhängig ist, die für die Erfüllung des Vertrags nicht
erforderlich sind.“ Die Bestimmung der Freiwilligkeit wird damit maßgeblich, aber
nicht absolut87 von der Erforderlichkeit der Datenverarbeitung abhängig gemacht.
Das Koppelungsverbot „soll die freie und eigenständige Willensbetätigung des Nut-
zers bei der Einwilligung schützen und dadurch verhindern, dass ein faktischer
Zwang zur Einwilligung in die Datenverwendung entsteht.“88 Unter Zugrundele-
gung eines objektiven Verständnisses ist die Freiwilligkeit mit Blick auf die Interes-
sen des Anbieters durchaus zu bejahen, sofern Preispersonalisierung Teil seines
Geschäftsmodells ist und er die dafür notwendige Datenverarbeitung als Entschei-
84 Vgl. dazu Article 29 Data Protection Working Party, Guidelines on Consent under Regulation
2016/679, 2018, S.10, die mit Blick auf die Formulierung des Erwägungsgrundes 43 DSGVO
granulare Einwilligungsmöglichkeiten wohl als Regelfall ansieht.
85 Vgl. dazu auch Klement, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht,
2019, Art.7 Rn.6, der– im Gegensatz zur Article 29 Data Protection Working Party– zu Recht
kein „striktes Gebot der Granularität“ zu erkennen vermag.
86 Vgl. Heckmann/Paschke, in: Ehmann/Selmayr (Hrsg.), Datenschutz-Grundverordnung, 22018,
Art.7 Rn.52.
87 Article 29 Data Protection Working Party, Guidelines on Consent under Regulation 2016/679, 2018,
S.9. So auch Schlussanträge des Generalanwalts Maciej Szpunar, C-673/17, ECLI:EU:C:2019:246,
Rn.98 (Planet49).
88 Heckmann/Paschke, in: Ehmann/Selmayr (Hrsg.), Datenschutz-Grundverordnung, 22018, Art. 7
Rn.94.
I.Erste Stufe: Datenbeschaffung
244
dungs- und Kalkulationsgrundlage für das Vertragsangebot dem Kunden gegenüber
betrachtet.89 Dem Anbieter geht es also nicht darum, zu Lasten der Privatsphäre des
Kunden Ziele zu verwirklichen, die über den Gegenstand des konkret in Rede
stehenden Vertrages hinausgehen (wie etwa die Weitergabe der Daten an Dritte zu
Werbezwecken), und dies über eine Einwilligung legitimieren zu lassen, die der
Kunde nur aufgrund eines bestehenden faktischen Zwangs abgibt. Stattdessen be-
steht eine inhaltliche Sachnähe zur (im Falle des Vertragsabschlusses zustande kom-
menden) Hauptleistungspicht des Kunden, nämlich zu dem von ihm zu zahlen-
den Preis.
Der Anbieter kann den Vertragsabschluss also grundsätzlich gänzlich davon ab-
hängig machen, dass der Kunde in die Datenverarbeitung zwecks Preispersonalisie-
rung einwilligt. Ob er sich mit dieser Vorgehensweise am Markt behaupten kann,
dürfte in tatsächlicher Hinsicht vor allem von seiner Marktstärke und den von ihm
realisierbaren Preisen abhängen. Das Freiwilligkeitskriterium der Art.4 Nr.11, 7 IV
DSGVO kann dann als Korrektiv wirken– und eine datenschutzrechtliche Grenze
ziehen –, wenn der Anbieter eine marktbeherrschende Stellung bzw. eine Monopol-
stellung innehat und die Freiwilligkeit deshalb abzulehnen ist.90 In diesen Fällen ist
eine datenschutzrechtliche Korrektur über das Koppelungsverbot durchaus denkbar
und sinnvoll. Datenschutzrechtliche Konformität wäre dann leicht herzustellen, in-
dem dem Kunden die Möglichkeit gegeben wird, in die Datenverarbeitung zwecks
Preispersonalisierung gesondert einzuwilligen, dieses Einwilligungsersuchen also
von anderen abzutrennen. Dogmatisch lässt sich dies an den bereits diskutierten
Erwägungsgrund 43 DSGVO anknüpfen, der in den Fällen, in denen es „im Einzel-
fall angebracht ist“, für verschiedene Verarbeitungsvorgänge gesonderte Einwilli-
gungsmöglichkeiten verlangt, um die Freiwilligkeit abzusichern.
ddd. Keine Einwilligung inDiskriminierung
Eine Einwilligung in eine Art von Preispersonalisierung, die bezweckt oder bewusst
in Kauf nimmt, dass durch die Datenverarbeitung letztlich geschützte Gruppen
durch höhere Preise diskriminiert werden, ist unwirksam. Dies ergibt sich aus dem
datenschutzrechtlichen Zweckbindungsgrundsatz, Art.5 I lit. b DSGVO.Demnach
müssen Daten für „legitime Zwecke erhoben werden und dürfen nicht in einer
mit diesen Zwecken nicht zu vereinbarenden Weise weiterverarbeitet werden“. Der
Ausdruck „legitim“ ist begrifich weiter gefasst als die frühere Formulierung
„rechtmäßig“ (Art.6 I lit. b DSRL). Der Anspruch an die Legitimität des Zweckes
geht damit über eine rein formelle Rechtmäßigkeit (etwa das Vorliegen einer Rechts-
grundlage oder das Einhalten von Informationspichten) hinaus. Er stellt darauf ab,
ob die Verarbeitung zu einem von der Rechtsordnung missbilligten Zweck erfolgt.91
89 Vgl. Buchner/Kühling, in: dies. (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.7 Rn.47 DSGVO.
90 So auch Steppe, Computer Law & Security Review 33 (2017), 768, 777 (ohne explizite Bezug-
nahme auf Art.7 IV DSGVO).
91 Monreal, ZD 2016, 507, 509; Schantz, in: Wolff/Brink (Hrsg.), Beck’scher Online-Kommentar
Datenschutzrecht, 43. Edition (Stand: 1.2.2023), Art.5 Rn.17 DSGVO.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
245
Die zu berücksichtigenden Rechtsquellen sind sehr weitreichend und umfassen ne-
ben allgemeinen verfassungsrechtlichen auch spezisch antidiskriminierungs-
rechtliche Grundsätze.92 Eine Datenverarbeitung mit dem eingangs beschriebenen
Zweck wäre demnach nicht legitim. Da die Datenverarbeitung auf Seiten des An-
bieters datenschutzrechtlich unzulässig ist, kann der Kunde auch keine wirksame
Einwilligung in diese Verarbeitung geben i.S.d. Art.6 I S.1 lit.a DSGVO.Bei
der Bewertung der Legitimität des Zwecks kommt es also nicht darauf an, ob der
Kunde ihn billigt oder nicht. Solange der Anbieter gegen. Art.5 I lit. b DSGVO
verstößt, kann der Kunde von vornherein nicht wirksam in die Datenverarbeitung
einwilligen.
In der Praxis nahe liegender ist die Situation, dass die Diskriminierung geschütz-
ter Gruppen ohne Wissen und Wollen des Anbieters stattndet. Dieser Effekt kann
etwa bei Verwendung von Trainingsdaten eintreten, die unvollständig sind oder his-
torisch bedingte Stereotype enthalten. Die Diskriminierung ist dann nicht Zweck,
sondern unerkannter (und dementsprechend nicht als solcher benannter) Nebenef-
fekt der Verarbeitung. Auch in solch einem Fall muss der Einwilligung ihre legiti-
mierende Wirkung abgesprochen werden: Der Anbieter kann durch seine Unwis-
senheit nicht privilegiert werden, zumal er die Verantwortung für die Einhaltung der
Datenschutzgrundsätze trägt (Art.5 II DSGVO). Dogmatisch lässt sich dies auch
mit Art.4 Nr.11 DSGVO begründen: Die (potenziell) diskriminierende Wirkung
der Datenverarbeitung ist für den Kunden von so wesentlicher Natur, dass er ohne
dahingehende Kenntnis keine Einwilligung „in informierter Weise“ abgeben kann.
eee. Zwischenergebnis
Anbieter, die Personalised Pricing betreiben wollen, können sich für die dafür not-
wendige Datenverarbeitung grundsätzlich auf eine Einwilligung des Kunden als da-
tenschutzrechtliche Rechtsgrundlage berufen. Voraussetzung dafür ist, dass die Vor-
gaben der Art.6 I S. 1 lit. a, 4 Nr. 11, 7 DSGVO erfüllt sind. Eine wirksame
Einwilligungserklärung muss zwingend in Form einer „eindeutigen bestätigenden
Handlung“ des Kunden i.S.d. Art.4 Nr.11 DSGVO erfolgen. Widerspruchslösungen,
wonach der Kunde aus der Datenverarbeitung zwecks Preispersonalisierung aktiv
herausoptieren muss, sind nach dem klaren Wortlaut der Datenschutz- Grundverord-
nung93 unzulässig und können keine Grundlage für eine rechtmäßige Datenverarbei-
tung sein. Der Anbieter verfügt allerdings über eine nicht unerhebliche Gestaltungs-
freiheit, auf welche Weise er sein Einwilligungsersuchen präsentieren möchte: Als
Teil von Allgemeinen Geschäftsbedingungen, als Pop-up, über ein Zwei-Ebenen-
92 Siehe Article 29 Data Protection Working Party, Opinion 03/2013 on Purpose Limitation, 2013,
S.19f. („The requirement of legitimacy means that the purposes must be ‘in accordance with the
law’ in the broadest sense. This includes all forms of written and common law, primary and se-
condary legislation, municipal decrees, judicial precedents, constitutional principles, fundamental
rights, other legal principles, as well as jurisprudence (…)“). Auch Helbing, K&R 2015, 145, 146
stellt ausdrücklich auf die Einhaltung u.a. des Antidiskriminierungsrechts ab.
93 Dies ergibt sich vor allem auch aus Erwägungsgrund 32 DSGVO.
I.Erste Stufe: Datenbeschaffung
246
System etc. Es gelten hohe Anforderungen, die der Anbieter erfüllen muss, um (vor
allem) die Freiwilligkeit und Informiertheit des Kunden sicherzustellen und dem
Bestimmtheitsgrundsatz, der sich aus einer Zusammenschau von Art.6 I S.1 lit. a,
4 Nr.11, 5 I lit. b DSGVO ergibt, gerecht zu werden. Transparenz und eine darauf
basierende, bewusste und autonome Entscheidung des Kunden charakterisieren die
Einwilligung im Kontext des Personalised Pricings. Die Bedeutung der Freiwillig-
keit der vom Kunden erteilten Einwilligung kann im Kontext des in Art.7 IV DS-
GVO enthaltenen Koppelungsverbots eine wettbewerblich relevante Reexwirkung
entfalten. Im Regelfall steht es dem Anbieter frei, das Kontrahieren mit dem Kun-
den gänzlich von einer Einwilligung (in die Datenverarbeitung zwecks Preisperso-
nalisierung) abhängig zu machen. Es besteht eine hohe Sachnähe zwischen der vom
Anbieter erstrebten Datenverarbeitung einerseits und der Bestimmung der Haupt-
leistungspicht des Kunden, also des von ihm zu zahlenden Preises andererseits. Es
liegt mithin kein „Erzwingen“ einer Einwilligung vor, die der Kunde eigentlich gar
nicht erteilen möchte und nur abgibt, weil er keine andere Wahl hat. Anders ist hin-
gegen die Rechtslage zu beurteilen, wenn der Anbieter eine marktbeherrschende
bzw. Monopolstellung innehat. Diese kann dazu führen, dass bei objektiver Be-
trachtungsweise keine Freiwilligkeit mehr vorliegt.94 Das Datenschutzrecht, dessen
wesentlicher Schutzgegenstand die informationelle Selbstbestimmung ist, bewirkt
in diesen Fällen indirekt eine Regulierung von Wettbewerbsprozessen, indem es den
Anbieter zum Anbieten nuancierterer Einwilligungsmöglichkeiten verpichtet und
damit seine unternehmerische Freiheit (vgl. Art.16 GRCh) einschränkt. Eine Ein-
willigung in eine geschützte Gruppen diskriminierende Datenverarbeitung hat stets
keine legitimierende Wirkung, unabhängig vom Wissen und Wollen der beteiligten
Parteien.
bb. Vertragliche oder vorvertragliche Notwendigkeit
Es wäre denkbar, dass der Anbieter sich auf Art.6 I S.1 lit. b DSGVO als Rechts-
grundlage stützen könnte. Demnach ist die Datenverarbeitung rechtmäßig, wenn sie
„für die Erfüllung eines Vertrags, dessen Vertragspartei die betroffene Person ist,
oder zur Durchführung vorvertraglicher Maßnahmen erforderlich [ist], die auf An-
frage der betroffenen Person erfolgen“. Dieser Erlaubnistatbestand basiert auf der
Überlegung, dass eine Datenverarbeitung dann zulässig sein muss und keiner wei-
tergehenden Rechtfertigung bedarf, wenn sie aus Sicht des potenziellen bzw. tat-
sächlichen Vertragspartners erforderlich ist und vom Betroffenen initiiert wurde
(und damit auf seinen zum Ausdruck gebrachten Willen zurückzuführen ist).95 Der
Anwendungsbereich der Norm ergibt sich unmittelbar aus ihrem Wortlaut: Entwe-
der hat der Betroffene sich bewusst dafür entschieden, mit dem Verantwortlichen
einen Vertrag abzuschließen (erste Alternative) oder er bendet sich „auf Anfrage“,
94 Instruktiv dazu Paal, ZWeR 2020, 215, 228ff.
95 Buchner/Petri, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.6 Rn.26 DSGVO.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
247
also auf eigene Veranlassung hin,96 mit diesem in einem vorvertraglichen Zustand
(zweite Alternative). Im Kontext von Online-Preispersonalisierung würde sich mit
Blick auf diesen Rechtfertigungstatbestand die Frage stellen, ab welchem Zeitpunkt
von vorvertraglichen Maßnahmen i.S.d. Art.6 I S.1 lit. b DSGVO ausgegangen
werden kann. Fraglich wäre insbesondere, ob bereits das bloße Surfen auf der Seite
des Anbieters zwecks Einholung von Preisinformationen genügt, um von einer „An-
frage“ des Kunden auszugehen, oder ob ein intensiverer, sich bereits konkretisie-
render geschäftlicher Kontakt zwischen den Parteien notwendig ist.97
Diese Fragen können allerdings dahingestellt bleiben. Die Verarbeitung perso-
nenbezogener Daten zum Zweck der Preispersonalisierung ist nicht „erforderlich“
i.S.d. Art.6 I S.1 lit. b DSGVO.Der Begriff der Erforderlichkeit ist nicht im Sinne
einer „absoluten Unverzichtbarkeit“ zu verstehen. Er ist damit einer wertenden Aus-
legung zugänglich.98 Grundsätzlich ist eine enge Auslegung geboten.99 Nur auf
diese Weise kann verhindert werden, dass der Anbieter solche Datenverarbeitungs-
vorgänge auf Art.6 I S.1 lit. b DSGVO stützt, welche ihm zwar zweckdienlich er-
scheinen, die aber über den eigentlichen Vertragszweck hinausgehen und mithin
nicht mehr vom Willen des Kunden gedeckt sind.100 Ein Proling des Kunden, um
ihm gegenüber Preise anzupassen, ist bei objektiver Betrachtungsweise mit Blick
auf die hier diskutierten Verträge (über den Erwerb von Gegenständen oder Dienst-
leistungen) für den Anbieter zwar durchaus nützlich, da er sich auf diese Weise
möglicherweise besser im Wettbewerb behaupten und höhere Umsätze generieren
kann. Dies macht die Datenverarbeitung aber noch nicht erforderlich i.S.d. Art.6 I
S.1 lit. b DSGVO.101 Diese spezielle Art der Datenverarbeitung kann nämlich nicht
mehr auf die „Anfrage“ des Kunden zurückgeführt werden. Er kann nicht mit einer
so weitreichenden Datenverarbeitung rechnen. Auch nach Vertragsschluss ist keine
Erforderlichkeit gegeben, da zu diesem Zeitpunkt der Preis schon festgelegt ist. Die
informationelle Selbstbestimmung des Kunden legitimiert die Verarbeitungsmög-
lichkeiten des Anbieters zwar, soweit dies aus (vor)vertraglichen Gründen notwen-
96 Ein rein einseitiges Tätigwerden des Anbieters genügt also keinesfalls, um diesen Rechtferti-
gungsgrund zu aktivieren, vgl. Article 29 Data Protection Working Party, Opinion 06/2014 on the
Notion of Legitimate Interests of the Data Controller under Article 7 of Directive 95/46/EC, 2014,
S.18 (zur Vorgängernorm Art.7 lit. b DSRL).
97 Kritisch und ein vorvertragliches Verhältnis (eher) ablehnend Steppe, Computer Law & Security
Review 33 (2017), 768, 778.
98 Buchner/Petri, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.6 Rn.45 DSGVO.Siehe dazu auch schon oben Kap.4, II. 1. b.
99 Dies., in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.6 Rn.26 DSGVO.
100 Article 29 Data Protection Working Party, Opinion 06/2014 on the Notion of Legitimate In-
terests of the Data Controller under Article 7 of Directive 95/46/EC, 2014, S.16f.; Buchner/
Petri, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.6 Rn.42 DSGVO.
101 So auch Roßnagel, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht,
2019, Art.6 I Rn.42 und Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 360 und
wohl (ohne eindeutige Festlegung) auch Steppe, Computer Law & Security Review 33 (2017),
768, 778f.
I.Erste Stufe: Datenbeschaffung
248
dig ist– zugleich setzt sie ihnen aber auch Grenzen, sobald der Verarbeitungszweck
sich vom Vertragsinhalt zu weit entfernt.
Die Erforderlichkeit wird hier im Kontext des Art.6 I S.1 lit. b DSGVO also
abgelehnt, obwohl sie bei der Prüfung der Rolle des Koppelungsverbots (Art.7 IV
DSGVO) bejaht wurde. Diese unterschiedliche Auslegung des vom Wortlaut her
gleichen Begriffs liegt darin begründet, dass die Rückkoppelung an den tatsächli-
chen Willen des Kunden bei einer Einwilligungserklärung unmittelbar gegeben ist.
Die hohen Anforderungen, die an eine wirksame Einwilligung gestellt werden, die-
nen als Schutzmechanismus zugunsten des Kunden, sodass mit Blick auf die Er-
forderlichkeit als Teilaspekt davon ein niedrigerer Begründungsaufwand notwendig
ist. Ihre Abgabe ist das Ergebnis einer autonomen Entscheidung, die „in informier-
ter Weise“ (Art.4 Nr.11 DSGVO) getroffen wurde. Das „Anfragen“ von vorver-
traglichen Maßnahmen (Art.6 I S.1 lit. b DSGVO) kann hingegen nicht dergestalt
interpretiert werden. Durch die Einleitung von Vertragsverhandlungen gibt der
Kunde aus Sicht eines objektiven Dritten nicht zu erkennen, dass er damit einver-
standen ist, dass seine personenbezogenen Daten mit dem Ziel der Preispersonali-
sierung erhoben und ausgewertet werden.
Die Bejahung der Erforderlichkeit wird diskutiert und teilweise bejaht, wenn es
um die Bonitätsprüfung von Kreditnehmern (Kredit-Scoring) und um die Risikobe-
urteilung von potenziellen Versicherungsnehmern bei der Bestimmung der Höhe
von Versicherungstarifen geht.102 In der Sache ist die Bejahung der Erforderlich-
keit– je nach Sachverhalt– grundsätzlich überzeugend: Der (in Vorleistung ge-
hende) Kreditgeber hat ein legitimes Interesse daran, anhand einer Kreditwürdig-
keitsprüfung zu bestimmen, ob er mit einer Rückzahlung des Kreditbetrages rechnen
kann. Die Erforderlichkeit i.S.d. Art.6 I S.1 lit. b DSGVO ergibt sich daraus, dass
der Vertragsabschluss schon dem Grunde nach für ihn nur bei positivem Ausgang
dieser Prüfung überhaupt Sinn ergibt. Der Schwerpunkt der Bonitätsprüfung liegt
hier aber nicht auf der Personalisierung des Preises, sondern auf der Frage, ob das
Geschäft überhaupt eingegangen werden sollte.103 Es geht also nicht um eine „Nütz-
lichkeit“ für den Anbieter, sondern um eine grundlegende, mithin „erforderliche“
Fragestellung. Ähnliches gilt für die Berechnung der Höhe von Versicherungstari-
fen: Die Auswertung personenbezogener Daten dient hier vordergründig der Ab-
schätzung des Risikos, das die Versicherung abdecken soll (sog. risk-based Pri-
cing104). Die Bedeutung der Datenverarbeitung für die Versicherung ist bei objektiver
102 Tendenziell für die Bejahung der Erforderlichkeit Buchner/Petri, in: Kühling/Buchner (Hrsg.),
Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32020, Art.6 Rn.47f. und 69–72 DS-
GVO.Sehr kritisch hingegen Article 29 Data Protection Working Party, Opinion 06/2014 on the
Notion of Legitimate Interests of the Data Controller under Article 7 of Directive 95/46/EC, 2014,
S.18 und Roßnagel, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019,
Art.6 I Rn.42.
103 Eine gewisse Preispersonalisierung ist dann gegeben, wenn aufbauend auf dem Kredit-Scoring
(im Falle einer grundsätzlich gegebenen Bonität des Kreditantragstellers) die Modalitäten der Kre-
ditvergabe, wie etwa die Zinshöhe, bestimmt werden.
104 Der unterschiedliche Preis spiegelt in diesen Fällen nur die unterschiedlichen Kosten wider,
weshalb nach hiesigem Verständnis konzeptionell keine Preispersonalisierung vorliegt. Siehe dazu
bereits oben Kap.6, I. 3.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
249
Betrachtungsweise hoch, da nur so die Tarifhöhe sinnvoll bestimmt werden kann.
Es besteht damit eine große inhaltliche Sachnähe zum eigentlichen Vertragsgegen-
stand. Dies ist auch aus Sicht des Versicherungsnehmers ohne Weiteres erkennbar.
Die Datenverarbeitung zwecks Bestimmung der Tarifhöhe geht mithin unmittelbar
auf seine Veranlassung zurück. Deshalb kann in dieser Situation viel eher von einer
Erforderlichkeit ausgegangen werden, als dies bei Preispersonalisierung beim
Online- Handel mit Waren und Dienstleistungen der Fall ist.
cc. Allgemeine Interessenabwägungsklausel
Als letzte denkbare Rechtsgrundlage für Personalised Pricing kommt die in Art.6 I
S.1 lit. f DSGVO enthaltene allgemeine Interessenabwägungsklausel in Betracht.
Dafür müsste die mit dem Ziel der Preispersonalisierung ausgeübte Datenverarbei-
tung für die Wahrung der berechtigten Interessen des Anbieters (oder eines Dritten)
erforderlich sein. Zugleich dürften die Interessen oder Grundrechte und Grundfrei-
heiten des Kunden, welche den Schutz personenbezogener Daten erfordern, die In-
teressen des Anbieters nicht überwiegen.
aaa. Berechtigtes Interesse des Anbieters
Der Anbieter kann sich in den hier diskutierten Fallkonstellationen auf die ökono-
mischen Vorteile berufen, die von Preispersonalisierung für ihn ausgehen können.
Sie ermöglicht ihm unter Umständen eine stärkere Position im Wettbewerb. Die
wirtschaftlichen Interessen des datenschutzrechtlich Verantwortlichen sind als
schützenswertes Interesse i.S.d. Art.6 I S.1 lit. f DSGVO anerkannt.105 Dies kann
grundlegend aus Art.16 GRCh abgeleitet werden.106 Für die Anerkennung dieses
Interesses im Verhältnis zwischen dem Anbieter und dem Kunden auch im daten-
schutzrechtlichen Kontext sprechen zudem die Ausführungen in Erwägungs-
grund 47 DSGVO: Dass ein Online-Anbieter von Waren und Dienstleistungen ge-
winnorientiert arbeitet, deckt sich mit den zu berücksichtigenden „vernünftigen
Erwartungen“ des Kunden. Zudem macht der genannte Erwägungsgrund deutlich,
dass zwischen dem Anbieter und dem Kunden generell durchaus eine rechtlich re-
levante Beziehung besteht, die auf Seiten des Anbieters berechtigte Interessen im
Sinne der Abwägungsklausel erwachsen lassen kann. Preispersonalisierung kann
grundsätzlich zu einer Ausweitung des Umsatzes des Anbieters führen und stellt bei
105 Frenzel, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32021, Art.6 Rn.28 DSGVO; Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/
Bundesdatenschutzgesetz, 32022, Art.6 Rn. 61 DSGVO.In der Google Spain-Entscheidung des
EuGH hat dieser zudem im Kontext der Vorgängernom zu Art.6 I S.1lit. f DSGVO (Art.7 lit.f
DSRL) die wirtschaftlichen Interessen von Google ausdrücklich als grundsätzlich schützenswertes
Interesse anerkannt (EuGH, C-131/12, ECLI:EU:C:2014:317, Rn.81).
106 Vgl. Steppe, Computer Law & Security Review 33 (2017), 768, 780.
I.Erste Stufe: Datenbeschaffung
250
Zugrundelegung wirtschaftlicher Zielvorstellungen den beabsichtigten Zweck die-
ses Vorgehens dar. Dieses Ziel kann durch die unmittelbare oder mittelbare Anpas-
sung des im Einzelfall verlangten Preises an den jeweiligen Reservationspreis des
Kunden realisiert werden. Wenn es beispielsweise gelingt, ein Produkt durch Ab-
senkung des Preises an einen Kunden zu verkaufen, der zum regulären Referenz-
preis des Anbieters nicht zum Kauf bereit wäre, liegt der Gewinn im Verhältnis zu
diesem Kunden niedriger als bei anderen Kunden. Der Verkauf ergibt ökonomisch
betrachtet für den Anbieter aber Sinn, da er immer noch Gewinn erzielt, den Umsatz
ausweitet und den Käufer möglicherweise an das Unternehmen bindet. Die preisli-
che Individualisierung kann in ihrer umsatzsteigernden Wirkung auch durch psy-
chologische Effekte verstärkt werden. So generieren (vermeintlich) besonders gute,
zeitgebundene Sonderpreise oder andere besonders vorteilhafte, an den Kunden si-
tuationsabhängig angepasste Konditionen für diesen einen besonderen Reiz.107 Wei -
ter verstärkt werden kann dieser Effekt durch individualisierte Werbung und ander-
weitige Personalisierungen des Angebots, wie es etwa bei Search Discrimination
der Fall ist. Preispersonalisierung stellt mithin einen Teilaspekt der Absatz- und
Marketing-Bemühungen des Anbieters dar. Gleichzeitig nimmt dieser Verarbei-
tungszweck aber auch eine Sonderrolle ein: Es geht nicht (nur) darum, den Kaufent-
schluss des Kunden zu fördern oder auszulösen. Über das Werben hinaus kommt es
zu einer wirtschaftlichen Ungleichbehandlung, wodurch der einzelne Kunde im
Vergleich zu anderen bevorzugt oder benachteiligt wird. Auf weitergehende Interes-
sen als die genannten wirtschaftlichen kann der Anbieter sich nicht berufen.
bbb. Erforderlichkeit
Die Datenverarbeitung zwecks Preispersonalisierung müsste zudem erforderlich
i.S.d. Art.6 I S.1 lit. f DSGVO sein, um die Interessen des Anbieters zu wahren.
Dabei gilt grundsätzlich, dass sich „die Ausnahmen und Einschränkungen in Bezug
auf den Schutz der personenbezogenen Daten auf das absolut Notwendige be-
schränken müssen“.108 Es geht also darum, ob die vom Anbieter verfolgten Interes-
sen– in den vorliegend untersuchten Konstellationen also die soeben beschriebenen
wirtschaftlichen Ziele– auf andere Weise mit gleicher Effektivität verwirklicht
werden können und auf diesem Wege die Interessen etc. des Kunden weniger
stark beeinträchtigt werden.109 Grundsätzlich stehen dem Anbieter verschiedene
Möglichkeiten zur Verfügung, um seinen Umsatz auf datenschutzrechtlich neutra-
lem oder zumindest weniger eingriffsintensivem Wege zu steigern. Preisdiskrimi-
nierung 2. Grades beispielsweise ist konzeptionell nicht auf die Verarbeitung perso-
107 Vgl. dazu etwa Ezrachi/Stucke, Virtual Competition, 2016, S.112.
108 So der EuGH, C-13/16, ECLI:EU:C:2017:336, Rn.30 (Rīgas satiksme) zur Vorgängernorm des
Art.6 I S.1 lit. f DSGVO (Art.7 lit. f DSRL).
109 Vgl. Schantz, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019,
Art.6 I Rn.100.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
251
nenbezogener Daten angewiesen und löst mit Blick auf die Preisbildung deshalb
keine datenschutzrechtlichen Pichten auf Seiten des Anbieters aus. Entscheidet er
sich für sie als Preissetzungsmethode, ist es für ihn im Zeitpunkt seines Angebots
gar nicht notwendig, die Identität des Kunden oder seine konkreten Eigenschaften
zu kennen. Eine Bewertung persönlicher Aspekte i. S. d. Art. 4 Nr. 4 DSGVO
zwecks Bestimmung des Reservationspreises ndet nicht statt. Auch sind Sachver-
halte denkbar, die zwar datenschutzrechtliche Relevanz aufweisen, aber weniger
eingriffsintensiv ausgestaltet sind. Beispielsweise ist das Versenden von Gutschei-
nen per E-Mail, um einen Kaufanreiz zu schaffen, grundsätzlich datenschutzrecht-
lich relevant, da die dafür verarbeitete E-Mail-Adresse ein personenbezogenes Da-
tum ist.110 Diese Form der preisrelevanten Kundenansprache erfordert aber nicht
zwingend– wie es bei Preispersonalisierung nach hiesiger Denition der Fall ist –,
dass dabei persönliche Aspekte des Kunden ausgewertet und als Entscheidungs-
grundlage für die Gutscheinversendung herangezogen werden. Die Gutscheine kön-
nen stattdessen auch an alle Kunden oder nach dem Zufallsprinzip versendet wer-
den. Auch die Versendung der Gutscheine an bestimmte Kundengruppen– etwa an
solche Kunden, die in der Vergangenheit bereits Einkäufe mit einem bestimmten
Mindestwarenwert getätigt haben– kann im Vergleich zu Proling-basierter Preis-
personalisierung datenschutzfreundlicher ausgestaltet werden. Dies ist dann der
Fall, wenn die Auswahl der Empfänger nicht das Ergebnis der Bewertung persönli-
cher Aspekte i.S.d. Art.4 Nr.4 DSGVO ist, sondern eine Kategorisierung nach
objektiven Kriterien. In diesem Fall ist der Eingriff in das Recht auf informationelle
Selbstbestimmung des Kunden geringer, da der Anbieter keine (potenziell fehleran-
fällige) Extrapolation persönlicher Aspekte vornimmt.111
Trotz dieser bestehenden Alternativen wird man dem Anbieter die Erforderlich-
keit i.S.d. Art.6 I S.1 lit. f DSGVO nicht absprechen können. Es ist gerade der
Sinn (und aus Sicht des Anbieters: Reiz) von datenbasierter Preispersonalisierung,
dass diese zumindest in der Theorie eine besonders hohe Präzision und Effektivität
verspricht. Die individualisierte Nutzeransprache mit einem personalisierten Preis
verspricht, unabhängig von der Art der Preiskommunikation, vor allem eine efzi-
entere Zuweisung des „richtigen“ Preises an den jeweiligen Kunden, als dies bei
Preisdiskriminierung 2. Grades oder nicht-personalisierten Preissetzungsmethoden
der Fall ist. Das vom Anbieter verfolgte Interesse kann also nicht auf andere Weise
gleich effektiv verwirklicht werden. Die Datenverarbeitung zwecks Preispersonali-
sierung ist mithin erforderlich i.S.d. Art.6 I S.1 lit. f DSGVO.
110 Vgl. dazu auch das Beispiel bei Article 29 Data Protection Working Party, Opinion 06/2014 on
the Notion of Legitimate Interests of the Data Controller under Article 7 of Directive 95/46/EC,
2014, S.31 (zur Vorgängernorm des Art.6 I S.1 lit. f DSGVO (Art.7 lit. f DSRL)): Datenschutz-
rechtlich zulässige Zusendung von Gutscheinen per Briefpost durch einen Pizza-Service.
111 Vgl. dazu Council of Europe, The Protection of Individuals with Regard to automatic Processing
of personal Data in the Context of Proling, 2011, S.25f. Rn.41.
I.Erste Stufe: Datenbeschaffung
252
ccc. Interessen, Grundrechte und Grundfreiheiten des Kunden
Sobald personenbezogene Daten des Kunden ohne seine Einwilligung bzw. ander-
weitige, auf seinen Willen zurückzuführende Veranlassung verarbeitet werden, liegt
für diesen per se eine Beeinträchtigung seiner in Art.7 und 8 GRCh postulierten
Grundrechte (Recht auf Privatleben sowie Recht auf den Schutz personenbezogener
Daten) vor.112 Darüber hinaus ießen auch andere grundrechtlich geschützte Positi-
onen und legitime Interessen des betroffenen Kunden, wie etwa die wirtschaftlichen
Auswirkungen der Datenverarbeitung auf ihn, in die notwendige Abwägung mit ein.
Als Ausgangspunkt der Abwägung gilt generell, dass Art, Inhalt und Aussagekraft
der betroffenen Daten an den Aufgaben und Zwecken zu messen sind, denen die
Erhebung und Speicherung der Daten dient.113 Die Datenschutz-Grundverordnung
formuliert keine ausdrücklichen Kriterien, anhand welcher Maßstäbe und mit wel-
cher Gewichtung die Abwägung im Einzelfall auszuführen ist. Aus ihrer Systematik
lassen sich allerdings gewisse Schlussfolgerungen ableiten.114
Im Kontext von Preispersonalisierung lassen sich zugunsten des Kunden grund-
sätzlich sein Recht auf Privatheit und informationelle Selbstbestimmung sowie
seine wirtschaftlichen Interessen anführen. Die besonders hohe persönlichkeits-
rechtliche Relevanz, die mit dem Bilden von Prolen– also dem Proling i.S.d.
Art.4 Nr.4 DSGVO– einhergeht, spricht für ein grundsätzliches Überwiegen der
Kundeninteressen, sobald die Prole eine gewisse Komplexität annehmen.115 Auf
Proling basierende Preispersonalisierung präsentiert sich in der Praxis oftmals als
nicht sonderlich komplexe Methode, so etwa wenn die Verwendung eines bestimm-
ten Endgeräts mit einer eher höheren oder niedrigeren Zahlungsbereitschaft des
Kunden assoziiert und der Preis (nur) deshalb angepasst wird. Die Bildung von
Vergleichsgruppen, die methodisch Teil von Proling ist, erlaubt allerdings oftmals
anhand weniger Ausgangsdaten weitreichende, fundierte Vorhersagen über persön-
liche Aspekte des Einzelnen.116 Der Sache nach handelt es sich bei Personalised
112 Buchner/Petri, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.6 Rn. 148 DSGVO; Schantz, in: Simitis/Hornung/Spiecker gen. Döh-
mann (Hrsg.), Datenschutzrecht, 2019, Art.6 I Rn.101.
113 So etwa BGH, MMR 2009, 608, 610 Rn.26 (Spickmich.de). Siehe auch bereits oben Kap.4,
II. 1. c.
114 Vgl. Schantz, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019,
Art.6 I Rn.103.
115 Article 29 Data Protection Working Party, Opinion 06/2014 on the Notion of Legitimate Inte-
rests of the Data Controller under Article 7 of Directive 95/46/EC, 2014, S.26; Buchner/Petri, in:
Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32020, Art.6
Rn.153 DSGVO.
116 Kosinski/Stillwell/Graepel, PNAS 110 (2013), 5802ff. konnten etwa zeigen, dass die Auswer-
tung von online vergebenen Facebook-„Likes“ bei Personen, deren sonstige Eigenschaften unbe-
kannt sind, fundierte Rückschlüsse auf private, teilweise intime persönliche Eigenschaften der
Betroffenen erlauben. Dafür wurde das Surfverhalten von 58 466 Freiwilligen in den USA ausge-
wertet. Pro Person waren durchschnittlich 170 „Likes“ bekannt. Diese Prole waren ausreichend,
um etwa in 93% der Fälle das Geschlecht, in 82 % die Religionszugehörigkeit (christlich oder
muslimisch) und in 85% die politische Ausrichtung (Demokraten oder Republikaner) zutreffend
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
253
Pricing selbst bei bloßer Zugrundelegung einzelner bzw. isoliert betrachtet bedeu-
tungsloser Informationen also um eine Prolbildung, der das Potenzial innewohnt,
deutlich komplexere Ausmaße anzunehmen, als die bisher diskutierten praktischen
Fälle nahelegen. In diesem Sinne hat auch der EuGH (mit Blick auf das Geschäfts-
modell von Online-Suchmaschinen) in der Google Spain-Entscheidung geurteilt,
dass die Erstellung eines „mehr oder weniger detaillierte[n] Prol[s]“ u.a. wegen
„seiner potenziellen Schwere (…) nicht allein mit dem wirtschaftlichen Interesse
(…) an der Verarbeitung der Daten gerechtfertigt werden“ kann.117
Die Systematik der Datenschutz-Grundverordnung gibt zu erkennen, dass Pro-
ling grundsätzlich möglich sein muss. Zugleich macht sie aber auch deutlich, dass
diese spezielle Form der Datenverarbeitung erhöhte Schutzvorkehrungen zugunsten
der Betroffenen notwendig macht. Dies zeigt sich etwa am Schutzsystem, wel-
ches Art.22 DSGVO im Kontext von Proling und automatisierten Einzelentschei-
dungen etabliert. Zudem macht Art.35 I S.1, III lit. a DSGVO deutlich, dass
systematischem und umfassendem Proling in Verbindung mit automatisierten Ein-
zelentscheidungen „voraussichtlich ein hohes Risiko für die Rechte und Freihei-
ten“118 der Betroffenen innewohnt und deshalb eine Datenschutz-Folgenabschät-
zung notwendig macht. Die aus diesen Normen ersichtlichen Wertungen verdeutli-
chen, dass Proling- basierte Verfahren auf Seiten des Kunden zu bedeutenden
persönlichkeitsrechtlichen Beeinträchtigungen führen können. Dies spricht für ein
Überwiegen der kundenseitigen Interessen im Rahmen der Interessenabwägung.
Auch die der Regulierung des Widerspruchsrechts in Art.21 DSGVO zugrunde
liegenden Wertungen sprechen dafür, dass eine Datenverarbeitung zwecks Preisper-
sonalisierung nicht auf Art.6 I S.1 lit. f DSGVO gestützt werden kann. Art.21 I
DSGVO gewährt den datenschutzrechtlich betroffenen Personen im Kontext von
auf Art.6 I S. 1 lit. f DSGVO gestütztem Proling ein Widerspruchsrecht „aus
Gründen, die sich aus ihrer besonderen Situation ergeben.“119 Eine weitere Verar-
beitung trotz Widerspruch des Betroffenen ist dann nur noch möglich, wenn der
Verantwortliche sich auf „zwingende schutzwürdige Gründe“ berufen kann, die „die
Interessen, Rechte und Freiheiten der betroffenen Person überwiegen“.120 Diese Re-
gelungstechnik gibt dem Betroffenen die Möglichkeit an die Hand, eine individu-
elle Würdigung und Bewertung seiner Situation durch den Verantwortlichen zu er-
zwingen und die Datenverarbeitung ggf. zu unterbinden. Art.21 II DSGVO gewährt
ein (von der gewählten Rechtsgrundlage unabhängiges) Widerspruchsrecht gegen
die Verarbeitung personenbezogener Daten zum Zwecke der Direktwerbung. Dieses
vorherzusagen. Auch konnten überwiegend zutreffende Vermutungen über die sexuelle Ausrich-
tung und den Beziehungsstatus der Betroffenen sowie etwa über ihren Konsum von Alkohol und
Zigaretten getroffen werden. Bei vielen dieser leicht zu bestimmenden persönlichen Aspekte han-
delt es sich nach europäischem Verständnis um sensible Daten i.S.d. Art.9 I DSGVO.Siehe dazu
auch Wiedemann, Computer Law & Security Review 45 (2022), 1, 3f.
117 EuGH, C-131/12, ECLI:EU:C:2014:317, Rn.80f. (Google Spain).
118 Art.35 I S.1 DSGVO.
119 Art.21 I S. 1 DSGVO.
120 Art.21 I S. 2 DSGVO.Gleiches gilt im Kontext der aktiven wie passiven Rechtsverfolgung.
I.Erste Stufe: Datenbeschaffung
254
Widerspruchsrecht ist im Gegensatz zum allgemeinen, im ersten Absatz formulier-
ten bedingungslos. Diese Unterscheidung lässt sich mit einer wertenden Abstufung
erklären: Direktwerbung basiert oftmals, wie auch der Normtext unterstreicht, auf
Proling und ist dementsprechend persönlichkeitsrechtlich besonders relevant. Zu-
gleich dient sie nur den kommerziellen Interessen des Verantwortlichen. Auch wenn
Direktwerbung von der Datenschutz- Grundverordnung grundsätzlich als berechtig-
tes Interesse anerkannt wird121 und die dafür notwendige Datenverarbeitung dem-
entsprechend auf Art.6 I S.1 lit. f DSGVO gestützt werden kann, zeigt die in Art.21
I, II DSGVO zum Ausdruck kommende Unterscheidung, dass dieser Verarbeitungs-
zweck nur eingeschränkten Schutz erfahren soll. Aus dieser Wertung können
Rückschlüsse darauf gezogen werden, wie schützenswert Personalised Pricing als
Verarbeitungszweck ist: Direktwerbung und Preispersonalisierung arbeiten mit ver-
gleichbaren Methoden und bezwecken jeweils eine individualisierte Kundenanspra-
che. Daraus könnte man ableiten, dass auch eine auf Art.6 I S.1 lit. f DSGVO ge-
stützte Datenverarbeitung zwecks Preispersonalisierung dem Grunde nach mit den
Wertungen der Datenschutz-Grundverordnung im Einklang steht und dementspre-
chend zulässig ist. Diese Argumentation verkennt aber, dass die tatsächlichen Aus-
wirkungen auf den Kunden bei personalisierten Preisen potenziell deutlich stärker
als bei Direktwerbung sind: Letztere erschöpft sich im „Bewerben“ der Person als
solches. Personalisierte Preise hingegen zeitigen zusätzlich dazu unmittelbare -
nanzielle Auswirkungen auf den Kunden, die durchaus nachteilig sein können. Ihre
Eingriffsintensität geht qualitativ über die der Direktwerbung hinaus, da nicht nur
persönlichkeitsrechtliche, sondern auch nanzielle Belange auf Kundenseite betrof-
fen sind. Die Eingriffsintensität ist in der Summe also (zumindest potenziell) noch
einmal stärker als in den von Art.21 II DSGVO erfassten Fallkonstellationen. Dies
spricht dafür, dass die Interessenabwägung beim Personalised Pricing zugunsten
des Kunden ausfällt und Art.6 I S.1 lit. f DSGVO nicht als Rechtsgrundlage heran-
gezogen werden kann.
Unabhängig von diesen dogmatischen Erwägungen führt die isolierte Betrach-
tung der wirtschaftlichen Interessen des Kunden zu weniger eindeutigen Ergebnis-
sen. Preispersonalisierung kann sich bei rein wirtschaftlicher Betrachtungsweise
auf Kundenseite positiv oder negativ auswirken. Als Prämisse gilt, dass der Anbieter
ein grundsätzliches, übergeordnetes Interesse daran hat, langfristig einen möglichst
hohen Gewinn zu generieren und personalisierte Preise zu diesem Zweck einzuset-
zen. Finanzielle Vorteile auf seiner Seite können sich zu Lasten eines Kunden aus-
wirken, wenn dieser aufgrund der Personalisierung mehr zahlt als andere. In den
Fällen, in denen der Kunde (etwa nach Weiterleitung von einem Preisvergleichspor-
tal) mit einer Preisreduktion zum Kauf verleitet werden soll, protiert er hingegen
in der Einzelfallbetrachtung. Deshalb würde es zu kurz greifen, bei der Bewertung
der wirtschaftlichen Kundeninteressen nur auf die Überlegung abzustellen, dass
121 Erwägungsgrund 47 DSGVO a.E.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
255
personalisierte Preise geeignet sind, ärmeren Kunden den Zugang zu einem Gut
bzw. einer Dienstleistung überhaupt erst zu ermöglichen.122
Gleichermaßen nicht verallgemeinerungsfähig sind die ökonomischen Auswir-
kungen bei Betrachtung nicht nur des einzelnen, sondern aller Kunden, sowie der
Wettbewerber des Anbieters. Nicht überzeugend wäre das– aus Anbietersicht nahe
liegende– Argument, dass der Kunde bei einem Geschäftsmodell, welches als Folge
der Personalisierung nur eine Absenkung des Preises kennt, stets bevorteilt wird
und dieser wirtschaftliche Vorteil somit zugunsten der Rechtmäßigkeit der Daten-
verarbeitung in der Abwägung zu berücksichtigen ist. Das planmäßige Nichtgewäh-
ren eines Rabatts bei den Kunden, die etwa bestimmte Kriterien nicht erfüllen, stellt
ökonomisch betrachtet für sie nämlich wiederum einen Nachteil im Vergleich zu
denjenigen Kunden dar, die den Rabatt erhalten. Eine reine Bevorteilung ist des-
halb– unabhängig von der Frage, ob Kunden eine derartige Preisgestaltung als fair
oder unfair empnden– gerade nicht gegeben. Für die Interessenabwägung im Rah-
men des Art.6 I S.1 lit. f DSGVO können die ökonomischen Auswirkungen perso-
nalisierter Preise auf Kundenseite also nur sehr bedingt fruchtbar gemacht werden.
Sie sprechen weder für noch gegen die Zulässigkeit der Datenverarbeitung.
ddd. Rolle von Dritten
Die persönlichkeitsrechtlichen Interessen des einzelnen Kunden werden in ihrem
Gewicht verstärkt durch die Auswirkungen, die die auf Art.6 I S.1 lit. f DSGVO
gestützte Datenverarbeitung auf andere Kunden, also Dritte hätte. Der Wortlaut der
Norm nennt Dritte auf Betroffenen- bzw. Kundenseite nicht als zu berücksichti-
gende Interessenträger. Im Gegensatz dazu werden die „berechtigten Interessen des
Verantwortlichen oder eines Dritten“ auf Seiten des Anbieters geschützt. Dennoch
wird man auch auf Kundenseite die Interessen Dritter richtigerweise nicht gänzlich
unberücksichtigt lassen können.123
Proling basiert auf dem Prinzip der automatisierten Gruppenbildung (anhand
abstrakter Vergleichsdaten) und der Einordnung des konkreten Kunden in die rich-
tige Vergleichsgruppe (anhand personenbezogener Daten). Das jeweilige Ergeb-
nis– im hiesigen Kontext vor allem Aussagen über die individuelle Preissensitivität
bzw. über den vermuteten Reservationspreis– wird dem einzelnen Kunden automa-
tisiert zugewiesen und stellt damit ein „neues“ personenbezogenes Datum dar. Die
aus dem Proling erwachsenden Erkenntnisse beeinussen also nicht nur den ein-
zelnen Kunden, dem gegenüber der Anbieter sich auf Art.6 I S.1 lit. f DSGVO
berufen würde. Sie ießen auf einer abstrakteren Ebene auch in die Gruppenbildung
und damit in die Bewertung anderer, zukünftiger Kunden mit ein.124 So entsteht eine
122 Vgl. dazu Golland, CR 2020, 186, 190f. Rn.25 und Zurth, AcP 221 (2021), 514, 539.
123 Ähnlich Schantz, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019,
Art.6 I Rn.102.
124 Vgl. zu diesem Phänomen und potenziellem Problem allgemein Roßnagel, ZD 2013, 562, 566
(„anonyme Vergemeinschaftung“).
I.Erste Stufe: Datenbeschaffung
256
indirekte Rückkoppelung, die die sie betreffenden (zukünftigen, Proling- basierten)
personenbezogenen Daten beeinusst125 und damit zu tatsächlichen Auswirkungen
auf diese führt.126
Im Rahmen der Interessenabwägung ausschließlich die Auswirkungen auf den
einzelnen Kunden zu berücksichtigen, würde damit den Datenschutz Dritter igno-
rieren. Dogmatisch lässt sich dies auch mit dem Wortlaut der Norm begründen.
Art.6 I S.1 lit. f DSGVO spricht von den „Interessen (…) der betroffenen Person,
die den Schutz personenbezogener Daten erfordern“. Diese Formulierung ist im
Vergleich zum Wortlaut des Art.6 I S.1 lit. a DSGVO (Einwilligung) allgemein
gehalten, spricht dieser doch von die Person „betreffenden personenbezogenen Da-
ten“. Dieser Ausdruck hätte auch in Art. 6 I S. 1 lit. f DSGVO gewählt werden
können, um deutlich zu machen, dass im Rahmen der Interessenabwägung nur die
die Kunden „betreffenden“ personenbezogenen Daten, nicht aber die von Dritten zu
berücksichtigen sind. Die persönlichkeitsrechtlichen Interessen Dritter verstärken
damit die Position des Kunden im Rahmen der Abwägungsentscheidung.
eee. Zwischenergebnis
Bei einer Gegenüberstellung und wertenden Abwägung der auf Kunden- und An-
bieterseite betroffenen Interessen überwiegen diejenigen der Kunden. Dies ergibt
sich vor allem angesichts der hohen persönlichkeitsrechtlichen Relevanz, die mit
Preispersonalisierung aufgrund der ihr methodisch zugrunde liegenden Prolbil-
dung einhergeht. Dieses Ergebnis lässt sich zudem mit systematischen Erwägungen
untermauern. Die wirtschaftlichen Interessen des Anbieters alleine können nicht
ausreichen, um derart weitreichende Verarbeitungsformen zu legitimieren. Die wirt-
schaftlichen Auswirkungen auf Kundenseite spielen dabei aufgrund ihrer Diversität
und damit einhergehenden Unbestimmtheit keine eigenständige Rolle. Eine Daten-
verarbeitung zum Zwecke des Personalised Pricings kann demnach nicht auf die
allgemeine Interessenabwägungsklausel des Art.6 I S.1 lit. f DSGVO gestützt wer-
den.127 Der Anbieter muss für diesen Verarbeitungszweck vom Kunden stets eine
Einwilligung i.S.d. Art.6 I S.1 lit. a DSGVO einholen.
125 In diesem Sinne argumentiert auch (in einem allgemeineren Kontext) Hoffmann-Riem, AöR 142
(2017), 1, 38f.: „Als personenbezogen müssten aber auch Daten eingeordnet werden, die entste-
hen, wenn jemand ohne Zugriff auf dessen personenbezogene Daten im bisherigen Sinne im Zuge
prädiktiver Analytik einer Personengruppe zugeordnet wird, deren ‚Mitgliedern‘ bestimmte Eigen-
schaften zugeschrieben werden (etwa betreffend die Gesundheit, Finanzkraft oder sexueller Orien-
tierung), an die aktuell oder potentiell belastende Folgen für die betroffene Person geknüpft wer-
den können.“
126 Vgl. Schantz, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019,
Art.6 I Rn.102.
127 So auch ders., in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019,
Art.6 I Rn.107 und Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 360. Nicht ganz
eindeutig Steppe, Computer Law & Security Review 33 (2017), 768, 780.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
257
c. Transparenzpichten
Art.13–15 DSGVO formulieren ein umfassendes Bündel von Transparenzpichten,
welche den Anbieter dem Kunden gegenüber verpichten. Art.13 DSGVO postu-
liert eine Informationspicht des Anbieters, die im Zeitpunkt der ersten Erhebung
personenbezogener Daten greift. Erhebt er etwa kundenbezogene technische Da-
ten128 im Moment des Seitenaufrufs, um sie zum Zwecke der Preispersonalisierung
zu verarbeiten, greifen die Informationspichten, die sich – vorbehaltlich des
Art.13 IV DSGVO– aus Art.13 I, II DSGVO ergeben. Gleiches gilt, wenn er bei-
spielsweise personenbezogene Daten einem Kundenprol hinzufügt. Art.14 DS-
GVO formuliert ähnliche Informationspichten. Er kommt in den Situationen zur
Anwendung, in denen die personenbezogenen Daten nicht bei der betroffenen Per-
son selbst erhoben werden. Dies ist im hiesigen Kontext etwa dann relevant, wenn
der Anbieter auf Daten zurückgreift, die von Dritten (wie etwa Auskunfteien) oder
aus öffentlichen Quellen (wie etwa sozialen Netzwerken, in denen der Kunde
mit öffentlich zugänglichem Prol aktiv ist) herrühren.129 Das Auskunftsrecht des
Art.15 I DSGVO muss im Gegensatz zu den vom Anbieter unaufgefordert zu erfül-
lenden Informationspichten vom Kunden aktiv geltend gemacht werden.
Der Anbieter muss Preispersonalisierung als Zweck der Datenverarbeitung nennen,
Art.13 I lit. c, 14 I lit. c, 15 I lit. a DSGVO.130 Darüber hinaus sind vor allem die in
Art.13 II lit. f, 14 II lit. g, 15 I lit. h DSGVO (wortgleich) enthaltenen Transparenzre-
gelungen von herausgehobener Relevanz. Die Informations- bzw. Auskunftspicht
bezieht sich demnach auf das Folgende: „das Bestehen einer automatisierten Entschei-
dungsndung einschließlich Proling gemäß Artikel 22 Absätze 1 und 4 und– zumin-
dest in diesen Fällen– aussagekräftige Informationen über die involvierte Logik sowie
die Tragweite und die angestrebten Auswirkungen einer derartigen Verarbeitung für
die betroffene Person“. Die Normen bestimmen, in welchem Ausmaß dem Kunden im
Kontext von Proling und automatisierten Entscheidungen, also den konzeptionellen
Grundlagen von Personalised Princing, Auskunft erteilt werden muss. Es bestehen
damit einige Überschneidungen mit den Anforderungen, die an eine wirksame Einwil-
ligungserklärung gestellt werden, welche „in informierter Weise“ (Art.4 Nr.11 DS-
GVO) erteilt werden muss.131 Eine unzureichende Befolgung der Transparenzvor-
schriften führt allerdings nicht zum Wegfall der Rechtsgrundlage (im Gegensatz zu
einem Verstoß gegen die Anforderungen an eine wirksame Einwilligungserklärung).132
128 Bei diesen handelt es sich nach hiesiger Ansicht um personenbezogene Daten, siehe bereits
oben Kap.11, I. 1. a. bb.
129 Vgl. Bäcker, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.13 Rn.16 DSGVO.
130 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 358f.; dies., in: Kohl/Eisler
(Hrsg.), Data-Driven Personalisation in Markets, Politics and Law, 2021, S.174, 184.
131 Die Einwilligung des Kunden ist nach hiesiger Ansicht die einzige taugliche Rechtsgrundlage
für eine Datenverarbeitung zwecks Preispersonalisierung.
132 Ein Verstoß gegen die Transparenzpichten ist allerdings gem. Art. 83 V lit. b DSGVO buß-
geldbewehrt.
I.Erste Stufe: Datenbeschaffung
258
Wie bereits festgestellt, verpichten die Normen den datenschutzrechtlich verant-
wortlichen Anbieter recht weitreichend. Sie beziehen sich sowohl auf die zweite als
auch auf die dritte Stufe des hier entwickelten 3-stugen Modells. Ausgehend von
den bereits weiter oben aufgestellten Grundsätzen ist der Anbieter verpichtet, die
Systemfunktionalität des Prolings und der darauf aufbauenden preislichen Ent-
scheidungen auf einem abstrakten, aber dennoch aussagekräftigen Niveau zu erläu-
tern. Dies bezieht sich auch auf den internen Zusammenhang zwischen den beiden
Stufen. Es muss klar sein, dass bestimmte Erkenntnisse auf Stufe 2 zu bestimmten
Ergebnissen auf Stufe 3, auf der der Preis bestimmt wird, führen können. Dabei müs-
sen zumindest die für die Personalisierung des Preises relevanten Datenkategorien
und die den Kunden betreffenden, zur Berechnung des Preises konkret herangezoge-
nen Daten offengelegt werden. Der Kunde muss erkennen können, welche aus seiner
Sphäre herrührenden Faktoren den Preis beeinussen. Dies bedeutet aber nicht, dass
er in der Lage sein muss, die „richtige“ Preisbestimmung nachrechnen bzw. inhalt-
lich kontrollieren zu können.133 Eine Mitteilung der konkreten Gewichtung der ein-
zelnen Faktoren und der dabei verwendeten Vergleichsgruppen kann nicht verlangt
werden, da der Anbieter ein schützenswertes Interesse an Geheimhaltung dieser In-
formationen hat.134 Der Preis stellt aus Sicht der Anbieter einen der wichtigsten Wett-
bewerbsparameter dar, seine Höhe und Bestimmung sind für ihn essenziell wichtig.
Die betriebswirtschaftlichen Hintergründe seines Zustandekommens sind mithin
schützenswert, sodass eine umfassende Offenlegungspicht nicht verlangt werden
kann. Eine solche wäre für den Kunden auch weder hilfreich noch zwingend notwen-
dig, um sein Datenschutzrecht zu wahren. Die „involvierte Logik“ muss aber in ihren
Grundzügen mit für den Kunden verständlichen Worten kommuniziert werden.
Dementsprechend wäre etwa darauf hinzuweisen, dass das vom Kunden verwendete
Endgerät oder die Weiterleitung von einem Preisvergleichsportal zu angepassten
Preisen bzw. zur Einräumung von individuellen Rabatten führen kann. Diese vom
Anbieter „angestrebten Auswirkungen“ müssen als solche erkennbar sein, um dem
Grundsatz der Transparenz (Art.5 I lit. a DSGVO) zu entsprechen.
2. Zwischenergebnis
Kundenbezogene technische Daten, die (zumindest auch) zum Zwecke der Persona-
lisierung von Preisen erhoben werden, sind in aller Regel personenbezogen i.S.d.
Art.4 Nr.1 DSGVO.Die Datenschutz-Grundverordnung ist in diesem Kontext mit-
hin grundsätzlich anwendbar, Art.2 I DSGVO.Als Rechtsgrundlage für die Daten-
133 Vgl. dazu die Formulierung bei BGH, NJW 2014, 1235, 1237 Rn.25 (Schufa) im Kontext von
Kredit-Scoring: „Vielmehr soll eine allgemeine Beschreibung des Zustandekommens des Sco-
rewerts genügen (…). Die Nachvollziehbarkeit des Zustandekommens bedeutet demnach nicht des-
sen Nachrechenbarkeit und Überprüfbarkeit der Berechnung, sondern insbesondere die schlüssige
Erkenntnismöglichkeit, welche Faktoren die ausgewiesene Bewertung beeinusst haben.“ Diese
Grundsätze sind auf Preispersonalisierung übertragbar.
134 Vgl. weiter BGH, NJW 2014, 1235, 1236–1238 (Schufa) im Kontext von Kredit-Scoring zum
Auskunftsanspruch nach §34 IV BDSG a.F.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
259
verarbeitung kommt einzig eine Einwilligung des Kunden i.S.d. Art.6 I S.1 lit. a
DSGVO in Betracht,135 welche sich auf den kompletten Verarbeitungsvorgang
mithin auf alle drei Stufen des Modells– beziehen muss. Dementsprechend spielt es
keine Rolle, ob im konkreten Fall der Anwendungsbereich des §25 I S.1 TTDSG
eröffnet ist, da ohnehin eine Einwilligung i.S.d. Art.4 Nr.11 DSGVO eingeholt
werden muss.136 Die anwendbaren, recht weitreichenden Wirksamkeitsvorausset-
zungen (vgl. Art.4 Nr.11 und 7 DSGVO) werden von den Transparenzpichten der
Art.13–15 DSGVO ankiert. Das mit den Transparenzpichten gekoppelte Einwil-
ligungserfordernis stellt einen vorgelagerten Schutz vor Diskriminierung geschütz-
ter Gruppen durch personalisierte Preise dar.
II.Zweite Stufe: Datenauswertung
1. Datenschutzrecht
Die Auswertung der personenbezogenen Daten zwecks Bestimmung der Zahlungs-
bereitschaft des einzelnen Kunden ist ein rein datenschutzrechtlich relevanter Sach-
verhalt. Wie bereits festgestellt, enthält der verfügende Teil der Datenschutz-
Grundverordnung keine spezischen Vorgaben dahingehend, wie Proling – die
Grundlage personalisierter Preise– durchzuführen ist. Erwägungsgrund 71 DSGVO
formuliert allerdings in seinem zweiten Absatz konkretere qualitative Handlungs-
maßstäbe, die sich ausdrücklich auf Proling beziehen. Sie können herangezogen
werden, um die allgemeinen Datenschutzgrundsätze des Art.5 I DSGVO auszule-
gen und inhaltlich zu konturieren, wenn Anbieter Proling zwecks Preispersonali-
sierung einsetzen.
a. Allgemeine Vorgaben (ErwG. 71 DSGVO)
Der Verantwortliche ist gem. Erwägungsgrund 71 DSGVO gehalten, „geeignete
mathematische oder statistische Verfahren für das Proling“ zu verwenden. Eine
ähnliche Formulierung hat der deutsche Gesetzgeber in § 28b Nr. 1 BDSG
a.F. bei der Regulierung von Scoring verwendet („wissenschaftlich anerkannte[s]
mathematisch- statistische[s] Verfahren“) und in §31 I Nr.2 BDSG n.F. beibehal-
ten.137 Der Ausdruck „geeignete mathematische oder statistische Verfahren“ ist
recht weit, ebenso wie das damit verfolgte Ziel der „fairen und transparenten Ver-
arbeitung“, welches zwar mehrfach in den Erwägungsgründen und dreimal im
135 So auch Gleixner, VuR 2020, 417, 418f.; Hofmann/Freiling, ZD 2020, 331, 335 und Poort/
Zuiderveen Borgesius, in: Kohl/Eisler (Hrsg.), Data-Driven Personalisation in Markets, Politics
and Law, 2021, S.174, 185.
136 Vgl. den Verweis in §25 I S.2 TTDSG.Siehe dazu bereits weiter oben Kap.10, I. 2. d.
137 Zur Europarechtskonformität von §31 BDSG n.F. siehe oben Kap.9, I. 2. Fn.19.
II.Zweite Stufe: Datenauswertung
260
verfügenden Teil der Verordnung verwendet, aber nicht deniert wird.138 Aus der
Formulierung kann abgeleitet werden, dass dem Proling in technischer Hinsicht
Verfahren zugrunde gelegt werden müssen, die ein gewisses Maß an Zuverlässig-
keit und Objektivität aufweisen und von ihrer Konzeption her frei von rein willkür-
lichen Erwägungen sind. Diese Vorgabe kann über Art.5 I lit.d DSGVO (Grundsatz
der Richtigkeit personenbezogener Daten) in den verfügenden Teil der Datenschutz-
Grundverordnung hineingelesen werden.
Zudem soll der Verantwortliche „technische und organisatorische Maßnahmen
treffen, mit denen in geeigneter Weise insbesondere sichergestellt wird, dass Fakto-
ren, die zu unrichtigen personenbezogenen Daten führen, korrigiert werden und das
Risiko von Fehlern minimiert wird“. Auch dies ist eine inhaltliche Konkretisierung
von Art.5 I lit. d DSGVO.139 Der Wortlaut lässt darauf schließen, dass primär beim
Verfahren selbst, also der Datenverarbeitung, angesetzt werden soll, um Fehler zu
vermeiden. Ein adäquates Verfahren soll möglichst fehlerfreie Ergebnisse garantie-
ren. Insoweit besteht eine inhaltliche Verbindung zu der im gleichen Absatz gefor-
derten Geeignetheit der zum Einsatz kommenden mathematischen oder statisti-
schen Verfahren.
Diese Herangehensweise ist angesichts der methodischen Grundlagen von Pro-
ling sachgerecht. Die Richtigkeit personenbezogener Daten i.S.d. Art.5 I lit. d
DSGVO kann grundsätzlich nur bei Tatsachenangaben objektiv festgestellt werden,
nicht aber bei wertenden Aussagen oder Meinungsäußerungen.140 Proling stellt
eine Bewertung persönlicher Aspekte dar, Art.4 Nr.4 DSGVO.Es basiert auf ma-
thematischen und statistischen Methoden. Die auf diese Weise gefundenen Ergeb-
nisse sind Ausdruck von Wahrscheinlichkeitsberechnungen, welche ihrer Natur
nach nicht immer eine wahre Auskunft über die persönlichen Aspekte des Betroffe-
nen geben können. Ihnen liegen Interpretationen zugrunde. Diese können konzepti-
onell nicht den Anspruch auf Richtigkeit in allen Fällen erheben, da sie zumindest
in manchen Fällen nahezu zwangsläug falsche Ergebnisse produzieren. Die
Zielvorgabe des Erwägungsgrundes 71 DSGVO, das Fehlerrisiko zu minimieren,
soll also dergestalt realisiert werden, dass bereits im Vorfeld der Generierung von
Ergebnissen durch geeignete Verfahren sichergestellt wird, dass ein der jeweiligen
konkreten Situation angemessener Grad an „Richtigkeit“ erreicht wird. Anders
formuliert geht es um die Gewährleistung einer der konkreten Situation angemesse-
nen Fehlertoleranz.
Bei der Bestimmung, welche Arten von Fehlern wie häug vorkommen dürfen,
kommt dem jeweiligen Kontext eine entscheidende Rolle zu. Es kommt auf die
Umstände der Erhebung der personenbezogenen Daten an, die zum Proling ver-
wendet werden, auf die Bedeutung des Ergebnisses des Prolings für den Betroffe-
nen und auf den Grad an Sensibilität seiner Bewertung. Der zweite Absatz von Er-
138 Art.13 II, 14 II, 40 II lit. a DSGVO.
139 Pötters, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32022, Art.5 Rn.25 DSGVO.
140 Herbst, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.5 Rn.60 DSGVO.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
261
wägungsgrund 71 erlaubt unter Berücksichtigung des Wortlauts von Art.4 Nr.4
DSGVO („Bewertung“) damit eine exible Auslegung von Art.5 I lit.d DSGVO,
welcher zu „angemessenen Maßnahmen“ verpichtet, um „im Hinblick auf die
Zwecke ihrer Verarbeitung“ unrichtige personenbezogene Daten zu berichtigen
bzw. durch Löschung zu bereinigen.
Übertragen auf Preispersonalisierung kann aus diesen Erwägungen kein bedeu-
tender inhaltlicher Mehrwert gezogen werden, der über die eingangs diskutierte
Verpichtung zum Einsatz geeigneter mathematischer oder statistischer Verfahren
hinausgeht. Die Vorschriften des Erwägungsgrundes 71 DSGVO sind darauf ausge-
richtet, den Betroffenen (hier: den Kunden) vor Ergebnissen zu schützen, die ihm
aufgrund mangelhafter Proling-Verfahren schaden können. Das Schadenspoten-
zial von Preispersonalisierung ist allerdings eher gering einzustufen. Die Bestim-
mung der Zahlungsbereitschaft durch Proling hat zwar persönlichkeitsrechtliche
Relevanz, sodass die Forderung nach technischen und organisatorischen Maßnah-
men gerechtfertigt ist.141 Preispersonalisierung ist von seiner Eingriffsintensität
her aber nicht mit der (beispielhaft gedachten) Proling-basierten staatlichen Leis-
tungsverwaltung oder mit dem Erlass belastender Verwaltungsakte vergleichbar,
denen der Betroffene ausgeliefert ist und gegen die er sich aktiv (etwa per Wider-
spruch oder Klage) wehren müsste. Auch sind die faktischen Konsequenzen für ihn
nicht so stark wie im (in Erwägungsgrund 71 DSGVO beispielhaft genannten) Fall
der automatisierten Ablehnung eines Kreditantrags. Der Kunde kann im Regelfall
autonom entscheiden, ob er ein Produkt oder eine Dienstleistung kaufen möchte.
Das zu vermeidende „Risiko von Fehlern“ wäre im Fall von Preispersonalisierung
ein „falscher“ Preis. Da der Preis im Kern eine reine Zahlengröße ist, kann der Feh-
ler nur darin liegen, dass er „zu hoch“ oder „zu niedrig“ in Relation zum Reservati-
onspreis des Kunden angesetzt ist. Unabhängig davon, ob eine derartige Kategori-
sierung von Preisen überhaupt sinnvoll und möglich ist, wäre der Schaden für den
Kunden stets überschaubar: Im Falle eines „zu hohen“ Preises müsste er nicht kaufen.
Ein „zu geringer“ Preis ginge zu Lasten des Anbieters, sodass eine Schlechterstel-
lung des Kunden von vornherein ausscheidet.
b. Diskriminierungsverbot (ErwG. 71 DSGVO)
aa. Dogmatische Einordnung
Erwägungsgrund 71 DSGVO formuliert in seinem zweiten Absatz ein Diskriminie-
rungsverbot zugunsten verschiedener geschützter Gruppen. Der Verantwortliche
soll „verhindern, dass es gegenüber natürlichen Personen aufgrund von Rasse, eth-
141 Dieser „Schutz durch Technik“ lässt sich auch aus dem weiteren Text des zweiten Absatzes von
Erwägungsgrund 71 DSGVO ablesen. Demnach sind personenbezogene Daten in einer Weise zu
sichern, „dass den potenziellen Bedrohungen für die Interessen und Rechte der betroffenen Person
Rechnung getragen wird“. Diese Verpichtung konkretisiert den Grundsatz der Integrität und Ver-
traulichkeit (Art.5 I lit. f DSGVO).
II.Zweite Stufe: Datenauswertung
262
nischer Herkunft, politischer Meinung, Religion oder Weltanschauung, Gewerk-
schaftszugehörigkeit, genetischer Anlagen oder Gesundheitszustand sowie sexuel-
ler Orientierung zu diskriminierenden Wirkungen oder zu einer Verarbeitung
kommt, die eine solche Wirkung hat.“ Diese Handlungsanweisung ist angesichts des
der Datenschutz-Grundverordnung innewohnenden Diskriminierungsschutzes nicht
überraschend. Bemerkenswert ist allerdings die verwendete Regelungsmethodik,
die sich eines Handlungsverbots bedient: Dem Verantwortlichen ist es verboten,
Datenverarbeitungsverfahren zu verwenden, die bestimmte diskriminierende Er-
gebnisse produzieren. Im Gegensatz zu Art.9 I DSGVO nimmt das Diskriminie-
rungsverbot des Erwägungsgrundes 71 DSGVO einen ex post-Blickwinkel ein. Es
bezieht sich auf tatsächlich eintretende Diskriminierungen und verpichtet den Ver-
antwortlichen, diese zu verhindern (vgl. den Wortlaut: „verhindern, dass es (…) zu
diskriminierenden Wirkungen oder zu einer Verarbeitung kommt, die eine solche
Wirkung hat“). Diese Herangehensweise weicht vom präventiven Ansatz ab, den
die Datenschutz-Grundverordnung in ihrem verfügenden Teil, vor allem in Art.9 I,
22 IV DSGVO verfolgt.
Alle in Erwägungsgrund 71 DSGVO genannten geschützten Gruppen sind auch
in Art.9 I DSGVO aufgeführt.142 Er kommt also in der Regel143 zur Anwendung,
142 Erstaunlicherweise wird das Geschlecht des Betroffenen in Erwägungsgrund 71 DSGVO nicht
genannt. Bei Art.9 I DSGVO ist dies nachvollziehbar, da sich das Geschlecht regelmäßig z.B. mit
Blick auf den Vornamen einer Person mit hoher Wahrscheinlichkeit bestimmen lässt und damit aus
dem Datum „Vorname“ hervorgeht i.S.d. Art.9 I DSGVO.Der Anwendungsbereich von Art.9 I
DSGVO wäre damit stark ausgeweitet, ohne dass dies durch eine besonders hohe, abstrakte Dis-
kriminierungsgefahr gerechtfertigt wäre. Er käme immer zur Anwendung, wenn Vornamen erho-
ben werden. Beim Wortlaut des Erwägungsgrundes 71 DSGVO hingegen geht es um tatsächlich
eintretende Diskriminierungen „aufgrund“ bestimmter Merkmale. Es ist kein Grund ersichtlich,
warum das Verbot von Geschlechterdiskriminierung nicht im Wortlaut angelegt ist, zumal das
Verbot der Geschlechterdiskriminierung auf europäischer Ebene die längste Tradition hat (Agentur
der Europäischen Union für Grundrechte/Europarat, Handbuch zum europäischen Antidiskrimi-
nierungsrecht (Ausgabe 2018), 2018, S.21).
143 Die Anwendbarkeit von Art.9 DSGVO ist unproblematisch zu bejahen, wenn die Datenkatego-
rien, die in seinem ersten Absatz genannt werden, als Input des Prolings verwendet werden. Auch
wenn aus Daten, die nicht sensibel sind, mit den Methoden des Prolings auf sensible Daten ge-
schlossen werden soll, kommt Art.9DSGVO zur Anwendung (z.B. im Falle der Bewertung des
Gesundheitszustands einer Person aufgrund der Auswertung ihres Kaufverhaltens, vgl. dazu Wei-
chert, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz,
32020, Art.9 Rn.24 DSGVO und allgemein EuGH, C-184/20, ECLI:EU:C:2022:601, Rn.117–128
(Vyriausioji tarnybinės etikos komisija)). Finck, in: Kohl/Eisler (Hrsg.), Data-Driven Personalisa-
tion in Markets, Politics and Law, 2021, S.95, 102f. weist darauf hin, dass die Bestimmung des
genauen Zeitpunktes, ab dem Daten als sensibel einzustufen sind, in derlei Konstellationen schwie-
rig ist, zumal der Verantwortliche (erst) ab diesem Zeitpunkt mit den erhöhten Anforderungen des
Art.9 DSGVO konfrontiert ist. Die Anwendbarkeit von Art.9 DSGVO ist allerdings dann abzu-
lehnen, wenn sowohl die Input- als auch die Output-Daten des Prolings keine sensiblen Daten
sind, gleichwohl aber eine mittelbare Diskriminierung geschützter Gruppen eintritt. Beispiel: Für
Kredit-Scoring werden Daten verwendet, die nicht sensibel sind, und zu einem Score-Wert verar-
beitet. Eine solche Bewertung der Kreditwürdigkeit fällt nicht unter Art.9 I DSGVO.Score-Werte
können aber mittelbar diskriminierend wirken, wenn etwa der Wohnort einer Person bei der Erstel-
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
263
wenn Proling mit diskriminierender Wirkung eingesetzt wird. Die ex post-
Betrachtungsweise des Erwägungsgrundes 71 DSGVO ist aber umfassender als der
präventive Ansatz des Art.9 I DSGVO.So wäre beispielsweise denkbar, dass ein
diskriminierendes Proling-Verfahren eingesetzt wird, welches sensible personen-
bezogene Daten verarbeitet, die der Betroffene „offensichtlich öffentlich gemacht
hat“ i.S.d. Art.9 II lit. e DSGVO.Den Vorgaben des Art.9 DSGVO wäre damit
Genüge getan, ohne dass dieser die Diskriminierung tatsächlich verhindern konnte.
Dagegen wäre dieser Fall von Erwägungsgrund 71 DSGVO erfasst. Der Verant-
wortliche hätte, die Anwendbarkeit des Verbots unterstellt, die Verpichtung, dieses
Ergebnis angesichts seiner „diskriminierenden Wirkungen“ zu verhindern. Der von
Erwägungsgrund 71 DSGVO intendierte Diskriminierungsschutz geht also inhalt-
lich weiter. Art.9 DSGVO reicht nicht aus, um das gleiche Schutzniveau zu garan-
tieren. Insoweit besteht ein qualitativer Unterschied.
Die Formulierung des Diskriminierungsverbots in den Erwägungsgründen– und
damit außerhalb des verfügenden Teils der Verordnung– ist aus dogmatischer Sicht
problematisch. Hoheitlich handelnden Stellen sind Diskriminierungen natürlicher
Personen aufgrund höherrangigen Rechts ohnehin verboten, wie sich etwa aus
Art.21 GRCh, Art.3 III GG ergibt. Insoweit ist das Diskriminierungsverbot in Erwä-
gungsgrund 71 DSGVO deklaratorisch und hat keinen eigenen Aussagegehalt. Die
rechtliche Ausgangslage ist allerdings eine andere, wenn es– wie im Fall von perso-
nalisierten Preisen– um Rechtsverhältnisse zwischen Privaten geht. Privatleute sind
nicht unmittelbar an die verfassungsrechtlichen Gebote und Verbote gebunden, da sie
nicht hoheitlich, sondern privatautonom handeln. Ein generelles Diskriminierungs-
verbot besteht für sie nicht. Um für private Normadressaten ein solches aufzustellen,
ist angesichts der grundrechtlichen Relevanz eines solchen Verbots eine gesetzliche
Grundlage notwendig. Ausschließlich auf einen Erwägungsgrund kann ein solches
Verbot nicht gestützt werden. Die Frage ist also, ob der Verantwortliche (hier: der
Anbieter) auch den erhöhten Anforderungen des in Erwägungsgrund 71 DSGVO
enthaltenen Diskriminierungsverbots genügen muss, obwohl es in seiner dortigen
Form nicht im Wortlaut des verfügenden Teils enthalten ist.
Konkret ist zu prüfen, ob einer der Datenschutzgrundsätze des Art.5 I DSGVO
im Kontext von Proling inhaltlich durch das Diskriminierungsverbot des Erwä-
gungsgrundes 71 DSGVO konkretisiert und normativ ausgefüllt werden kann. Dies
wäre dann auch von privaten Anbietern zu beachten, wenn sie Proling zum Zwe-
cke der Preispersonalisierung einsetzen. Ansonsten wäre der Erwägungsgrund nur
deklaratorisch für staatliches Handeln. Dogmatisch sind verschiedene Ansatzpunkte
denkbar, um Art.5 I DSGVO auszulegen: Über die Erwägungsgründe hinaus kom-
men die übrigen Regelungen im verfügenden Teil sowie grundrechtrechtliche Wer-
tungen in Betracht, die mittelbare Geltung bei der Auslegung von Generalklauseln
entfalten.
lung einer Bewertung berücksichtigt wird und dort eine bestimmte ethnische Gruppe überpropor-
tional häug vertreten ist.
II.Zweite Stufe: Datenauswertung
264
bb. Konkretisierung der Datenschutzgrundsätze
Die allgemeinen Datenschutzgrundsätze des Art.5 I DSGVO haben jeweils einen
eigenen Aussagegehalt, werden inhaltlich zugleich aber durch die restlichen Nor-
men der Datenschutz-Grundverordnung konkretisiert.144 Insofern besteht eine
Wechselwirkung zwischen den allgemeinen und den speziellen Regelungen des
verfügenden Teils. Art.9 I DSGVO dient u.a. dem Schutz vor Diskriminierung,
indem er für die Verarbeitung sensibler Daten erhöhte Zulässigkeitsvoraussetzun-
gen postuliert.145 Er transferiert die Wertungen des Art.21 GRCh in den verfügen-
den Teil der Datenschutz-Grundverordnung, indem er anerkennt, dass einige der
von ihm besonders geschützten Merkmale einem besonderen Diskriminierungsri-
siko unterliegen.146 Der Gedanke hinter der Norm ist, dass eine Diskriminierung
aufgrund Zugehörigkeit zu einer geschützten Gruppe dadurch faktisch erschwert
oder unmöglich gemacht wird, dass die einschlägigen Informationen gar nicht erst
verarbeitet und verbreitet werden.147 Art.9 DSGVO verbietet damit nicht die Diskri-
minierung als solche. Er setzt stattdessen im Vorfeld einer drohenden Diskriminie-
rung an und erschwert diese dadurch, dass seitens des Betroffenen deutlich erhöhte
Einussnahme- und Kontrollmöglichkeiten im Vergleich zu den Vorgaben des Art.6
I S.1 DSGVO bestehen.148 Der auf diese Weise bezweckte Diskriminierungsschutz
soll zudem gerade auch im Kontext von Proling und automatisierten Einzelent-
scheidungen Geltung erlangen, wie aus Art.22 IV DSGVO ersichtlich wird: Es
gelten erhöhte Anforderungen an Ausnahmen vom grundsätzlichen Verbot vollstän-
dig automatisierter Einzelentscheidungen, soweit diese auf sensiblen Daten i.S.d.
Art.9 DSGVO beruhen und demzufolge eine erhöhte Diskriminierungsgefahr für
den von der Entscheidung Betroffenen besteht.149 Art.9 I und 22 IV DSGVO enthal-
ten also die grundsätzliche Wertung, dass im Kontext von Proling eine Diskrimi-
nierung aufgrund der Zugehörigkeit zu einer geschützen Gruppe auch zwischen
Privaten abzulehnen ist. Diese Wertung kann bei der Auslegung der in Art.5 I DS-
144 Frenzel, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32021,
Art.5 Rn.11 DSGVO.
145 Vgl. dazu Erwägungsgrund 51 DSGVO: „Personenbezogene Daten, die ihrem Wesen nach hin-
sichtlich der Grundrechte und Grundfreiheiten besonders sensibel sind, verdienen einen besonde-
ren Schutz, da im Zusammenhang mit ihrer Verarbeitung erhebliche Risiken für die Grundrechte
und Grundfreiheiten auftreten können.“ Auch Erwägungsgrund 75 DSGVO warnt davor, dass die
Verarbeitung personenbezogener Daten zu Diskriminierung führen kann.
146 Vgl. Weichert, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.9 Rn.15 DSGVO.
147 Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.1 Rn.14 DSGVO.
148 So ist gem. Art.9 II lit. a DSGVO beispielsweise eine „ausdrücklich[e]“ Einwilligung in die
Datenverarbeitung notwendig. Sie kann also nicht konkludent erteilt werden, wie es bei Art. 6 I
S.1 lit. a i.V.m. 4 Nr.11, 7 DSGVO grundsätzlich der Fall ist. Auch enthält Art.9 II DSGVO
keine allgemeine Interessenabwägungsklausel, die Art.6 I S.1 lit. f DSGVO vergleichbar wäre.
149 Vgl. Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.22 Rn.44 DSGVO.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
265
GVO enthaltenen Datenschutzgrundsätze herangezogen werden. Damit bestehen
dogmatische Anknüpfungspunkte innerhalb des verfügenden Teils, die für die Exis-
tenz eines Diskriminierungsverbotes sprechen, welches auch Private verpichtet.
Denkbar wäre, dass das Diskriminierungsverbot des Erwägungsgrundes 71 DS-
GVO in den Grundsatz der Rechtmäßigkeit der Datenverarbeitung gem. Art.5I lit.
a DSGVO hineingelesen werden kann. Dieser besagt, dass personenbezogene Da-
ten immer „auf rechtmäßige Weise“ verarbeitet werden müssen. Nach vorzugswür-
digem engem Verständnis bedeutet dies aber nur, dass für das komplette Ausmaß
der Datenverarbeitung eine Rechtsgrundlage vorliegen muss.150 Der Grundsatz der
Rechtmäßigkeit zielt also nur auf das „Ob“ der Datenverarbeitung ab, nicht auf das
„Wie“. Die Geltung des hier diskutierten Diskriminierungsverbots ist aber unabhän-
gig von der Frage, ob die Vorgaben des Art.6 I S.1 DSGVO erfüllt sind. Art.5I lit.
a DSGVO kann also nicht als Anknüpfungspunkt für das Diskriminierungsverbot
des Erwägungsgrundes 71 DSGVO fruchtbar gemacht werden.
Tauglicher Anknüpfungspunkt ist aber der Grundsatz der „Verarbeitung nach
Treu und Glauben“ i.S.d. Art.5 I lit. a DSGVO.Dieser stellt einen Auffangtatbe-
stand dar, welcher sich auf Sachverhalte bezieht, „in denen die betroffene Person
durch eine Verarbeitung ihrer personenbezogenen Daten einen Nachteil erfährt, der
dem durch die DS-GVO etablierten Gesamtbild des Kräftegleichgewichts zwischen
der betroffenen Person und dem Verantwortlichen widerspricht, ohne zwingend ge-
gen ein konkretes gesetzliches Verbot zu verstoßen.“151 Proling zeichnet sich da-
durch aus, dass natürliche Personen bewertet werden und ihnen diese Bewertung
zugerechnet wird. Bei Preispersonalisierung soll so die Zahlungsbereitschaft des
Einzelnen bestimmt werden. Die zugrunde liegenden abstrakten Methoden und
Aspekte wie z. B. die Gewichtung einzelner Faktoren bei der Erstellung einer
Bewertung werden von ihren Verwendern im Regelfall nicht oder nur teilweise
offengelegt.152 Personalisierte Preise sind aus Sicht der Kunden hinsichtlich ihrer
Methoden und ihrer Wirkmechanismen häug undurchsichtig. Aufgrund der grund-
sätzlichen kundenseitigen Ablehnung haben Anbieter zudem einen Anreiz, den Ein-
satz von Preispersonalisierung zu verschleieren. Der Anbieter ist damit im Verhält-
nis zum Kunden regelmäßig in einer überlegenen Position: Er hat den technischen
Vorsprung (das Proling-Verfahren), kombiniert mit einem Informationsvorsprung
(personenbezogene Daten des Betroffenen, abstrakte Vergleichsdaten sowie die Er-
gebnisse des Prolings als „neue“ Daten, die eine Aussage über den Kunden treffen).
Angesichts dieser ungleichen Kräfteverteilung ist es dem Anbieter nach Treu und
Glauben zumutbar, Proling in einer Art und Weise auszuführen, die keine ge-
150 Vgl. dazu Herbst, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32020, Art.5 Rn.8–11 DSGVO und Pötters, in: Gola/Heckmann (Hrsg.), Datenschutz-
Grundverordnung/Bundesdatenschutzgesetz, 32022, Art.5 Rn.7 DSGVO.
151 Herbst, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.5 Rn.17 DSGVO.
152 Vgl. hierzu auch das Schufa-Urteil des BGH, NJW 2014, 1235ff., wonach die Score-Formel der
Schufa als Geschäftsgeheimnis geschützt ist und demzufolge keinen datenschutzrechtlichen Aus-
kunftsansprüchen unterliegt (das Urteil bezog sich auf die Rechtslage unter dem BDSG a.F.).
II.Zweite Stufe: Datenauswertung
266
schützten Gruppen diskriminiert. Eine zu weitgehende, überschießende Auslegung
des Art.5 I lit. a DSGVO liegt nicht vor, da Erwägungsgrund 71 DSGVO sich nur
auf Proling, nicht aber andere Arten der Datenverarbeitung bezieht. Der Anwen-
dungsbereich des Verbots ist demnach auf bestimmte Konstellationen begrenzt. Ein
weitreichendes, generell gefasstes Diskriminierungsverbot– wie es etwa in §19 I
AGG enthalten ist– besteht nicht.
Für das gefundene Ergebnis spricht darüber hinaus, dass grundrechtliche Wer-
tungen auch zwischen Privaten mittelbare Wirkung entfalten können. Für privat-
rechtliche Vorschriften gilt, dass diese in grundrechtskonformer Weise auszulegen
sind.153 Zudem dient die Datenschutz-Grundverordnung ausweislich des Art.1 II
DSGVO auch dem Schutz von Grundrechten. Art.5 I lit. a DSGVO ist insoweit ein
tauglicher, generalklauselartiger Anhaltspunkt, um den verfassungsrechtlich gebo-
tenen Diskriminierungsverboten auch im Verhältnis zwischen Privaten Geltung zu
verschaffen.
2. Zwischenergebnis
In das Gebot der Datenverarbeitung nach Treu und Glauben, Art.5 I lit. a DSGVO,
lässt sich ein Diskriminierungsverbot nach Maßgabe des Erwägungsgrundes 71 II
DSGVO hineinlesen. Daraus folgt, dass für den Anbieter eine datenschutzrechtli-
che Verpichtung besteht, Preispersonalisierung diskriminierungsfrei auszugestal-
ten. Ein Verstoß dagegen ist bußgeldbewehrt, Art. 83 V lit. a DSGVO.Konkret
bezieht sich das Verbot der Schlechterbehandlung geschützter Gruppen auf das Pro-
ling, also die Datenauswertung zwecks Bestimmung des Reservationspreises
der Kunden. Die in Erwägungsgrund 71 II DSGVO verwendete Formulierung „zu
diskriminierenden Wirkungen oder zu einer Verarbeitung kommt, die eine solche
Wirkung hat“ macht deutlich, dass das Verbot sich gleichermaßen auf Formen un-
mittelbarer und mittelbarer Diskriminierung bezieht. Eine Rechtfertigungsmöglich-
keit o.Ä. sieht die Datenschutz-Grundverordnung nicht vor. Richtigerweise wird
das hier entwickelte Diskriminierungsverbot aber nicht bedingungslos gelten kön-
nen, sondern muss im Rahmen einer Güter- und Interessenabwägung einer Recht-
fertigung offenstehen. Auf Seiten der Kunden ist dabei der Schutz vor Diskriminie-
rung zu beachten, auf Seiten des Anbieters die unternehmerische Freiheit und
Privatautonomie. Das eingangs diskutierte EuGH-Urteil Test-Achats vermag dabei
eine gewisse (wenngleich nicht sonderlich nuancierte) Hilfestellung zu geben: Es
stellt den Diskriminierungsschutz des Einzelnen deutlich über die wirtschaftlichen
153 Siehe Jarass, Charta der Grundrechte der Europäischen Union, 42021, Art.51 Rn. 38 für die
Grundrechte-Charta. Das Bundesverfassungsgericht hat im Lüth-Urteil die mittelbare Drittwir-
kung der Grundrechte auf das Zivilrecht anerkannt und spricht von einer vom Grundgesetz ausge-
henden „objektive[n] Wertordnung“ (BVerfG, NJW 1958, 257, 257).
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
267
Interessen des Anbieters. Eine wertende Einzelfallbetrachtung ist dennoch unum-
gänglich. Insofern wird auf die Diskussion im Kontext von §19 I AGG verwiesen.154
III.Dritte Stufe: Entscheidungsndung und -ausführung
1. Datenschutzrecht
Für die Frage, wie im Kontext personalisierter Preise im Online-Handel Entschei-
dungen gefällt und ausgeführt werden, ist aus datenschutzrechtlicher Sicht das
grundsätzliche Verbot automatisierter Einzelentscheidungen i.S.d. Art.22 DSGVO
relevant.155
a. Anwendbarkeit (Art.22 IDSGVO)
Der Anwendungsbereich von Art.22 I DSGVO ist eröffnet, wenn die Personalisie-
rung von Preisen dazu führt, dass die betroffenen Kunden „einer ausschließlich auf
einer automatisierten Verarbeitung – einschließlich Proling– beruhenden Ent-
scheidung unterworfen“ werden, die ihnen gegenüber „rechtliche Wirkung entfaltet
oder sie in ähnlicher Weise erheblich beeinträchtigt“.
aa. Automatisierte Einzelentscheidung
Eine Entscheidung kann als „Festlegung auf ein bestimmtes Ergebnis“156 deniert
werden.157 Wenn ein Anbieter auf Methoden des Personalised Pricings zurückgreift,
kann also stets von einer Entscheidung i.S.d. Art.22 I DSGVO ausgegangen wer-
den. Sie liegt ab dem Moment vor, in dem der Anbieter sich aufgrund der Ergeb-
nisse des Prolings entschließt, den Preis einem bestimmten Kunden gegenüber
individuell anzupassen oder eine Anpassung zu unterlassen.158 Dies geschieht bei
154 Siehe dazu unten Kap.11, III. 3. c.
155 Siehe dazu bereits ausführlich oben Kap.4, III.
156 Scholz, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019, Art.22
Rn. 17. Ähnlich Mendoza/Bygrave, in: Synodinou/Jougleux/Markou u. a. (Hrsg.), EU Internet
Law, 2017, S.77, 87.
157 Finck, International Data Privacy Law 9 (2019), 78, 83 argumentiert zutreffend für eine grund-
sätzlich weite Auslegung dieses Begriffs, u. a. da gemäß Erwägungsgrund 71 DSGVO eine Ent-
scheidung auch eine „Maßnahme“ einschließen kann. Siehe dazu und zur Denition des Begriffs
Entscheidung auch Abel, ZD 2018, 304, 305f. („ein aus mindestens zwei Varianten auswählender,
gestaltender Akt mit einer in gewisser Weise abschließenden Wirkung“).
158 So auch Steppe, Computer Law & Security Review 33 (2017), 768, 783; Zuiderveen Borgesius/
Poort, J Consum Policy 40 (2017), 347, 362.
III.Dritte Stufe: Entscheidungsndung und -ausführung
268
Anbietern, die den Preis während des Surfens oder bereits im Moment des Seiten-
aufrufs anpassen, gänzlich automatisiert– also ohne jegliches Zutun eines Men-
schen– und basierend auf Proling i.S.d. Art.4 Nr.4 DSGVO.159
bb. Erhebliche Beeinträchtigung
Schwieriger ist hingegen die Frage zu beantworten, ob personalisierte Preise dem
einzelnen Kunden gegenüber rechtliche Wirkung entfalten oder ihn in ähnlicher
Weise erheblich beeinträchtigen. Davon hängt ab, welche Fallkonstellationen von
Art.22 I DSGVO erfasst werden und welche Maßstäbe bei ihrer Bewertung anzule-
gen sind. Es ist unerheblich, ob das Setzen personalisierter Preise eine „rechtliche
Wirkung“ entfaltet oder ob es „in ähnlicher Weise“ zu einer erheblichen Beein-
trächtigung führt. Beide Alternativen haben die gleichen Rechtsfolgen. Eine trenn-
scharfe Abgrenzung ist unnötig. Auch wenn individualisierte Preise den Kunden in
der Praxis auf verschiedene Weise kommuniziert werden, geht damit also keine
rechtliche Andersbehandlung einher. Daraus folgt wiederum, dass es keine Rolle
spielt, ob Preispersonalisierung mittelbar oder unmittelbar kommuniziert wird.
Diese aus der Regelungstechnik des Art.22 I DSGVO ableitbare Betrachtungs-
weise, wonach die datenschutzrechtliche Bewertung primär auf das Ergebnis der
Datenverarbeitung und die Auswirkungen auf den Einzelnen abstellt, nicht aber auf
die vom Verantwortlichen zur Entscheidungsndung herangezogene Technik, deckt
sich mit dem Leitbild der Technikneutralität, wie er in Erwägungsgrund 15 DSGVO
formuliert wird. Dies ist sachgerecht, da so Zufallsergebnisse vermieden und Um-
gehungsversuche der Anbieter unterbunden werden können. Dementsprechend
kann es auch dahingestellt bleiben, wie das dem Kunden online gemachte Angebot
zivilrechtlich zu qualizieren ist, also ob es etwa ein bindendes Angebot i. S. d.
§145 BGB oder eine bloße invitatio ad offerendum darstellt.160
Beide Alternativen des Art.22 I DSGVO setzen voraus, dass die Entscheidung
eine (zumindest teilweise) nachteilige Komponente enthält.161 Dies ergibt sich aus
dem Wortlaut der Norm („oder sie in ähnlicher Weise erheblich beeinträchtigt“).
Dieser macht deutlich, dass auch die rechtliche Wirkung mit einer erheblichen Be-
einträchtigung einhergehen muss, damit der Anwendungsbereich der Norm eröffnet
159 Steppe, Computer Law & Security Review 33 (2017), 768, 783; Zuiderveen Borgesius/Poort, J
Consum Policy 40 (2017), 347, 362.
160 Vgl. dazu Steppe, Computer Law & Security Review 33 (2017), 768, 784. Die belgische Da-
tenschutzbehörde etwa spricht einem personalisiert-reduzierten Preis, der per Direktwerbung
kommuniziert wird, rechtliche Wirkung zu (Autorité de Protection des Données (Belgische Da-
tenschutzbehörde), Opinion No. 35/2012, 2012, S. 20 Rn. 80 noch zum Entwurf der Daten-
schutz-Grundverordnung).
161 Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.22 Rn.25 DSGVO; Mendoza/Bygrave, in: Synodinou/Jougleux/Markou u.a.
(Hrsg.), EU Internet Law, 2017, S.77, 88f. Wohl auch dieser Ansicht Article 29 Data Protection
Working Party, Guidelines on Automated individual Decision-Making and Proling for the Purpo-
ses of Regulation 2016/679, 2018, S.21f.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
269
ist. Auch der Sinn und Zweck von Art.22 I DSGVO (Schutz des Betroffenen vor zu
weitreichender Automatisierung) sprechen für diese Auslegung: Es ist kein Schutz-
bedürfnis des Betroffenen erkennbar, solange die ihn betreffende Entscheidung aus-
schließlich positive Auswirkungen für ihn hat.162 Die Verwendung personalisierter
Preise eröffnet deshalb nicht automatisch den Anwendungsbereich des Art.22 I
DSGVO.Stattdessen ist eine Einzelfallbetrachtung notwendig.
cc. Diskriminierungsschutz
Die Rechtsfolge von Art.22 I DSGVO ist ein grundsätzliches Handlungsverbot.
Dieses lässt sich unter bestimmten Voraussetzungen auch für Fallkonstellationen
fruchtbar machen, in denen Preispersonalisierung mit der systematischen Schlechter-
stellung geschützter Gruppen einhergeht. Die Beeinträchtigung i.S.d. Art.22 I DS-
GVO muss im Kontext von Preispersonalisierung stets nanzieller Natur sein, da
die Preishöhe die einzige individuell angepasste Variable ist: Durch die ökonomi-
sche Benachteiligung Einzelner kommt ggf. die normativ missbilligte Diskriminie-
rung zum Ausdruck. Die Beantwortung der Frage, in welchen Situationen Art.22 I
DSGVO geschützten Gruppen tatsächlich Schutz gewähren kann, ndet ihren Aus-
gangspunkt also zwingend in der datenschutzrechtlichen Bewertung der nanziel-
len Andersbehandlung einzelner Kunden.
Wenn die auf Proling basierende Preisanpassung beim konkreten Kunden zu
einer ökonomischen Besserstellung gegenüber anderen führt, dann kann eine für
Art. 22 I DSGVO relevante Beeinträchtigung von vornherein per se nur bejaht
werden, wenn eine weitere Gruppe von Kunden einen noch besseren Preis erhält.163
Denkbar wäre etwa, dass ein Anbieter für seine Produkte einen Referenzpreis be-
stimmt, der standardmäßig von allen Kunden (KundengruppeA) verlangt wird.
Kunden der Gruppe B hingegen erhalten– aufbauend auf den Ergebnissen von Pro-
ling, die Auskunft über ihre Zahlungsbereitschaft erlauben– einen Rabatt in Höhe
von 10%. Kunden der (noch preissensitiveren) Gruppe C erhalten einen Rabatt in
Höhe von 20%. Kunden der Gruppe C haben in dieser Konstellation keinen Nach-
teil: Sie werden ökonomisch am besten gestellt und erfahren keine Beeinträchti-
gung i.S.d. Art.22 I DSGVO.Das Proling und die darauf aufbauende Entschei-
dungsndung haben für sie nur positive Folgen. Der Anwendungsbereich der Norm
ist per se nicht eröffnet. Das im Kontext der Rechtsgrundlage Art.6 I S. 1 lit. f
DSGVO angeführte Argument, dass eine isolierte Betrachtung der geschützten In-
teressen des Einzelnen zu kurz käme und deshalb auch die Interessen von mittelbar
beeinträchtigten Dritten (hier: die Interessen der Gruppen A und B) berücksichtigt
werden müssen,164 kann im Kontext von Art.22 I DSGVO nicht gelten. Die Norm
162 So auch Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdaten-
schutzgesetz, 32022, Art.22 Rn.21 DSGVO und (im Ergebnis) Spindler/Horváth, in: Spindler/
Schuster (Hrsg.), Recht der elektronischen Medien, 42019, Art.22 Rn.7 DSGVO.
163 Vgl. dazu auch Ernst, JZ 72 (2017), 1026, 1034f.
164 Siehe dazu bereits oben Kap.11, I. 1. b. cc. ddd.
III.Dritte Stufe: Entscheidungsndung und -ausführung
270
bezieht sich ausweislich ihrer amtlichen Überschrift und angesichts ihrer internen
Logik auf den Einzelfall. Es geht mithin nur um den konkret Betroffenen und die
Auswirkungen, die die Entscheidung auf ihn hat.
Das genannte Beispiel zeigt eine weitere Fragestellung auf. Die Kundengruppen
A und B werden hier „beeinträchtigt“, da sie keinen oder nur einen geringeren Ra-
batt im Vergleich zur Gruppe C erhalten. Unklar ist, ab wann eine rein ökonomische
Beeinträchtigung als „erheblich“ i.S.d. Art.22 I DSGVO eingestuft werden kann.
Dieser Begriff ist normativ und wird von der Datenschutz-Grundverordnung nicht
näher deniert. Da Einzelfallbetrachtungen geboten sind, sind pauschale Aussagen
über die Erheblichkeit personalisierter Preise nicht möglich. Erwägungsgrund 71
DSGVO nennt beispielhaft u. a. „die automatische Ablehnung eines Online-
Kreditantrags“ als Beispiel für eine gem. Art.22 I DSGVO grundsätzlich unzuläs-
sige Entscheidung. Das Beispiel hat einen ökonomischen Charakter und ist deshalb
im weiteren Sinne mit Preispersonalisierung vergleichbar. Es betrifft einen Extrem-
fall, da es sich auf die gänzliche Ablehnung des Antrags bezieht. Übertragen auf
Preispersonalisierung entspräche dies dem– ohne Zweifel erheblich beeinträchti-
genden– Fall, dass eine Preisanpassung so massiv ist, dass der Betroffene aufgrund
seiner persönlichen Aspekte nahezu oder tatsächlich am Zugang zu einem Gut ge-
hindert wird.165 In der Praxis zu erwarten ist dieser Fall kaum. Der Anbieter hat so
lange kein Interesse daran, einen Preis zu verlangen, der über dem Reservations-
preis des Kunden liegt, solange er bei einem Preis in Höhe des Reservationspreises
(oder bei einem niedrigeren Preis) noch Gewinn macht. Auch kann er im Regelfall
Preise de facto nicht frei setzen, sondern unterliegt den Beschränkungen des Wett-
bewerbs. Ein Ausnutzen einer erkannten Zahlungsbereitschaft wäre allenfalls denk-
bar in einer (dann ggf. kartellrechtlich relevanten) Monopolsituation, in der der
Kunde auf ein bestimmtes Gut oder eine bestimmte Dienstleistung zwingend ange-
wiesen ist, etwa bei speziellen Medikamenten oder Gütern der Daseinsvorsorge.166
In anders gelagerten Fällen, in denen die Beeinträchtigung des Einzelnen rein öko-
nomischer Natur ist und dieser realistische Ausweichmöglichkeiten auf andere An-
bieter hat, wird eine geringfügige nanzielle Beeinträchtigung im Vergleich zu Drit-
ten im Regelfall nicht die Erheblichkeitsschwelle des Art.22 I DSGVO übersteigen.
Ein anderes Ergebnis wäre nicht mit der unternehmerischen Freiheit des Anbieters
vereinbar. Dem Grunde nach steht es diesem frei, Preise nach Belieben zu setzen
und von verschiedenen Kunden verschiedene Preise zu verlangen. Eine Einschrän-
kung dieser Freiheit über Art.22 DSGVO ist zum Schutz des Einzelnen zwar
möglich. Sie muss aber verhältnismäßig sein. Dies kann im Einzelfall über das Er-
fordernis der Erheblichkeit der Beeinträchtigung sichergestellt werden. Sofern eine
165 Vgl. etwa Article 29 Data Protection Working Party, Guidelines on Automated individual
Decision-Making and Proling for the Purposes of Regulation 2016/679, 2018, S.22: „Automated
decision-making that results in differential pricing based on personal data or personal characteri-
stics could also have a signicant effect if, for example, prohibitively high prices effectively bar
someone from certain goods or services.“ Vgl. dazu auch Linderkamp, ZD 2020, 506, 508f.
166 Vgl. Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32022, Art.22 Rn.24 DSGVO.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
271
Andersbehandlung der Kunden bloß aufgrund unterschiedlicher Zahlungsbereit-
schaften stattndet, dürfte der Anwendungsbereich der Norm in der Praxis ange-
sichts der regelmäßig nur in geringem Ausmaß nachweisbaren Preispersonalisie-
rung nur im Ausnahmefall eröffnet sein.167
Anders verhält es sich allerdings, wenn mit der nanziellen Ungleichbehandlung
die systematische Diskriminierung geschützter Gruppen einhergeht. Das Tatbe-
standsmerkmal „erheblich“ ist normativ und ausfüllungsbedürftig. Mit Blick auf
die Wertungen der Art.9 I und 22 IV DSGVO sowie Erwägungsgrund 71 DSGVO,
der im Zusammenspiel mit dem allgemeinen Datenschutzgrundsatz Art.5 I lit. a
DSGVO ein Diskriminierungsverbot formuliert, kann im Regelfall von einer erheb-
lichen Beeinträchtigung ausgegangen werden, wenn die Preissetzung systematisch
diskriminierende Wirkungen zu Lasten geschützter Gruppen hat.168 Auf ein Ver-
schulden des Anbieters kommt es dabei nicht an. Er trägt die Verantwortung dafür,
dass sein Preissetzungssystem keine diskriminierenden Wirkungen herbeiführt.
b. Ausnahmen (Art.22 II DSGVO)
Wenn der Anwendungsbereich des Art.22 I DSGVO eröffnet ist, ist die automati-
sierte Entscheidungsndung nur dann zulässig, wenn eine der im zweiten Absatz
der Norm vorgesehenen Ausnahmen greift.
aa. Erforderlichkeit
Eine die automatisierte Einzelentscheidung legitimierende Erforderlichkeit i.S.d.
Art.22 II lit.a DSGVO ist mit Blick auf Preispersonalisierung grundsätzlich kaum
denkbar. Dies gilt unabhängig davon, ob durch sie geschützte Gruppen diskrimi-
niert werden oder nicht.
Wie bereits im Kontext der Rechtsgrundlage Art.6 I S.1 lit. b DSGVO gesehen,
ist Preispersonalisierung zwecks Gewinnmaximierung für den Anbieter zwar durch-
167 Dies mag sich zukünftig aber durchaus ändern, sofern beispielsweise neue Methoden der Preis-
kommunikation aufkommen oder generell die Akzeptanz personalisierter Preise steigt.
168 Vgl. Abel, ZD 2018, 304, 306; Malgieri/Comandé, International Data Privacy Law 7 (2017),
243, 254; Martini, in: Paal/Pauly (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32021, Art.22 Rn.27 DSGVO; Spindler/Horváth, in: Spindler/Schuster (Hrsg.), Recht der
elektronischen Medien, 42019, Art.22 Rn.8 DSGVO. Article 29 Data Protection Working Party,
Guidelines on Automated individual Decision-Making and Proling for the Purposes of Regula-
tion 2016/679, 2018, S.21 hebt Diskriminierung als Extremfall einer erheblichen Beeinträchti-
gung hervor. Unklar Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundes-
datenschutzgesetz, 32022, Art. 22 Rn. 23 DSGVO, der eine erhebliche Beeinträchtigung bei
„Diskriminierungen außerhalb des AGG“ bejaht. Damit ist wohl gemeint, dass Diskriminierungen
stets erheblich beeinträchtigen und Art.22 I DSGVO auch solche Fälle erfasst, die nicht unter das
Allgemeine Gleichbehandlungsgesetz fallen.
III.Dritte Stufe: Entscheidungsndung und -ausführung
272
aus nützlich und ggf. Teil seiner Verkaufs- und Preissetzungsstrategie.169 Erforder-
lich i.S.d. Art.22 II lit. a DSGVO ist sie in diesem Kontext aber weder für den Ver-
tragsabschluss noch für die Vertragserfüllung.170 Die Anpassung von Preisen ist dem
Anbieter auch ohne Proling-basierte (und damit für das Recht auf informationelle
Selbstbestimmung relevante) Datenverarbeitungsvorgänge möglich, namentlich im
Rahmen dynamischer Preissetzung. Diese ndet in der Praxis regelmäßig statt und ist
datenschutzrechtlich betrachtet von ihrer Grundkonzeption her völlig neutral.
Eine Erforderlichkeit mag bejaht werden, sofern etwa die grundsätzliche Ent-
scheidung für oder gegen eine Kreditgewährung oder über die Kreditmodalitäten
ansteht.171 Die in diesen Fällen anzulegenden Maßstäbe sind im Kontext von Art.22
II lit. a DSGVO allerdings nur bedingt auf Personalised Pricing übertragbar. Anders
als dort handelt es sich dabei um grundlegende, mithin erforderliche Entscheidun-
gen (kann der Kredit überhaupt vergeben werden?), die sich darüber hinaus nicht
nur auf eine Bewertung persönlicher Aspekte, sondern ganz wesentlich auch auf die
objektive, tatsächliche Leistungsfähigkeit des Betroffenen beziehen. In diesen Situ-
ationen ist die Erforderlichkeit aber objektiv begründet und damit deutlich früher zu
bejahen als bei personalisierten Preisen. In aller Regel scheidet Art.22 II lit. a DS-
GVO damit als Ausnahmetatbestand aus.
bb. Öffnungsklausel
Von der Öffnungsklausel des Art.22 II lit. b DSGVO hat Deutschland mit verschie-
denen Regelungen (etwa §§155 IV AO und 35a VwVfG) Gebrauch gemacht und
insoweit automatisierte Einzelentscheidungen i.S.d. Art.22 I DSGVO ermöglicht.
Keine dieser Regelungen hat unmittelbare Relevanz für Preispersonalisierung im
privatrechtlichen Bereich. Eine gewisse Sachnähe besteht einzig im Fall des §37 I
BDSG n.F.Diese Norm regelt unter expliziter Bezugnahme auf Art.22 II lit. b DS-
GVO automatisierte Einzelentscheidungen im Rahmen der Leistungserbringung
nach Versicherungsverträgen. Diese Norm ist aus verschiedenen Gründen miss-
glückt. §37 I Nr.1 BDSG n.F. hebt das Verbot des Art.22 I DSGVO in den Fällen
auf, in denen dem Begehren des Betroffenen stattgegeben wird. Diese Fälle werden
nach hier vertretener Ansicht per se gar nicht vom Anwendungsbereich des Art.22
I DSGVO erfasst, weshalb die (zudem ohne ersichtlichen Grund rein sektorspezi-
sch erfolgte) Klarstellung unnötig ist.172
169 Siehe dazu bereits oben Kap.11, I. 1. b. bb.
170 So tendenziell auch Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 362.
171 Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32020, Art.22 Rn.30 DSGVO; Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundver-
ordnung/Bundesdatenschutzgesetz, 32022, Art.22 Rn.29 DSGVO.
172 So auch Paschke/Scheurer, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bun-
desdatenschutzgesetz, 32022, §37 Rn.5f. BDSG.Die Gesetzesbegründung führt sogar selbst aus,
dass in den Fällen, in denen dem Begehren des Betroffenen entsprochen wird, keine Rechtsbeein-
trächtigung zu seinen Lasten gegeben ist (BR-Drucksache 110/17, S.107f.).
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
273
Auch die Regelung des §37 I Nr.2 BDSG n.F. kann dogmatisch nicht überzeu-
gen. Sie bezieht sich auf die automatisierte Anwendung verbindlicher Entgeltrege-
lungen für Heilbehandlungen. Gemeint ist damit die Abrechnung von Leistungen
privater Krankenversicherungen.173 Auch diese Norm widerspricht der hier vertrete-
nen Auslegung des Art.22 I DSGVO: Abrechnungsfälle, die nur eine „Anwendung
verbindlicher Entgeltregelungen“ i. S. d. §37 I Nr.2 BDSG n.F. darstellen, er-
schöpfen sich in einer wertungsfreien Ausführung von im Vorfeld klar denierten
Regeln, die mit Proling nichts zu tun haben.174 Auch diese Fälle eröffnen per se
aber gar nicht den Anwendungsbereich des Art. 22 I DSGVO.175 Der Schutz des
Kunden vor zu weitgehender Automatisierung und Objektivierung, welcher mit
dem Verbot des Art.22 I DSGVO bzw. mit den in Art.22 II lit. b DSGVO vorgese-
henen angemessenen Maßnahmen einhergeht, schießt in solchen Fallkonstellatio-
nen über das Ziel hinaus. Konsequent weitergedacht, führt die Regelung des §37 I
Nr.2 BDSG n.F. zu absurden Ergebnissen. Im Umkehrschluss könnte man aus ihr
nämlich ableiten, dass ein wertendes, dem Proling zumindest ähnliches Element
auf Seiten des Anbieters im (nicht von §37 I Nr.2 BDSG n.F. erfassten) Regelfall
nicht notwendig ist, um das grundsätzliche Verbot des Art.22 I DSGVO zu aktivie-
ren. Dies würde bedeuten, dass von der letztgenannten Norm beispielsweise auch
der Fall erfasst wäre, dass ein Geldautomat bei unzureichender Kontodeckung eine
Geldauszahlung verweigert. Dies hätte wiederum– die Bejahung der Ausnahmetat-
bestände Art.22 II lit.a oder c DSGVO unterstellt– zur Folge, dass die Bank daten-
schutzrechtlich zur Bereitstellung angemessener Maßnahmen i. S. d. Art. 22 III
DSGVO verpichtet ist.176 Vom Telos des Art.22 I DSGVO sind derlei Situationen
aber weit entfernt.
Bei Zugrundelegung einer europarechtskonformen Auslegung kann §37 I Nr.1
und 2 BDSG n.F. demnach nur eine deklaratorische Funktion zugestanden werden.
Würde man in ihm einen eigenständigen, regelnden Aussagegehalt sehen, hieße
dies, dass die nationale Norm den Anwendungsbereich von Art.22 I DSGVO de-
niert. Dies wäre allerdings von der Öffnungsklausel des Art. 22 II lit. b DSGVO
nicht mehr gedeckt. Dem deutschen Gesetzgeber würde insoweit die Gesetzge-
bungskompetenz fehlen.
cc. Ausdrückliche Einwilligung
Die einzige im Kontext von Preispersonalisierung für den Anbieter verfügbare Aus-
nahme vom Verbot des Art. 22 I DSGVO ist das Einholen einer ausdrücklichen
Einwilligung i.S.d. Art.22 II lit. c DSGVO.Diese muss sich explizit auf das auto-
173 So ausdrücklich BR-Drucksache 110/17, S.108.
174 So im Ergebnis auch Paschke/Scheurer, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverord-
nung/Bundesdatenschutzgesetz, 32022, §37 Rn.6 BDSG.
175 Siehe dazu bereits oben Kap.4, III. 1. c.
176 Vgl. Schulz, in: Gola/Heckmann (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzge-
setz, 32022, Art.22 Rn.19 DSGVO.
III.Dritte Stufe: Entscheidungsndung und -ausführung
274
matisierte Entscheiden und das Ausführen der Entscheidung beziehen.177 Es geht
also um eine Einwilligung in das vom Anbieter gewählte Verfahren. Sie ist von der
Einwilligung in die Datenverarbeitung zu unterscheiden, die der Entscheidung vor-
gelagert ist.
Eine automatisierte Einzelentscheidung, durch die ein Kunde aufgrund seiner
Zugehörigkeit zu einer geschützten Gruppe schlechter behandelt wird als andere
Kunden, kann nicht über Art.22 II lit. c DSGVO legitimiert werden. Eine dahin-
gehende explizite Einwilligungserklärung würde sich auf einen Zweck beziehen,
der nicht legitim i.S. d. Art.5 I lit. b DSGVO ist. Sie wäre unwirksam. Das gilt
auch, wenn Anbieter und Kunde von der diskriminierenden Wirkung nichts wis-
sen.178 Das Verbot des Art.22 I DSGVO würde greifen.
Wenn keine Diskriminierung stattndet und eine Legitimation per Einwilligung
grundsätzlich möglich ist, bestehen aufgrund der geforderten Ausdrücklichkeit
(Art. 22 II lit. c DSGVO) gesteigerte Anforderungen an die Art ihrer Erteilung.
Diese gehen über die Vorgaben in Art.6 I S. 1 lit. a, 4 Nr.11 und 7 DSGVO hi-
naus.179 Letztlich besteht dann im Wesentlichen ein Gleichlauf mit dem bereits weiter
oben festgehaltenen Ergebnis, dass nur eine Einwilligung i.S.d. Art.6 I S.1 lit.a
DSGVO eine geeignete Rechtsgrundlage für das Erheben und Auswerten personen-
bezogener Daten zwecks Bestimmung des Reservationspreises des Kunden darstel-
len kann. Eine Einwilligung ist demnach, sofern die Erheblichkeitsschwelle über-
schritten und der Anwendungsbereich des Art.22 I DSGVO eröffnet ist, auf allen
drei Stufen des Modells notwendig. Für Anbieter und Kunden wird die ggf. notwen-
dige Ausdrücklichkeit der Einwilligung gem. Art.22 II lit. c DSGVO und der Bezug
(auch) auf die dritte Stufe de facto keinen wesentlichen Unterschied machen, da aus
Sicht der Kunden das Durchlaufen aller drei Stufen wie ein einheitlicher Vorgang
erscheinen dürfte und ohnehin hohe Anforderungen an die Einwilligungserteilung
im Kontext des Art.6 I S.1 lit. a DSGVO gelten.
dd. Art.22 IV DSGVO
Einen indirekten Schutz vor Diskriminierung bewirkt Art.22 IV DSGVO.Dem-
nach darf eine ausnahmsweise zulässige automatisierte Einzelentscheidung
grundsätzlich nicht auf sensiblen– und mithin besonders diskriminierungsgeeig-
neten– Daten i.S.d. Art.9 I DSGVO beruhen. Allerdings greift eine Rückaus-
177 Vgl. Buchner, in: Kühling/Buchner (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz, 32020, Art.22 Rn.41f. DSGVO.Das Erteilen einer ausdrücklichen Einwilligung ist im
Online-Kontext ohne Weiteres durch das Anklicken einer entsprechend klar bezeichneten Box
o.Ä. zulässig, vgl. Article 29 Data Protection Working Party, Guidelines on Consent under Regu-
lation 2016/679, 2018, S.18f.
178 Siehe dazu bereits oben Kap.11, I. 1. b. aa. ddd.
179 Article 29 Data Protection Working Party, Guidelines on Consent under Regulation 2016/679,
2018, S.18.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
275
nahme von diesem Verbot, wenn ein Fall von Art.9 II lit. a oder g180 DSGVO
vorliegt und angemessene Maßnahmen i.S.d. Art.22 IV DSGVO getroffen wur-
den. Im Kontext von Preispersonalisierung bedeutet dies, dass eine automatisierte
Einzelentscheidung nur dann zulässig ist, wenn (über das Vorliegen der Voraus-
setzungen des Art.22 II DSGVO hinaus) die ursprüngliche Datenverarbeitung,
auf der die Entscheidung basiert, auf eine ausdrückliche Einwilligung i. S. d.
Art.9 II lit.a DSGVO gestützt wurde.181 Konkret muss diese sich auf Erhebung
und Auswertung der Daten (Stufen 1 und 2 des Modells) beziehen. Der so be-
zweckte Diskriminierungsschutz ist indirekt: Art.22 IV DSGVO verbietet– im
Gegensatz zu Art.22 I DSGVO– keine diskriminierenden Handlungen. Er erhöht
bloß die Anforderungen, die ein Anbieter erfüllen muss, um sensible Daten in eine
automatisierte Einzelentscheidung einießen lassen zu dürfen. Das Einhalten die-
ser Anforderungen garantiert aber keinen Schutz vor Diskriminierung. Es er-
schwert diese bloß.
Für Preispersonalisierung spielt Art.22 IV DSGVO keine Rolle: Anbieter müs-
sen nach hier vertretener Ansicht ohnehin Einwilligungserklärungen für die Erhe-
bung und Auswertung der notwendigen Daten einholen und, sofern sensible Da-
ten betroffen sind, die erhöhten Anforderungen des Art. 9 II lit. a DSGVO
beachten.
c. Rechtsfolgen und praktische Überlegungen
Sofern ein über eine ausdrückliche Einwilligung gerechtfertigter Fall des Art.22 I
DSGVO vorliegt, ist der Anbieter gem. Art.22 III DSGVO verpichtet, angemes-
sene Maßnahmen zu treffen, „um die Rechte und Freiheiten sowie die berechtigten
Interessen der betroffenen Person zu wahren, wozu mindestens das Recht auf Erwir-
kung des Eingreifens einer Person seitens des Verantwortlichen, auf Darlegung des
eigenen Standpunkts und auf Anfechtung der Entscheidung gehört.“ Im Kern be-
deutet dies, dass dem Kunden die Möglichkeit gegeben werden muss, zu bewirken,
dass ein menschlicher Entscheider sich mit der getroffenen Entscheidung auseinan-
dersetzt und diese unter Berücksichtigung des Standpunkts des Kunden und seiner
Argumente inhaltlich überdenkt und ggf. abändert.182
Der tatsächliche Nutzen dieser Schutzmaßnahmen dürfte sich im Kontext von
Preispersonalisierung beim Online-Handel mit Waren und Dienstleistungen in über-
schaubaren Bahnen bewegen. Zuiderveen Borgesius und Poort bilden etwa das Bei-
spiel, dass eine Kundin aufgrund ihrer persönlichen Eigenschaften bei einem be-
stimmten Online-Anbieter einen erhöhten Preis für ein Produkt bezahlt hat und dies
180 Der Verweis auf Art.9 II lit. g DSGVO (erhebliches öffentliches Interesse) spielt hier keine Rolle.
181 Vgl. zur Prüfungsreihenfolge des Art.22 IV DSGVO Buchner, in: Kühling/Buchner (Hrsg.),
Datenschutz-Grundverordnung/Bundesdatenschutzgesetz, 32020, Art.22 Rn.45 DSGVO.
182 Siehe dazu bereits oben Kap.4, III. 1. b.
III.Dritte Stufe: Entscheidungsndung und -ausführung
276
im Nachgang realisiert.183 Aus Art.22 III DSGVO lässt sich in dieser Situation das
Recht der Kundin ableiten, in persönlichen Kontakt mit dem Anbieter zu treten184
und auf diesen etwa dahingehend einzuwirken, dass er den verlangten Preis wieder
reduziert. Der Anbieter muss eine dahingehende Infrastruktur bereithalten. Einen
Anspruch auf Abänderung der Entscheidung– hier also die nachträgliche Absen-
kung des Preises– gewährt Art.22 III DSGVO nicht. Es ist unwahrscheinlich, dass
Kunden sich im Nachgang zu einem abgeschlossenen Kauf mit dem Anbieter wie
beschrieben in Verbindung setzen und ihm gegenüber argumentieren, dass ein
anderer, niedrigerer Preis der „richtige“ gewesen sei. Aus Sicht eines wegen der
Preisgestaltung verärgerten Kunden wäre ein Widerruf des Fernabsatzvertrages
gem. §§312c, 312g I, 310 III, 355 BGB nahe liegender. Es stünde ihm zudem frei,
unter Ankündigung der sonstigen Geltendmachung des ihm zustehenden Widerrufs-
rechts eine nachträgliche Reduktion einzufordern. Das Schutzsystem des Art.22 III
DSGVO bringt ihm in dieser Situation keinen echten Mehrwert.
Der Nutzen der Norm zeigt sich stattdessen in anderen Entscheidungskonstellati-
onen, die für den Kunden mit weitreichenderen wirtschaftlichen und sozialen Folgen
verknüpft sind. Die in Erwägungsgrund 71 DSGVO genannten, ihrer Natur nach
eingriffsintensiveren Beispiele (Ablehnung eines Kreditantrags sowie voll automati-
sierte Einstellungsverfahren) verdeutlichen viel besser das Bedürfnis nach Schutz
vor zu starker Automatisierung und Objektivierung des Einzelnen und die damit ver-
knüpfte Notwendigkeit, vom Verantwortlichen die Bereitstellung angemessener
Maßnahmen i.S.d. Art.22 III DSGVO zu verlangen. Bei beiden in Erwägungsgrund
71 DSGVO beispielhaft genannten Konstellationen bestehen typischerweise unglei-
che Machtverhältnisse zwischen den Beteiligten (Kreditantragsteller– Bank sowie
Arbeitssuchender– Arbeitgeber). Der typische Kreditantragsteller bzw. Arbeitssu-
chende ist somit von vornherein in einer schwächeren Position. Bedient sich ihr Ge-
genüber in dieser Situation eines Entscheidungsndungssystems, welches in den
Anwendungsbereich des Art.22 I DSGVO fällt und einseitige, für den Betroffenen
nachteilige Entscheidungen trifft, sind die Folgen für ihn weitreichender, als es bei
Online-Preispersonalisierung der Fall ist. Auch strukturell besteht ein bedeutender
Unterschied zwischen den Fallkonstellationen: Der Kunde nimmt den personalisier-
ten Preis ggf. aus freien Stücken an und tätigt den Kauf freiwillig. Es besteht damit
gerade nicht die Situation eines faktischen einseitigen Unterworfenseins aufgrund
unterschiedlich verteilter wirtschaftlicher Macht, wie es bei der Kredit- und der Ein-
stellungsentscheidung der Fall ist. Vielmehr hat der Kunde nach dem Treffen und
Ausführen der anbieterseitigen Entscheidung (die sich in der Preishöhe widerspie-
gelt) aktiven Einuss darauf, ob und unter welchen Bedingungen der Vertrag mit
dem Anbieter zustande kommt.
183 Zuiderveen Borgesius/Poort, J Consum Policy 40 (2017), 347, 362. In dem Beispiel wird die
Anwendbarkeit von Art.21 I DSGVO vorausgesetzt und auf die Ausnahme des Art.22 II lit. a
DSGVO abgestellt.
184 Scholz, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019, Art. 22
Rn.60 spricht (allgemein) zutreffend von der Eröffnung eines dahingehenden Kommunikationswegs.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
277
d. Zwischenergebnis
Bei Zugrundelegung rein ökonomischer Bewertungsmaßstäbe spielt Art. 22 DS-
GVO im Kontext von Preispersonalisierung eine eher untergeordnete Rolle. Art.22
I DSGVO ist nur anwendbar, wenn der Kunde im Einzelfall erheblich beeinträchtigt
wird. Zahlreiche Fallkonstellationen dürften mangels Erheblichkeit der Preisdiffe-
renz zu anderen Kunden (bzw. Kundengruppen) somit von vornherein gar nicht von
der Norm erfasst sein. Sollte ein Anbieter „erheblich“ differenzieren wollen, müsste
er eine ausdrückliche Einwilligung i.S.d. Art.22 II lit.c DSGVO einholen. Prak-
tisch macht dies für ihn keinen wesentlichen Unterschied: Um Proling-basierte
Preispersonalisierung zu betreiben, muss ohnehin eine Einwilligung des Kunden
i.S.d. Art.6 I S.1 lit. a DSGVO vorliegen. Die Erklärung müsste entsprechend
angepasst werden. Die dem Anbieter ggf. erwachsenden Pichten aus Art. 22 III
DSGVO sind relativ unbedeutend. Dem Kunden stehen im Nachgang zum Vertrags-
schluss effektivere zivilrechtliche Möglichkeiten zur Verfügung, um sich vom Ver-
trag wieder zu lösen oder eine nachträgliche Preisreduktion auszuhandeln. Dies
liegt daran, dass das Schutzsystem des Art.22 III DSGVO eher auf solche Fälle
ausgelegt ist, in denen der Betroffene sich in einer systematisch deutlich unterlege-
nen Position bendet.
Von vornherein anders verhält sich die Rechtslage, wenn automatisierte Einzel-
entscheidungen die Kunden aufgrund ihrer Zugehörigkeit zu einer geschützten
Gruppe systematisch schlechterstellen: In diesen Fallkonstellationen liegt stets eine
erhebliche Beeinträchtigung i.S.d. Art.22 I DSGVO vor. Auf eine Ausnahme nach
Art.22 II DSGVO kann der Anbieter sich dann nicht berufen. Art.22 I DSGVO
postuliert damit ein effektives datenschutzrechtliches Verbot von Preissetzungsme-
thoden, die zu einer systematischen Diskriminierung geschützter Gruppen führen.
2. Lauterkeitsrecht
Das Gesetz gegen den unlauteren Wettbewerb ist im Kontext von Preispersonalisie-
rung vor allem unter dem Aspekt der Transparenz und der Preiskommunikation re-
levant. Aus den dahingehenden Transparenzpichten folgt ein indirekter Schutz vor
unzulässiger Diskriminierung geschützter Gruppen. Einschlägige diesbezügliche
Handlungsverbote– vergleichbar mit Art.22 I DSGVO und §19 I AGG– sind al-
lerdings nicht ersichtlich.
a. Per se-Verbot (§3 III UWG i.V.m. Anhang Nr.18)
Es wäre denkbar, dass die Verwendung personalisierter Preise (unabhängig davon,
ob die Personalisierung mittelbar oder unmittelbar durchgeführt wird) als unwahre
Angabe über die Marktbedingungen unter das per se-Verbot des §3 III UWG i.V.m.
Anhang Nr.18 fällt. Ein Verstoß gegen die im Anhang aufgeführten geschäftlichen
III.Dritte Stufe: Entscheidungsndung und -ausführung
278
Handlungen ist gem. §3 III UWG ohne Weiteres lauterkeitsrechtlich unzulässig.
Gem. Nr.18 des Anhangs ist „eine unwahre Angabe über die Marktbedingungen
(…), um den Verbraucher dazu zu bewegen, eine Ware oder Dienstleistung zu weni-
ger günstigen Bedingungen als den allgemeinen Marktbedingungen abzunehmen
oder in Anspruch zu nehmen“ stets unlauter. Der relevante Verkehrskreis bestimmt
sich nach den Vorgaben des §3 IV UWG.
Dieses Verbot könnte in den Fällen einschlägig sein, in denen der personalisierte
Preis im Einzelfall höher liegt (und mithin eine weniger günstige Bedingung dar-
stellt), als es die allgemeinen Marktbedingungen gebieten. Wegen der pauschal ein-
tretenden lauterkeitsrechtlichen Unzulässigkeit, die mit einem Verstoß gegen §3 III
UWG einhergeht, ist eine restriktive Auslegung der Norm geboten. Daher wird ein
deutlich höherer185 Preis im Vergleich zu anderen Anbietern notwendig sein, um das
Vorliegen von weniger günstigen Bedingungen i.S.d. Anhangs Nr.18 bejahen zu
können.186 Rechtliche Kernfrage ist hier, ob der Einsatz personalisierter Preise eine
„unwahre Angabe über die Marktbedingungen“ darstellen kann. Am ehesten in Be-
tracht kommen Fälle der unmittelbaren Preispersonalisierung, da diese eine Preis-
änderung– in diesem Fall: Anhebung des Preises– ohne für den Kunden erkennbare
Rechtfertigung darstellen. Der Begriff Marktbedingungen erfasst „grundsätzlich
alle Umstände, die für alle Anbieter dieses Produktes (oder dieser Dienstleistung)
auf dem fraglichen Markt gelten und die in irgendeiner Weise Auswirkungen auf das
Preisniveau, die Qualität oder die Leistungserbringung haben.“187 Im Kontext des
Anhangs Nr.18 ist vor allem das generelle Preisniveau als einer der für den Kunden
wichtigsten, durchaus kaufentscheidenden Faktoren von Bedeutung.188 Über dieses
müsste der Anbieter den Kunden durch den Einsatz personalisierter Preise absicht-
lich (vgl. den Wortlaut: „um (…) zu“)189 täuschen, um ihn zu einem für ihn nachtei-
ligen Kauf zu bewegen.
Aus verschiedenen Gründen ist das per se-Verbot des §3 III UWG i.V.m. An-
hang Nr.18 im Kontext von Preispersonalisierung allerdings nicht einschlägig. Die
Angabe eines personalisierten Preises ist keine falsche, also aus objektiver Sicht
unwahre,190 Aussage über Marktbedingungen, wie in Anhang Nr.18 vorausgesetzt
wird. Sie enthält nämlich gar keine Aussage über das Niveau des Marktpreises, wie
etwa dass andere Anbieter höhere Preise verlangen oder ungünstigere, mit dem
185 Die Frage, was ein „deutlich höherer“ Preis ist, ist eine normative. Ihre Beantwortung ist zudem
vom Einzelfall abhängig. Deshalb können keine allgemeingültigen dahingehenden Aussagen ge-
troffen werden.
186 Vgl. Henning-Bodewig, in: Harte-Bavendamm/Henning-Bodewig (Hrsg.), Gesetz gegen den
unlauteren Wettbewerb (UWG), 52021, Anhang zu §3 Abs.3 UWG Rn.388.
187 Dies., in: Harte-Bavendamm/Henning-Bodewig (Hrsg.), Gesetz gegen den unlauteren Wettbe-
werb (UWG), 52021, Anhang zu §3 Abs.3 UWG Rn.384.
188 Dies., in: Harte-Bavendamm/Henning-Bodewig (Hrsg.), Gesetz gegen den unlauteren Wettbe-
werb (UWG), 52021, Anhang zu §3 Abs.3 UWG Rn.384; Obergfell, ZLR 2017, 290, 297.
189 Noch deutlicher ergibt sich das Erfordernis der Absicht aus dem Wortlaut von Anhang I Nr.18
UGP-RL: „mit dem Ziel“.
190 Henning-Bodewig, in: Harte-Bavendamm/Henning-Bodewig (Hrsg.), Gesetz gegen den unlau-
teren Wettbewerb (UWG), 52021, Anhang zu §3 Abs.3 UWG Rn.383.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
279
Kauf verbundene Leistungsbedingungen aufweisen. Auch ist kein Erklärungsgehalt
dahingehend gegeben, welche Preise der Anbieter von anderen Kunden verlangt.
Eine solche sachlich falsche Information191 über die Preisgestaltung anderer Anbie-
ter bzw. im Verhältnis zu den anderen (eigenen) Kunden kann nicht einmal konklu-
dent in die Preisangabe hineingelesen werden.192 Es kann damit dahingestellt blei-
ben, ob eine ausdrückliche Erklärung über die Marktbedingungen notwendig ist,
um den Tatbestand des Anhangs Nr.18 zu erfüllen, oder ob eine konkludente auszu-
reichen vermag.193 Mangels Aussage über das Niveau des Marktpreises liegt also
auch keine Täuschung darüber vor. Der Anbieter schafft bzw. begünstigt durch sein
Verhalten zudem keine Situation, die den Kunden daran hindert, den Preis mit den
Angeboten anderer Händler bzw. Dienstleistungsanbieter zu vergleichen.194 Statt-
dessen wird der Kunde, indem ihm „sein“ Preis angezeigt wird, bloß in zutreffender
Weise über den für ihn im bilateralen Verhältnis zum Anbieter gültigen Preis infor-
miert. Dieser individuelle Preis spiegelt im Einzelfall die allgemeinen Marktbedin-
gungen aus Sicht des betroffenen Kunden wider.195 Die letzte Aussage gilt umso
mehr, sollten in Zukunft personalisierte Preise stärker zum gesellschaftlich akzep-
tierten Regelfall werden. Wäre– auf die Spitze getrieben– jeder Preis persona-
lisiert, so hieße das im Umkehrschluss, dass es keinen einheitlichen Marktpreis
mehr gibt und der Begriff der allgemeinen Marktbedingungen einen Bedeutungs-
wandel erlebt.
Auch die bereits beschriebene Fallkonstellation, dass ein Anbieter in den Fällen,
in denen ein bestimmtes Produkt über ein Preisvergleichsportal gesucht wird, auto-
matisch den Preis auf der eigenen Seite ändert, fällt damit nicht unter das Verbot des
Anhangs Nr.18. Auch dort wird dem Kunden in der konkreten Situation nämlich
der für ihn momentan gültige Preis angezeigt, ohne dass damit zugleich eine Aus-
sage über die allgemeinen Marktbedingungen einhergeht.196
b. Preisbezogene Irreführung (§5 IUWG)
Gem. §5 I UWG handelt unlauter, „wer eine irreführende geschäftliche Handlung
vornimmt, die geeignet ist, den Verbraucher oder sonstigen Marktteilnehmer zu ei-
ner geschäftlichen Entscheidung zu veranlassen, die er andernfalls nicht getroffen
hätte.“ Der Begriff der irreführenden geschäftlichen Handlung wird in §5 II Nr.2
191 So der Wortlaut in Anhang I Nr.18 UGP-RL.
192 Obergfell, ZLR 2017, 290, 297.
193 So etwa Alexander, in: Münchener Kommentar zum Lauterkeitsrecht (Hrsg.), Band 1: Grundla-
gen und unionsrechtlicher Rahmen des Lauterkeitsrechts, §§1–7 UWG, 32020, Anhang (zu §3 III)
Nr.19 Rn.16 UWG.
194 Hofmann, WRP 62 (2016), 1074, 1080; Obergfell, ZLR 2017, 290, 297.
195 Hofmann, WRP 62 (2016), 1074, 1080; Obergfell, ZLR 2017, 290, 297.
196 Hinzu kommt, dass bei Ansteuern über das Preisvergleichsportal in der Regel ein abgesenkter
Preis angezeigt wird. Weniger günstige Bedingungen i.S.d. Anhangs Nr.18 hat der Kunde also
regelmäßig ohnehin nicht zu befürchten. Vgl. auch Hofmann, WRP 62 (2016), 1074, 1080.
III.Dritte Stufe: Entscheidungsndung und -ausführung
280
UWG konkretisiert. Eine solche liegt demnach u.a. dann vor, wenn sie unwahre
Angaben oder sonstige zur Täuschung geeignete Angaben enthält über „den Anlass
des Verkaufs wie das Vorhandensein eines besonderen Preisvorteils, den Preis oder
die Art und Weise, in der er berechnet wird, oder die Bedingungen, unter denen die
Ware geliefert oder die Dienstleistung erbracht wird“.
Aus dem Gesetzestext lassen sich im Kontext von Preispersonalisierung zwei mög-
licherweise einschlägige, inhaltlich eng miteinander verwandte Fallgruppen von preis-
bezogener Irreführung ableiten. Denkbar wäre zunächst eine Irreführung über den
Preis als solches bzw. die Art und Weise der Preisberechnung. Darüber hinaus käme
eine Irreführung über das Vorhandensein eines besonderen Preisvorteils in Betracht.197
aa. Täuschung über den Preis oder Art und Weise der Preisberechnung
Bei einer Täuschung über den Preis oder Art und Weise der Preisberechnung geht es
darum, dass der Anbieter beim Kunden bezüglich eines Produktes oder einer Dienst-
leistung eine Preisangabe tätigt, die bei diesem eine wahrheitswidrige Vorstellung
mit der Folge auslöst, dass der Kunde irrtümlich von einem Preis ausgeht, der nied-
riger als der tatsächlich verlangte ist.198 Ein solches, durch den Anbieter provozier-
tes Auseinanderfallen von Vorstellung und Wirklichkeit liegt vor allem dann vor,
wenn die vom Anbieter getätigten Angaben objektiv unrichtig, mehrdeutig oder un-
vollständig sind.199 §5 II Nr.2 UWG dient damit in erster Linie der Sicherstellung
ausreichender Preiswahrheit.200 Dies wird ergänzt durch die Preisangabenverord-
nung, deren Zweck vor allem, aber nicht nur, in der Gewährleistung ausreichender
Preisklarheit besteht.201 Sie zielt damit primär auf Transparenz ab: Preisangabe- und
Preisauszeichnungsvorschriften sollen dafür sorgen, dass der Kunde ohne Weiteres
und unmittelbar erkennen kann, welcher Preis gilt.202 Dadurch hat er die Möglich-
197 Die Fallgruppe „Vorhandensein eines besonderen Preisvorteils“ wird in §5 II Nr.2 UWG als
Regelbeispiel bzw. Unterfall der Fallgruppe „Anlass des Verkaufs“ aufgeführt. In Art.6 I lit. d
UGP-RL wird sie hingegen als eigenständige Fallgruppe genannt. Deshalb ist sie in richtlinienkon-
former Auslegung von §5 II Nr.2 UWG auch als eigene Fallgruppe zu behandeln. Sie kann dem-
nach unabhängig von einer Täuschung über den Anlass des Verkaufs (etwa in Form einer Scheinin-
solvenz) einschlägig sein (Sosnitza, in: Ohly/Sosnitza (Hrsg.), Gesetz gegen den unlauteren
Wettbewerb, 82023, §5 Rn.433 UWG; Weidert, in: Harte-Bavendamm/Henning-Bodewig (Hrsg.),
Gesetz gegen den unlauteren Wettbewerb (UWG), 52021, §5 Rn.715 UWG).
198 Vgl. Weidert, in: Harte-Bavendamm/Henning-Bodewig (Hrsg.), Gesetz gegen den unlauteren
Wettbewerb (UWG), 52021, §5 Rn.732 UWG.
199 Ders., in: Harte-Bavendamm/Henning-Bodewig (Hrsg.), Gesetz gegen den unlauteren Wettbe-
werb (UWG), 52021, §5 Rn.732 UWG.
200 Bornkamm/Feddersen, in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlauteren
Wettbewerb, 412023, §5 Rn.3.23 UWG.
201 Dies., in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlauteren Wettbewerb, 412023,
§5 Rn.3.23–3.26 UWG.
202 Vgl. Köhler, in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlauteren Wettbewerb,
412023, §1 Rn.19 PAngVO; Weidert, in: Harte-Bavendamm/Henning-Bodewig (Hrsg.), Gesetz
gegen den unlauteren Wettbewerb (UWG), 52021, §1 Rn.80 PAngVO.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
281
keit eines einfachen Preisvergleichs mit anderen Anbietern. Funktional soll Preis-
klarheit dadurch sichergestellt werden, dass der Anbieter den Kunden auf sachlich
zutreffende und vollständige Art und Weise über den Preis informiert.203 Aus diesem
Grund muss beispielsweise der Gesamtpreis gem. §§3 I i. V.m.2 Nr.3 PAngVO
bereits die Umsatzsteuer enthalten. Preiswahrheit ist aber ebenso ein erklärtes Ziel
der Preisangabenverordnung, vgl. §1 III S. 2 PAngVO.Ein dahingehender Verstoß
stellt zugleich einen Verstoß gegen § 5 II Nr.2 UWG dar,204 sodass insofern ein
grundsätzlicher Gleichlauf zwischen dem Gesetz gegen den unlauteren Wettbewerb
und der Preisangabenverordnung besteht.
Preispersonalisierung stellt angesichts des Gesagten in aller Regel aber keine
Irreführung über den Preis bzw. die Art und Weise der Preisberechnung i.S.d. §5
II Nr.2 UWG dar.205 Der den Kunden angezeigte Preis ist der „wahre“ Preis, sodass
kein Verstoß gegen den Grundsatz der Preiswahrheit vorliegt. Dies gilt unabhängig
davon, ob Preise unmittelbar oder mittelbar angepasst werden: Der geforderte Preis
entspricht dem Preis, der dem Kunden angezeigt wurde bzw. mit dem ihm gegen-
über geworben wurde. Der Anbieter tätigt auch keine Erklärung darüber, welche
Preise er von anderen Kunden verlangt bzw.– anders gewendet– dass er einen für
alle Kunden gültigen Einheitspreis verwendet.206 Die Preiswahrheit wird mithin
nicht etwa dadurch beschränkt, dass über die Relation des verlangten Preises zu den
von anderen Kunden verlangten Preisen irregeführt wird.
Für dieses Ergebnis lassen sich auch die Grundsätze zur lauterkeitsrechtlichen
Zulässigkeit der sog. Preisspaltung fruchtbar machen. Preisspaltung liegt beispiels-
weise dann vor, wenn das gleiche Produkt innerhalb eines Ladengeschäfts zu unter-
schiedlichen Preisen verkauft wird. Dies ist grundsätzlich zulässig, sofern der An-
bieter den Kunden auf diesen Umstand hinweist.207 Andernfalls liegt eine Irreführung
i.S.d. §5 II Nr.2 UWG vor.208 Anders formuliert ergibt sich die lauterkeitsrechtli-
che Unzulässigkeit einer Preisspaltung erst daraus, dass ein irreführendes Element
gegeben ist. Bornkamm und Feddersen skizzieren etwa den Fall, dass „ein CD-
Laden einige Stücke in einem Verkaufsstand am Eingang zu einem günstigeren Preis
anbietet, um die Kunden in das Geschäft zu locken und Unentschlossene zu einem
Kauf zu bewegen, während die gleiche Ware im Ladeninneren zu einem höheren
Preis ausgezeichnet ist, weil man annimmt, dass der Kunde, der schon den Weg zum
203 Vgl. Bornkamm/Feddersen, in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlau-
teren Wettbewerb, 412023, §5 Rn.3.25f. UWG; Sosnitza, in: Ohly/Sosnitza (Hrsg.), Gesetz gegen
den unlauteren Wettbewerb, 82023, §5 Rn.450 UWG.
204 Köhler, in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlauteren Wettbewerb,
412023, §1 Rn.18 PAngVO.
205 Im Ergebnis auch Hofmann, WRP 62 (2016), 1074, 1080.
206 Obergfell, ZLR 2017, 290, 297. Vgl. auch Hofmann, WRP 62 (2016), 1074, 1080.
207 Bornkamm/Feddersen, in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlauteren
Wettbewerb, 412023, §5 Rn.3.37 UWG.
208 Sosnitza, in: Ohly/Sosnitza (Hrsg.), Gesetz gegen den unlauteren Wettbewerb, 82023, § 5
Rn.464 UWG.
III.Dritte Stufe: Entscheidungsndung und -ausführung
282
Regal gefunden habe, auch einen höheren Preis zu zahlen bereit sei (…).“209 Lauter-
keitsrechtlich unzulässig ist auch die (vergleichbare) Situation, dass ein Anbieter
explizit mit einem bestimmten, günstigen Preis wirbt, manche Einheiten des bewor-
benen Produkts im Ladengeschäft aber nicht nur mit diesem, sondern auch mit ei-
nem höheren Preis ausgezeichnet sind.210 Vertreten wird darüber hinaus, dass bei
Produkten des täglichen Bedarfs eine lauterkeitsrechtliche Unzulässigkeit gem. §5
II Nr.2 UWG unabhängig davon gegeben ist, ob der Anbieter mit dem günstigeren
der beiden im Ladengeschäft verlangten Preise wirbt.211 Begründet wird dies damit,
dass die Situation auftreten kann, dass ein Kunde das fragliche Produkt bei einem
Einkauf zum günstigeren Preis erwirbt und beim nächsten, zeitlich später gelager-
ten Einkauf, weiterhin vom niedrigeren Preis ausgehend, aus Versehen das teurer
ausgezeichnete Produkt erwirbt. Dem Ergebnis ist zuzustimmen. Die zugrunde lie-
gende Argumentation überzeugt aber nur teilweise. Verschiedene Preise innerhalb
eines Ladengeschäfts, die nicht als solche gekennzeichnet sind, haben– unabhängig
von der Art des Produktes– einen irreführenden Charakter und unterfallen deshalb
zu Recht dem Irreführungsverbot. Der Kunde kann aber nicht pauschal davon aus-
gehen, dass die Preise in einem Ladengeschäft sich im Laufe der Zeit nicht ändern.
Preisschwankungen (letztlich nichts anderes als Dynamic Pricing) sind normal und
dem Durchschnittsverbraucher auch bekannt. Angesichts der Preisgestaltungsfrei-
heit des Anbieters kann im Kontext der lauterkeitsrechtlichen Zulässigkeit deshalb
nur eine Argumentation überzeugen, die auf eine (nicht als solche kenntlich ge-
machte) Preisspaltung im gleichen Zeitpunkt abstellt. Eine Preisspaltung, die sich
auf verschiedene Zeitpunkte bezieht, kann die Preiswahrheit nur im eingeschränk-
ten Maße beeinträchtigen. Dem Kunden ist es nämlich zuzumuten, sich bei jedem
Kauf über den momentan gültigen Preis zu informieren. Anders formuliert resultiert
die lauterkeitsrechtlich relevante Irreführung nicht aus den verschiedenen Preisen
zu verschiedenen Einkaufszeitpunkten, sondern aus dem Vorhandensein verschie-
dener Preise im gleichen Ladengeschäft im gleichen Zeitpunkt.
Preisspaltung und Preispersonalisierung weisen gewisse konzeptionelle Paralle-
len auf. Deshalb wäre es denkbar, dass die rechtlichen Überlegungen zur Zulässig-
keit von Preisspaltung auf die rechtliche Bewertung von Preispersonalisierung
übertragen werden können. Vom Ergebnis her betrachtet sind beide Formen der
Preissetzung dadurch geprägt, dass verschiedene Kunden verschiedene Preise für
das gleiche Gut bezahlen. Im Fall der Preisspaltung kommt dieser Effekt dadurch
zustande, dass Kunden im Ladengeschäft nicht erkennen, dass das gleiche Produkt
vor Ort auch günstiger erhältlich ist, und deshalb zur höher ausgepreisten Ware
greifen. Im Fall der online stattndenden Preispersonalisierung wird der Preis vom
Anbieter einseitig zugewiesen und– je nach Art der Preispersonalisierung– dem
209 Bornkamm/Feddersen, in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlauteren
Wettbewerb, 412023, §5 Rn.3.37 UWG.
210 Weidert, in: Harte-Bavendamm/Henning-Bodewig (Hrsg.), Gesetz gegen den unlauteren Wett-
bewerb (UWG), 52021, §5 Rn.740 UWG.
211 Ders., in: Harte-Bavendamm/Henning-Bodewig (Hrsg.), Gesetz gegen den unlauteren Wettbe-
werb (UWG), 52021, §5 Rn.740 UWG.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
283
Kunden auf mehr oder minder transparente Weise kommuniziert. Die ökonomi-
schen Auswirkungen sind also vergleichbar. Eine vergleichbare Irreführung des
Kunden ist hingegen nicht gegeben. Bei einer Preisspaltung stehen aus seiner Sicht
mindestens zwei verschiedene Preise im Raum. Die Irreführung des Kunden ergibt
sich daraus, dass nicht klar ist, welcher dieser Preise gilt. Die Preiswahrheit wird
auch dadurch beeinträchtigt, dass die Situation auftreten kann, dass der Kunde de
facto mehr zahlt, als ihm ursprünglich werblich in Aussicht gestellt wurde. Letzte-
res gilt vor allem in dem Fall, dass der niedrigere von zwei im Ladengeschäft aus-
gezeichneten Preisen beworben wurde, der Kunde im Geschäft aber nur das höher
ausgezeichnete Produkt ndet und letztlich kauft.
Beim Personalised Pricing hingegen ist die Situation anders, weshalb die der
(nicht gekennzeichneten) Preisspaltung innewohnende Irreführungsgefahr kaum
auftreten kann: Dem Kunden wird nur ein Preis angeboten. Dieser gilt in der kom-
munizierten Höhe. Mit diesem Preis ist keine Aussage des Anbieters verbunden, dass
bei anderen Kunden bzw. auf anderen Vertriebswegen der gleiche Preis verlangt wer-
de.212 Eine Irreführung über die Preishöhe aufgrund verschiedener „im Raume ste-
hender“ Preise besteht damit nicht. Dies gilt auch dann, wenn der Preis wegen der
Weiterleitung von einem Preisvergleichsportal angepasst wurde. In aller Regel wird
nämlich in diesen Fällen der Preis abgesenkt, sodass es von vornherein an einer wett-
bewerbsrechtlichen Relevanz fehlt.213 Zum anderen wird technisch sichergestellt,
dass dem Kunden nach der Weiterleitung– die den Kunden typischerweise erst auf
die Seite des Anbieters geführt hat– nur ein konkreter, personalisierter Preis ange-
zeigt wird.214
Aus Sicht des Kunden besteht damit ein wesentlicher Unterschied zwischen
Preisspaltung und Preispersonalisierung. Eine tatsächliche und damit auch rechtli-
che Vergleichbarkeit der beiden Fallkonstellationen ist nicht gegeben. Vielmehr ist
Preispersonalisierung aus Sicht des Kunden mit der Situation vergleichbar, dass ein
Anbieter mit einem Kunden verhandelt und ihm einen Rabatt einräumt: In dieser
Fallkonstellation ist klar, dass der einzelne Kunde einen anderen Preis zu zahlen hat
als andere Kunden. Dies ist aus Sicht des Wettbewerbsrechts ohne Weiteres zuläs-
sig.215 Da Preiswahrheit und Preisklarheit gewahrt sind, ist mithin weder ein Verstoß
gegen §5 II Nr.2 UWG noch gegen §1 III S.2 PAngVO erkennbar.
212 Vgl. Bornkamm/Feddersen, in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlau-
teren Wettbewerb, 412023, §5 Rn.3.38 UWG.
213 So die in BGH, GRUR 2008, 442, 443 (Fehlerhafte Preisauszeichnung) zum Ausdruck kom-
mende Wertung.
214 Problematisch wäre der Fall, dass die Preise auf dem Preisvergleichsportal nicht aktuell sind,
sodass der Preis, der nach der Weiterleitung auf der Seite des Anbieters angezeigt wird, der vorhe-
rigen Ankündigung widerspricht (vgl. dazu etwa BGH, GRUR 2010, 936 (Espressomaschine)).
Diese Fallkonstellation hat– ebenso wie das in Bezug genommene Urteil– aber nichts mit Preis-
personalisierung zu tun. Sie wird stattdessen innerhalb der Fallgruppe „divergierende Preisankün-
digungen“ diskutiert.
215 Bornkamm/Feddersen, in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlauteren
Wettbewerb, 412023, §5 Rn.3.37 UWG.
III.Dritte Stufe: Entscheidungsndung und -ausführung
284
bb. Irreführung über das Vorhandensein eines besonderen Preisvorteils
Auch eine Irreführung über das Vorhandensein eines besonderen Preisvorteils ist
bei personalisierten Preisen in der Regel nicht gegeben. Voraussetzung dafür wäre,
dass dem Kunden gegenüber kundgetan oder zumindest suggeriert wird, er erhalte
einen Preis angezeigt, der unter den sonst beim Anbieter üblichen Preisen liegt.216
Wenn unmittelbare Preispersonalisierung zum Einsatz kommt, wird dem Kun-
den gegenüber gerade aufgrund der ihr innewohnenden Intransparenz keine Aus-
sage über einen etwaigen Preisvorteil getroffen: Der Anbieter tätigt in diesen Fällen
eine schlichte, inhaltlich zutreffende Preisangabe, ohne diese mit einem darüber
hinausgehenden Erklärungsgehalt zu verbinden. Über eine eigentlich nicht beste-
hende Bevorteilung wird der Kunde nicht getäuscht.217
Eine mittelbare Preispersonalisierung mittels Zuweisung eines Gutscheins, Cou-
pons etc. wäre lauterkeitsrechtlich auch unproblematisch: Erhält der Kunde auf-
grund einer festgestellten oder vermuteten erhöhten Preissensitivität einen Gut-
schein, den andere Kunden nicht erhalten, dann liegt für ihn tatsächlich ein
„besonderer Preisvorteil“ vor. Eine Irreführung wäre also nicht gegeben. Schon
keine Preispersonalisierung liegt hingegen vor, wenn diese Gutscheine an jeden
Kunden verschickt werden, um jedem einzelnen gegenüber einen besonderen Preis-
vorteil zu suggerieren (welcher aufgrund der Versendung „an jedermann“ gerade
nichtbesteht). In einer anderen Fallkonstellation wäre ein Verstoß gegen §5 II Nr.2
UWG allerdings zu bejahen: Eine Irreführung läge vor, wenn der Anbieter eine
niedrige Preissensitivität auf Seiten des Kunden erkennt und dieses Wissen nutzt,
um vorzutäuschen, dass dieser Kunde gegenüber anderen einen besonderen Preis-
vorteil genießt, obwohl von ihm tatsächlich ein höherer Preis verlangt wird. Denk-
bar wäre etwa, dass ihm ein „Stammkundenrabatt“ vorgegaukelt wird, obwohl er
mehr bezahlt als andere Kunden. Hier läge mittelbare Preispersonalisierung vor, da
ihm die preisliche Andersbehandlung offen kommuniziert wird. In dieser konkreten
Konstellation ist der Inhalt der Kundenkommunikation aber bewusst wahrheitswid-
rig. Das lauterkeitsrechtliche Verbot hat allerdings nichts mit einer Diskriminierung
geschützter Gruppen zu tun. Im Kern geht es stattdessen um den Vorwurf der von
der Rechtsordnung missbilligten preisbezogenen Irreführung.
c. Transparenzpichten
aa. Irreführung durch Unterlassen (§5a IUWG)
Gem. §5a I UWG handelt unlauter, „wer einen Verbraucher (…) irreführt, indem er
ihm eine wesentliche Information vorenthält, (…) die der Verbraucher (…) nach den
jeweiligen Umständen benötigt, um eine informierte geschäftliche Entscheidung zu
216 Vgl. Weidert, in: Harte-Bavendamm/Henning-Bodewig (Hrsg.), Gesetz gegen den unlauteren
Wettbewerb (UWG), 52021, §5 Rn.789 UWG.
217 Obergfell, ZLR 2017, 290, 297.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
285
treffen, und (…) deren Vorenthalten dazu geeignet ist, den Verbraucher (…) zu einer
geschäftlichen Entscheidung zu veranlassen, die er andernfalls nicht getroffen hät-
te.“218 Es steht zur Diskussion, ob dem Anbieter aus dieser Vorschrift eine Picht
erwächst, den Kunden ggf. dahingehend zu informieren, dass der von ihm verlangte
Preis personalisiert ist. Dies ist zu bejahen: Aus Sicht des Kunden handelt es sich
um eine wesentliche Information, wenn seine persönlichen Eigenschaften die Höhe
des Preises beeinussen.219 Angesichts der (noch) bestehenden Vorbehalte gegen-
über Personalised Pricing ist denkbar, dass Kunden ihre Kaufentscheidung über-
denken und eventuell ändern, wenn ihnen bewusst wird, dass von ihnen ein indivi-
dualisierter Preis verlangt wird. Es kann dabei nicht unterstellt werden, dass der
durchschnittliche Verbraucher mit personalisierten Preisen rechnet und dass ein
solcher Hinweis dementsprechend überüssiger Natur ist.220 Auch ist die Angabe,
dass im Einzelfall ein personalisierter Preis verlangt wird, unabhängig von der Form
der Preiskommunikation leicht zu realisieren. Sie deckt sich zudem mit den bereits
festgestellten datenschutzrechtlichen Transparenzpichten, die sich aus den Infor-
mationspichten gem. Art.13 und 14 DSGVO sowie aus den Anforderungen erge-
ben, die an eine wirksame (im Fall von Preispersonalisierung stets notwendige)
Einwilligungserklärung gestellt werden.
Darüber hinausgehende Pichten, etwa zur Angabe des nicht personalisierten
Referenzpreises221 oder gar des von anderen Kunden durchschnittlich verlangten
Preises,222 sind hingegen abzulehnen. Es besteht keine grundsätzliche Picht des
Anbieters, seine Preise und ihr Zustandekommen zu erläutern. Dahingehende Re-
chenschaftspichten über §5a I UWG zu konstruieren, würde einen unverhältnis-
mäßigen Eingriff in seine Vertragsfreiheit und seine unternehmerische Freiheit dar-
stellen, zumal damit ein nicht unerheblicher Aufwand für den Anbieter verbunden
wäre.223 Auch wäre fraglich, welcher tatsächliche Aussagegehalt (und damit Nut-
zen) etwa der Mitteilung eines Durchschnittspreises innewohnen würde. Es müsste
geklärt werden, auf welchen Zeitraum sich dieser bezieht. Bei der Angabe des
Durchschnittspreises ist zudem zu berücksichtigen, dass dieser in aller Regel auch
das Ergebnis etwaiger dynamischer Preisschwankungen ist– also solcher, die ge-
rade keine Personalisierung darstellen. Die Angabe des Durchschnittspreises, der
von anderen Kunden gezahlt wurde, kann deshalb einen irreführenden Charakter
einnehmen: Fallen der dem Kunden angezeigte Durchschnittspreis und der vom
Kunden verlangte Preis auseinander, dann ist dies nicht nur das Ergebnis von Perso-
nalisierung. Der beabsichtigte Zweck, den Kunden aussagekräftig darüber aufzu-
218 Zum Begriff der wesentlichen Information i.S.d. §5a I UWG siehe auch § 5b UWG.
219 So auch Micklitz/Namysłowska, in: Spindler/Schuster (Hrsg.), Recht der elektronischen Me-
dien, 42019, §5a UWG Rn.61; Obergfell, ZLR 2017, 290, 298; Zander-Hayat/Reisch/Steffen, VuR
2016, 403, 407.
220 So wohl aber (und einer Informationspicht kritisch gegenüberstehend) Hofmann, WRP 62
(2016), 1074, 1080.
221 Für eine solche Picht Obergfell, ZLR 2017, 290, 299.
222 Siehe dazu Hofmann, WRP 62 (2016), 1074, 1080f.
223 Ders., WRP 62 (2016), 1074, 1080f.
III.Dritte Stufe: Entscheidungsndung und -ausführung
286
klären, welchen quantitativen Unterschied die Preispersonalisierung in seinem kon-
kreten Fall zeitigt, kann so nicht erfüllt werden.
bb. Informationspicht („New Deal forConsumers“ 2019)
Die Modernisierungsrichtlinie224 sieht in ihrem Art.4 Nr.4 lit. a (ii) vor, dass die in
Art.6 Verbraucherrechte-RL enthaltenen Informationspichten bei Fernabsatzver-
trägen (und bei außerhalb von Geschäftsräumen abgeschlossenen Verträgen) um die
folgende erweitert werden: „gegebenenfalls den Hinweis, dass der Preis auf der
Grundlage einer automatisierten Entscheidungsndung personalisiert worden ist“.
Diese Informationspicht wurde (nahezu) wortgleich in Art. 246a §1 I S.1 Nr.6
EGBGB aufgenommen und gilt seit dem 28.5.2022.225 Sie kommt über §§312d I
S.1, 312j II BGB u.a. bei Fernabsatzverträgen i.S.d. §312c I BGB zur Anwen-
dung.226 Damit sind sämtliche hier diskutierten Fallkonstellationen von ihr erfasst.
Erwägungsgrund 45 Modernisierungsrichtlinie führt zur Begründung aus, dass
Preise „auf der Grundlage automatisierter Entscheidungsndung oder227 Erstel-
lung von Prolen des Verbraucherverhaltens“, welche die „Bewertung der Kauf-
kraft des Verbrauchers ermöglichen“, personalisiert werden können. Dabei wird
ausdrücklich der Bezug zu der Methode des Prolings hergestellt. Dementspre-
chend– und im Einklang mit der hier vertretenen Denition des Begriffs „Preisper-
sonalisierung“– wird ausgeführt, dass die Informationspicht nur bei der Persona-
lisierung von Preisen, nicht aber bei dynamischer Preissetzung gilt, bei der „sich
der Preis in sehr exibler und schneller Weise in Abhängigkeit von der Marktnach-
frage ändert, ohne dass diese Techniken eine Personalisierung auf der Grundlage
automatisierter Entscheidungsndung umfassen.“228 Zudem stellt der Erwägungs-
224 Siehe dazu bereits oben Kap.10, II. 2.
225 Art.2 Nr.2 lit. a (aa), 6 I Gesetz zur Änderung des Bürgerlichen Gesetzbuchs und des Einfüh-
rungsgesetzes zum Bürgerlichen Gesetzbuche in Umsetzung der EU-Richtlinie zur besseren
Durchsetzung und Modernisierung der Verbraucherschutzvorschriften der Union und zur Aufhe-
bung der Verordnung zur Übertragung der Zuständigkeit für die Durchführung der Verordnung
(EG) Nr. 2006/2004 auf das Bundesministerium der Justiz und für Verbraucherschutz vom
10.8.2021, BGBl. 2021 I, S.3483.
226 Siehe dazu auch Gleixner, VuR 2020, 417, 419f.
227 Gemeint ist wohl die Konjunktion „und“ statt „oder“. Dafür spricht zunächst die englische
Sprachfassung („and“). Zudem spricht der Wortlaut der Informationspicht nur von „auf der
Grundlage einer automatisierten Entscheidungsndung“ personalisierten Preisen. Wäre die „Er-
stellung von Prolen des Verbraucherverhaltens“ ein methodisch unabhängiges Vorgehen, wie das
„oder“ nahelegt, bestünde bei solchermaßen personalisierten Preisen keine Informationspicht.
Diese ist aber ausweislich des Erwägungsgrundes 45 auch dann gewollt.
228 Diese Abgrenzung greift auch der Regierungsentwurf des Umsetzungsgesetzes auf (Entwurf
eines Gesetzes zur Änderung des Bürgerlichen Gesetzbuchs und des Einführungsgesetzes zum
Bürgerlichen Gesetzbuche in Umsetzung der EU-Richtlinie zur besseren Durchsetzung und Mo-
dernisierung der Verbraucherschutzvorschriften der Union und zur Aufhebung der Verordnung zur
Übertragung der Zuständigkeit für die Durchführung der Verordnung (EG) Nr.2006/2004 auf das
Bundesministerium der Justiz und für Verbraucherschutz vom 13.1.2021, S.35).
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
287
grund unter Bezugnahme auf Art. 22 DSGVO klar, dass datenschutzrechtliche
Pichten unberührt bleiben.
Die neu eingeführte Informationspicht des Art.246a §1 I S.1 Nr.6 EGBGB ist
keine lauterkeitsrechtliche. Sie ist im Verbraucherschutzrecht des Bürgerlichen Ge-
setzbuchs angesiedelt. Für die hier diskutierten Fallkonstellationen, in denen ein
Anbieter (als Unternehmer) einem Kunden (als Verbraucher) im Kontext eines
Fernabsatzvertrages gegenübersteht, macht dies vom Ergebnis her keinen Unter-
schied. Die neue Informationspicht entspricht der zuvor aus §5a I UWG abgelei-
teten Aufklärungspicht.229 Es handelt sich dabei um eine Information, die „dem
Verbraucher (…) nach Rechtsvorschriften zur Umsetzung unionsrechtlicher Richtli-
nien für kommerzielle Kommunikation einschließlich Werbung und Marketing nicht
vorenthalten werden“ darf i.S.d. §5b IV UWG.Insoweit hat sich die (hier bejahte)
Frage, ob eine Aufklärungspicht aus § 5a I UWG abgeleitet werden kann, seit dem
28.5.2022 im Wesentlichen erübrigt.230
Es besteht nur die Picht zur Mitteilung, dass der Preis ggf. personalisiert wurde.
Auch dies spricht für die oben ausgeführte Argumentation, dass eine darüber hi-
nausgehende Verpichtung zur Mitteilung von Referenz- oder Durchschnittspreisen
zu weitreichend wäre.
d. Verbrauchergeneralklausel (§3 II UWG)
Abschließend steht zur Diskussion, ob der Einsatz personalisierter Preise gegen die
Verbrauchergeneralklausel des §3 II UWG verstoßen kann. Bejahendenfalls wäre
denkbar, dass auch die Diskriminierung geschützter Gruppen über diese Norm er-
fasst werden kann.
Gem. § 3 II UWG sind geschäftliche Handlungen unlauter, „die sich an Verbrau-
cher richten oder diese erreichen, (…) wenn sie nicht der unternehmerischen
Sorgfalt entsprechen und dazu geeignet sind, das wirtschaftliche Verhalten des Ver-
brauchers wesentlich zu beeinussen.“ Bei dieser Norm handelt es sich um einen
Auffangtatbestand, welcher zu den §§3 III i.V.m. dem Anhang, 4a, 5, 5a UWG
subsidiär ist.231 Da die UGP-Richtlinie Vollharmonisierung bezweckt, ist eine res-
triktive Auslegung der Verbrauchergeneralklausel geboten. Ansonsten wäre ein nicht
mehr richtlinienkonformes Auseinanderfallen der Regelungsniveaus in den einzel-
nen Mitgliedstaaten zu befürchten.232 Die Mitgliedstaaten dürfen dementsprechend
229 Zur zeitlichen Abgrenzung von den datenschutzrechtlichen Informationspichten siehe unten
Kap.11, IV.
230 Vgl. dazu Gleixner, VuR 2020, 417, 421 und Zurth, AcP 221 (2021), 514, 544f.
231 Köhler, in: Köhler/Bornkamm/Feddersen (Hrsg.), Gesetz gegen den unlauteren Wettbewerb,
412023, §3 Rn.3.5 UWG; Podszun, in: Harte-Bavendamm/Henning-Bodewig (Hrsg.), Gesetz ge-
gen den unlauteren Wettbewerb (UWG), 52021, §3 Rn.82 UWG.
232 Podszun, in: Harte-Bavendamm/Henning-Bodewig (Hrsg.), Gesetz gegen den unlauteren Wett-
bewerb (UWG), 52021, §3 Rn.69 UWG.
III.Dritte Stufe: Entscheidungsndung und -ausführung
288
„keine strengeren als die in der Richtlinie festgelegten Maßnahmen erlassen (…),
und zwar auch nicht, um ein höheres Verbraucherschutzniveau zu erreichen (…).“233
Eine geschäftliche Handlung, die sich an Verbraucher richtet, liegt bei personali-
sierten Preisen vor. Im Kern geht es um die Frage, ob ihr Einsatz gegen die unterneh-
merische Sorgfalt verstößt und zur wesentlichen Beeinussung des wirtschaftlichen
Verhaltens der Verbraucher geeignet ist. Die Tatbestandsmerkmale „unternehmeri-
sche Sorgfalt“ sowie „wesentliche Beeinussung des wirtschaftlichen Verhaltens des
Verbrauchers“ werden in §2 I Nr.9 und 11 UWG legaldeniert. Das Abstellen auf
„Treu und Glauben unter Berücksichtigung der anständigen Marktgepogenheiten“
(§2 I Nr.9 UWG) im Kontext der unternehmerischen Sorgfalt macht eine normative
Auslegung der Verbrauchergeneralklausel notwendig. Diese richtet sich nach euro-
parechtlichen Maßstäben, nicht nach solchen des nationalen Rechts.
Für einen Verstoß gegen §3 II UWG könnte grundsätzlich sprechen, dass ein
Anbieter, der Proling betreibt, um Preise zu personalisieren, sich der personenbe-
zogenen Daten des Kunden bedient, um sich einen Wissensvorsprung zu verschaf-
fen. Dieser Wissensvorsprung hat verschiedene Facetten. Der Anbieter kennt den
Reservationspreis des Kunden mehr oder weniger genau, und kann diesen Umstand
nutzen, indem er den Preis gezielt anpasst. Auch wenn ein vollständiges Ausreizen
des Reservationspreises des Kunden in aller Regel nicht möglich sein wird, kann
doch davon ausgegangen werden, dass diese Methoden– wenn sie vorkommen–
darauf abzielen, in der Summe der Gewinnmaximierung des Anbieters zu dienen.
Er kann das Wissen um die Preissensitivität des Einzelnen auch dazu nutzen, um
den Kunden situativ zu beeinussen, etwa mittels sog. Behavioural Discrimination.
Anders formuliert ndet ein– vom Kunden nicht unbedingt gewollter bzw. als sol-
ches erkannter– Tausch zwischen dem Datenschutzrecht des Kunden auf der einen
Seite und der wirtschaftlichen Betätigungsmöglichkeit des Anbieters auf der ande-
ren statt. Es wäre auch möglich, dass ein Marktversagen aufgrund einer asymmetri-
schen Informationsverteilung auftritt.234 Dies wäre etwa dann denkbar, wenn der
Anbieter besser weiß, welche Zahlungsbereitschaft der Kunde aufweist, als dieser
sich selber bewusst ist.
Abgesehen von Fallkonstellationen, die über die reine Personalisierung des Prei-
ses hinausgehen und derart manipulativ sind, dass sie als aggressive geschäftliche
Handlung i.S.d. (insoweit dann spezielleren) § 4a I S. 1 UWG eingeordnet werden
können,235 ist Preispersonalisierung nicht von der Verbrauchergeneralklausel des
§3 II UWG erfasst. Die Verwendung personalisierter Preise geht aus verschiedenen
Gründen nicht mit einem derart hohen Unwerturteil einher, dass eine lauterkeits-
233 EuGH, C-540/08, ECLI:EU:C:2010:660, Rn.30 (Mediaprint Zeitungs- und Zeitschriftenverlag).
234 Vgl. zu diesem Begriff im Kontext des Kredit-Scorings Locher, ZWeR 16 (2018), 292, 305f.
235 „Normale“ Fälle von Preispersonalisierung werden nicht von §4a I S.1 UWG erfasst. Die
Anbieter haben keine Machtposition inne, die sie zur Ausübung von Druck ausnutzen, vgl. §4a I
S.2 Nr.3, S.3 UWG.Auch stellen sie den Kunden keinen Nachteil in Aussicht, sofern diese auf
ihr personalisiertes Angebot nicht eingehen. Somit stellt Preispersonalisierung schon keine ag-
gressive geschäftliche Handlung dar (Hofmann, WRP 62 (2016), 1074, 1081; Obergfell, ZLR
2017, 290, 300).
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
289
rechtliche Unzulässigkeit anzunehmen ist. Ein Verstoß gegen die unternehmerische
Sorgfalt i.S.d. §§3 II, 2 I Nr.9 UWG liegt mithin nicht vor. Dies gilt auch dann,
wenn die Personalisierung der Preise mit der Diskriminierung geschützter Grup-
pen einhergeht: Die aufgrund der Vollharmonisierung europarechtlich vorgegebene
enge Auslegung des §2 I Nr.9 UWG verbietet es, in diese Norm gegen ihren Wort-
laut ein Diskriminierungsverbot hineinzulesen.
Personalisierte Preise können mit durchaus positiven ökonomischen Effekten zu-
gunsten der Kunden einhergehen. Dies ist etwa dann der Fall, wenn Kunden erst
durch die Personalisierung des Preises Zugang zu einem bestimmten Gut erhalten.
Dieser Effekt kann auftreten, wenn ihr Reservationspreis über den Produktionskos-
ten des Gutes, aber unter dem einheitlichen Preis liegt, der sich ohne den Einsatz
von Preispersonalisierung am Markt ergeben würde. Ein pauschales Abstellen auf
ein Gewinnstreben des Anbieters oder das Abgreifen von Konsumentenrente ginge
deshalb schon aus inhaltlichen Gründen teilweise am Ziel vorbei. Umso stärker–
und verfehlter– wiegt zudem die damit einhergehende wettbewerbspolitische Aus-
sage: Das Streben nach Gewinn ist als solches nicht unlauter, sondern ein normaler
Aspekt, der dem Wettbewerb innewohnt. Solange die Preissetzung nicht mit einem
irreführenden oder aggressiven Element einhergeht, herrschen zugunsten des An-
bieters Vertragsfreiheit und Preissetzungsfreiheit.236 Es steht ihm frei, Preise nach
seinem Belieben zu setzen, und– soweit keine spezialgesetzlichen, ausdrücklichen
Diskriminierungsverbote entgegenstehen – Kunden ungleich zu behandeln. Die
Frage, unter welchen Voraussetzungen die für die Preisbestimmung notwendigen
personenbezogenen Daten des Kunden erhoben und wie sie verarbeitet werden dür-
fen, ist im Übrigen keine originär lauterkeitsrechtliche: Es ist primär Aufgabe des
Datenschutzrechts, die Kontrolle des Einzelnen über die ihn betreffenden personen-
bezogenen Daten sicherzustellen und im Rahmen ihrer Verarbeitung– was vor al-
lem auch die Berechnung von Wahrscheinlichkeitswerten im Zusammenhang mit
Proling beinhaltet– Fairness, Transparenz und Datenrichtigkeit sicherzustellen.
Dieser Auftrag des Datenschutzrechts ergibt sich aus den allgemeinen Datenschutz-
grundsätzen des Art.5 I DSGVO, auf die sich letztlich alle materiell-rechtlichen
Vorschriften der Datenschutz-Grundverordnung zurückführen lassen.237 Unabhän-
gig davon gilt, dass die Personalisierung von Preisen den Wettbewerb nicht außer
Kraft setzt: Übertreibt ein Anbieter es damit in einer Art und Weise, die Kunden
nicht akzeptieren wollen, ist anzunehmen, dass dieses Vorgehen Wettbewerber auf
den Plan ruft und er im Wettbewerb nicht langfristig bestehen kann.238
Gerade der letztgenannte Aspekt führt dazu, dass ein Verstoß gegen §3 II UWG
auch deshalb zu verneinen ist, weil keine wesentliche Beeinussung des wirtschaft-
lichen Verbraucherverhaltens i.S.d. §§3 II, 2 I Nr.11 UWG vorliegt. Eine solche
stellt letztlich eine Beeinträchtigung der Entschließungsfreiheit des Kunden dar,
236 So auch Hofmann, WRP 62 (2016), 1074, 1081 und Obergfell, ZLR 2017, 290, 300.
237 Vgl. Roßnagel, in: Simitis/Hornung/Spiecker gen. Döhmann (Hrsg.), Datenschutzrecht, 2019,
Art.5 Rn.15.
238 Hofmann, WRP 62 (2016), 1074, 1081.
III.Dritte Stufe: Entscheidungsndung und -ausführung
290
welche wiederum ein Schutzgut des Allgemeinen Persönlichkeitsrechts darstellt.239
Eine derartige Beeinträchtigung der Willensbildungsfreiheit ist aber bei personali-
sierten Preisen nicht gegeben. Dem Kunden steht es frei, das Produkt zum jeweili-
gen Preis zu kaufen oder vom Kauf abzusehen. Solange Preiswahrheit und Preis-
klarheit gewahrt sind, steht nicht zu befürchten, dass er aufgrund der Personalisierung
eine Kaufentscheidung trifft, die er ansonsten nicht getroffen hätte.
e. Zwischenergebnis
Gem. §§5a I, 5b IV UWG sind Anbieter verpichtet, ihre Kunden vor dem Kaufab-
schluss darauf hinzuweisen, wenn sie personalisierte Preise verwenden. Eine aus-
drückliche Informationspicht ist seit dem 28.5.2022 im Verbraucherschutzrecht
des Bürgerlichen Gesetzbuchs vorgesehen (§§312d I S.1, 312j II BGB i.V.m.
Art.246a §1 I S.1 Nr.6 EGBGB). Aus dieser erhöhten Transparenz folgt ein ge-
wisser Schutz vor Diskriminierung geschützter Gruppen, da unzulässige Ungleich-
behandlungen so leichter aufgedeckt werden können.
Darüber hinausgehende lauterkeitsrechtliche Transparenzgebote oder Hand-
lungsverbote bestehen grundsätzlich nicht. Eine Ausnahme stellt der in der Praxis
wohl seltene Fall dar, dass der Anbieter einen verhältnismäßig hohen Reservations-
preis auf Kundenseite erkennt und dieses Wissen nutzt, um vorzutäuschen, dass
dieser Kunde anderen gegenüber einen besonderen Preisvorteil genießt, obwohl von
ihm tatsächlich ein höherer Preis verlangt wird. In dieser speziellen Fallkonstellation
wäre §5 I, II Nr.2 UWG einschlägig. Dieses Handlungsverbot besteht allerdings
unabhängig davon, ob die irreführende Preiskommunikation geschützte Gruppen
diskriminiert oder nicht. Deshalb wird es im Folgenden nicht weiter thematisiert.
3. Antidiskriminierungsrecht
Auf nationaler Ebene ist im Kontext von Preispersonalisierung der 3. Abschnitt des
Allgemeinen Gleichbehandlungsgesetzes relevant. §19 I, II AGG formuliert ein
zwischen Privaten unter bestimmten Voraussetzungen geltendes Benachteiligungs-
verbot. Dieses konkretisiert den in §2 I Nr.5–8 AGG denierten Anwendungsbe-
reich des Gesetzes für den allgemeinen Zivilrechtsverkehr.240
239 Scherer, GRUR 2019, 361, 367.
240 Richtigerweise ist §19 AGG nur anwendbar, wenn der zu prüfende Sachverhalt sich in einem der
in §2 I Nr.5–8 AGG aufgelisteten Bereiche abspielt. §2 I Nr.1–4 AGG behandeln nur arbeitsrecht-
liche Sachverhalte, die vom 2. Abschnitt des Gesetzes umfassend geregelt werden, vgl. dazu die
Diskussion bei Martini, Blackbox Algorithmus, 2019, S.232–235. Nur in diesem Sinne lassen sich
die Ausführungen der Gesetzesbegründung zum Verhältnis von § 19 I und II AGG verstehen
(BT-Drucksache 16/1780, S.41). Dogmatisch und ausweislich der amtlichen Überschrift handelt es
sich beim ersten Abschnitt des Gesetzes (§§1–5 AGG) zudem um seinen allgemeinen Teil, welcher
eine Klammerwirkung für die besonderen Teile entfaltet. §19 AGG postuliert damit kein eigenstän-
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
291
a. Zivilrechtliches Gleichbehandlungsgebot
Im Kontext von Preispersonalisierung ist der Anwendungsbereich des Gesetzes über
§2 I Nr.8 AGG eröffnet. Dieser muss mit §19 I AGG zusammen gelesen werden.
§2 I Nr.8 AGG eröffnet den Anwendungsbereich des Allgemeinen Gleichbehand-
lungsgesetzes, wenn es um „den Zugang zu und die Versorgung mit Gütern und
Dienstleistungen, die der Öffentlichkeit zur Verfügung stehen“ geht. Gemeint sind
damit ausweislich der Gesetzesbegründung vor allem privatrechtliche Verträge.241
Die Norm bezieht sich damit nicht, wie der Wortlaut vermuten lassen könnte, auf
die (typischerweise staatlich verantwortete) allgemeine Daseinsvorsorge. Der An-
wendungsbereich des §2 I Nr.8 AGG ist stattdessen bereits u.a. dann eröffnet,
wenn ein Anbieter online ein Angebot auf Abschluss eines Vertrages macht.242 Es ist
unerheblich, ob er eine invitatio ad offerendum ausspricht oder die von ihm betrie-
bene Webseite so gestaltet, dass er sich dem Kunden gegenüber gem. §145 BGB
verpichtet und dieser das Angebot nur anzunehmen braucht.243
§19 I AGG erklärt Benachteiligungen aus Gründen der Rasse oder wegen der
ethnischen Herkunft, wegen des Geschlechts, der Religion, einer Behinderung, des
Alters oder der sexuellen Identität „bei der Begründung, Durchführung und Been-
digung zivilrechtlicher Schuldverhältnisse“ für unzulässig.244 Erfasst sind Massen-
geschäfte, massengeschäftsähnliche Rechtsgeschäfte (§19 I Nr.1 AGG) und alle
privatrechtlichen Versicherungen (§19 I Nr.2 AGG). Massengeschäfte sind nach
der Legaldenition des §19 I Nr. 1 Alt.1 AGG solche Schuldverhältnisse, die
„typischerweise ohne Ansehen der Person zu vergleichbaren Bedingungen in einer
Vielzahl von Fällen zustande kommen“. Dem gleichzusetzen sind sog. massenge-
schäftsähnliche Rechtsgeschäfte, „bei denen das Ansehen der Person nach der Art
des Schuldverhältnisses eine nachrangige Bedeutung hat und die zu vergleichbaren
Bedingungen in einer Vielzahl von Fällen zustande kommen“ (§19 I Nr.1 Alt.2
AGG).245 Das Benachteiligungsverbot gilt damit nicht für alle Rechtsgeschäfte zwi-
diges, neben §2 I AGG tretendes Diskriminierungsverbot (Thüsing, in: Münchener Kommentar
zum Bürgerlichen Gesetzbuch (Hrsg.), Band 1:Allgemeiner Teil, 92021, §19 Rn.4–6 AGG; so im
Ergebnis ohne tiefergehende Begründung auch OLG Karlsruhe, NJW 2010, 2668, 2669).
241 BT-Drucksache 16/1780, S.32.
242 BT-Drucksache 16/1780, S.32.
243 Thüsing, in: Münchener Kommentar zum Bürgerlichen Gesetzbuch (Hrsg.), Band 1:Allgemei-
ner Teil, 92021, §2 Rn.28 AGG.
244 Der Anwendungsbereich der Norm erfasst damit, im Gegensatz zu §1 AGG, nicht den Schutz
vor Benachteiligung aufgrund der Weltanschauung. Dieses Merkmal wurde auf Empfehlung des
Rechtsausschusses aus dem Schutzumfang des 3. Abschnitts des AGGs herausgenommen. Es
wurde die Gefahr gesehen, „dass z.B.Anhänger rechtsradikalen Gedankenguts aufgrund der Vor-
schrift versuchen, sich Zugang zu Geschäften zu verschaffen, die ihnen aus anerkennenswerten
Gründen verweigert wurden“ (BT-Drucksache 16/2022, S.13).
245 Bei §19 I Nr.1 Alt.2 AGG handelt es sich um einen Auffangtatbestand. Erfasst sind davon die
Situationen, in denen das Ansehen der Person für den Anbieter zwar (möglicherweise) eine Rolle
spielt, aber hinter anderen Faktoren zurücktritt (vgl. Franke/Schlichtmann, in: Däubler/Beck
(Hrsg.), Allgemeines Gleichbehandlungsgesetz, 52022, §19 Rn.40 AGG).
III.Dritte Stufe: Entscheidungsndung und -ausführung
292
schen Privaten. Es ist auf bestimmte Fallkonstellationen beschränkt. Hinzu kommen
weitere Abstufungen, etwa die Ausdehnung des Diskriminierungsschutzes bei Be-
nachteiligungen aus Gründen der Rasse oder wegen der ethnischen Herkunft über
Massengeschäfte etc. hinaus (§ 19 II AGG),246 die Ausnahmevorschrift § 19 IV
AGG und die Regelung des §20 I AGG, wonach bestimmte Ungleichbehandlungen
bei Vorliegen eines sachlichen Grundes zulässig sind. Diese Regelungstechnik ist
letztlich Ausdruck einer wertenden Abwägung des Gesetzgebers. Die Vertragsfrei-
heit der von §§19ff. AGG verpichteten Anbieter soll durch dieses abgestufte
System mit dem Schutz der Kunden vor rechtlich missbilligter Diskriminierung in
Einklang gebracht werden.247 Das Benachteiligungsverbot bezweckt, dass auch An-
gehörige geschützter Gruppen tatsächlich die Möglichkeit haben, Verträge abzu-
schließen und so die ihnen zustehende Vertragsfreiheit zu nutzen.
b. Anwendung auf Preispersonalisierung
§19 I AGG kann zur Anwendung gebracht werden, wenn Preispersonalisierung
beim Online-Handel mit Gütern bzw. Dienstleistungen mit der Diskriminierung der
von der Norm in Bezug genommenen geschützten Gruppen einhergeht. Beide Alter-
nativen des §19 I Nr.1 AGG erfassen (nur) solche Fallkonstellationen, in denen es
nicht um einmalige, sondern um häug auftretende Rechtsgeschäfte geht.248 Dem-
entsprechend sollen nur solche Anbieter (in der Regel Unternehmer i.S.d. §14 I
BGB) verpichtet werden, die sich mit ihren Angeboten an die Allgemeinheit rich-
ten.249 §19 I Nr.1 AGG erfasst nur solche Schuldverhältnisse, die typischerweise
ohne Ansehen der Person (Alternative 1) und– deshalb250– vom Anbieter stets zu
vergleichbaren Bedingungen eingegangen werden, oder bei denen das Ansehen der
Person nach der Art des Schuldverhältnisses eine nachrangige Bedeutung hat (Al-
ternative 2). Aufgrund dieser allgemeinen, typisierenden Betrachtungsweise sind
letztlich nur solche Fallkonstellationen erfasst, in denen die Schlechterbehandlung
einzelner Kunden willkürlich ist.
Die Voraussetzungen des § 19 I AGG können vorliegen, wenn Anbieter beim
Handel mit Waren und Dienstleistungen Preise personalisieren und dies mit einer
Schlechterstellung der dort geschützten Gruppen einhergeht. Das Allgemeine
Gleichbehandlungsgesetz ist technologieneutral formuliert und gilt unabhängig da-
246 §19 II AGG weitet den Anwendungsbereich der Norm im Falle der Diskriminierung aufgrund
von Rasse oder ethnischer Herkunft auf „sonstige“ Schuldverhältnisse aus. Das Benachteiligungs-
verbot gilt in diesen Fällen also unabhängig davon, ob ein Massengeschäft etc. vorliegt.
247 Vgl. die Gesetzesbegründung, BT-Drucksache 16/1780, S.26 und 39–41 und Franke/Schlicht-
mann, in: Däubler/Beck (Hrsg.), Allgemeines Gleichbehandlungsgesetz, 52022, §19 Rn.10–15
AGG m.w.N.
248 So die Gesetzesbegründung, BT-Drucksache 16/1780, S.41.
249 So die Gesetzesbegründung, BT-Drucksache 16/1780, S.41.
250 So die Gesetzesbegründung, BT-Drucksache 16/1780, S.41 treffend: „Gleichbehandlung bei
Erbringung der Leistung ist letztlich Spiegelbild der Tatsache, dass der Anbieter bei der Auswahl
des Vertragspartners nicht unterscheidet.“
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
293
von, ob die Parteien das Rechtsgeschäft online oder etwa im stationären Handel
abschließen.251 Der Online-Handel mit Gütern des täglichen Bedarfs sowie der Ver-
kauf typischer Dienstleistungen (etwa Flug- und Hotelbuchungen) ist im Regelfall
dergestalt „anonym“, dass es dem Anbieter nicht darauf ankommt, wer auf Kunden-
seite sein Vertragspartner ist: Die Bonität vorausgesetzt, kontrahiert der Anbieter
grundsätzlich mit jedem. Auch wenn Proling dazu genutzt wird, den Preis– und
möglicherweise auch das Produkt als solches– zu personalisieren, fällt dieses Ver-
halten immer noch in den Anwendungsbereich des §19 I AGG.Das Rechtsgeschäft
wird „ohne Ansehen der Person“ abgeschlossen und fällt unter das Diskriminie-
rungsverbot, da auch in solch einer Fallkonstellation nach dem Telos der Norm
darauf abgestellt werden muss, ob es dem Anbieter beim Vertragsabschluss bei
typisierter Betrachtungsweise auf die Person des Kunden ankommt oder nicht.252
Sofern der Anbieter weiterhin mit jedem potenziellen Kunden den (ggf. unter ver-
schiedenen Aspekten individualisiert angepassten) Vertrag grundsätzlich abschließen
würde, lässt die Proling-basierte Personalisierung den Diskriminierungsschutz
nicht entfallen.
c. Rechtfertigung oder Tatbestandsausschluss
Je nach Fallkonstellation kann eine unmittelbare Benachteiligung i.S.d. §3 I S.1
AGG oder eine mittelbare Benachteiligung i.S. d. §3 II AGG vorliegen.253 Aus
Sicht des Rechtsanwenders hängt die konkrete Qualizierung nicht nur von der vom
Anbieter gewählten Preissetzungsmethode ab, sondern auch davon, wie transparent
er diese– unabhängig von der Einhaltung datenschutz- und lauterkeitsrechtlicher
Transparenzpichten– ausgestaltet.
aa. Unmittelbare Benachteiligung (§3 IS.1 AGG)
Sofern der Anbieter seine Preise erkennbar unmittelbar von ihm bekannten (bzw.
mit den Mitteln des Prolings „vorhergesagten“) Eigenschaften des Kunden abhän-
gig macht und diese die Zugehörigkeit zu einer von §19 I AGG geschützten Gruppe
widerspiegeln, ist eine Rechtfertigung über §20 I AGG denkbar. Diese ist nur im
Fall einer unterschiedlichen Behandlung wegen der Religion, einer Behinderung,
des Alters, der sexuellen Identität oder des Geschlechts möglich (§20 I S.1 AGG),
nicht aber bei Diskriminierung aufgrund der Rasse oder wegen der ethnischen Her-
kunft. Zudem muss ein sachlicher Grund vorliegen, §20 I S.1 AGG, weshalb eine
wertende Abwägung nötig ist. Bei Preispersonalisierung stellt innerhalb der in der
Norm enthaltenen Regelbeispiele (nur) §20 I S.2 Nr.3 AGG einen tauglichen
251 Martini, Blackbox Algorithmus, 2019, S.231.
252 Ders., Blackbox Algorithmus, 2019, S.234f.
253 Siehe zu der Unterscheidung bereits oben Kap.9, I.
III.Dritte Stufe: Entscheidungsndung und -ausführung
294
Ansatzpunkt dar.254 Zulässig ist demnach eine unterschiedliche Behandlung, die
„besondere Vorteile gewährt“, sofern zugleich „ein Interesse an der Durchsetzung
der Gleichbehandlung fehlt“. Die Gesetzesbegründung nennt dafür beispielhaft
zwei Fallkonstellationen. Einerseits bezeichnet sie Vergünstigungen für Gruppen,
die in der Regel mangels Erwerbseinkommens weniger leistungsfähig sind– etwa
Schüler und Studenten– als sozial erwünscht. Zugleich bewertet sie „die gezielte
Ansprache von Kundenkreisen, die der Anbieter anlocken möchte“ als unproblema-
tischen und damit gerechtfertigten Ausdruck wettbewerblichen Handelns.255 Die
Gesetzesbegründung stellt u.a. darauf ab, dass das Verbot dieser Vergünstigungen
nur dazu führen würde, dass sie nicht mehr gewährt werden, ohne dass dies den bis
dahin nicht begünstigten Kunden zugutekommen würde.
Die Beispiele machen deutlich, dass es durchaus Formen der preislichen Un-
gleichbehandlung von Angehörigen geschützter Gruppen gibt, die normativ und
rechtlich nicht zu beanstanden sind. Voraussetzung ist, dass es dem Anbieter vorran-
gig darum geht, eine bestimmte Gruppe zu begünstigen– und nicht darum, einer
Gruppe zu schaden.256 Der beispielhaft in Bezug genommene „Schülerrabatt“ ist
gesellschaftlich akzeptiert und dürfte von den wenigsten als problematische Form
der Altersdiskriminierung wahrgenommen werden. Auch Vergünstigungen für
Frauen in Diskotheken im Rahmen von „Ladies Nights“ und ähnliche Formen von
Kundenansprachen sind Teil des normalen Wettbewerbsgeschehens und fallen unter
§20 I S.2 Nr.3 AGG.257 Es geht dabei in aller Regel primär um das Bestehen im
Wettbewerb, und nicht um das Diskriminieren geschützter Gruppen.
Die Entscheidung, ab wann für eine Ungleichbehandlung aufgrund rein wirt-
schaftlicher Interessen im Kontext von Preispersonalisierung kein sachlicher Grund
i.S.d. §20 I S.1 AGG mehr gegeben ist, ist letztlich eine kaum verallgemeine-
rungsfähige Wertungs- und Abwägungsfrage. Den berechtigten Kundeninteressen,
nicht diskriminiert zu werden, stehen die unternehmerische Freiheit und die Privat-
autonomie des Anbieters gegenüber.258 Der EuGH hat in Test-Achats den Grundsatz
254 Eine Rechtfertigung ist stets auch unabhängig von den Regelbeispielen über die Generalklausel,
§20 I S.1 AGG, möglich.
255 Gesetzesbegründung BT-Drucksache 16/1780, S.44.
256 Franke/Schlichtmann, in: Däubler/Beck (Hrsg.), Allgemeines Gleichbehandlungsgesetz, 52022,
§20 Rn.20 AGG.
257 Heese, NJW 2012, 572, 574; Thüsing, in: Münchener Kommentar zum Bürgerlichen Gesetz-
buch (Hrsg.), Band 1:Allgemeiner Teil, 92021, §20 Rn.43 AGG.
258 Vgl. Heese, NJW 2012, 572, 574f. und Zuiderveen Borgesius, Eur. Bus. Law Rev.31 (2020),
401, 414f. Siehe auch (im Kontext unternehmensintern angestrebter religiöser Neutralität am Ar-
beitsplatz) die Schlussanträge der Generalanwältin Juliane Kokott, C-157/15, ECLI:EU:C:2016:382,
Rn.134f. (G4S Secure Solutions): „In einer Union, die sich der sozialen Marktwirtschaft ver-
pichtet fühlt (Art.3 Abs.3 Satz 2 EUV) und diese unter Beachtung der Erfordernisse einer offenen
Marktwirtschaft mit freiem Wettbewerb verwirklichen will (Art.119 Abs. 1 AEUV und Art.120
AEUV), kommt der unternehmerischen Freiheit ein nicht zu unterschätzender Stellenwert zu. Die-
ses Grundrecht (…) ist heute an prominenter Stelle in Art.16 der Charta der Grundrechte veran-
kert. Somit ist nicht von vornherein auszuschließen, dass Art.2 Abs.5 der Richtlinie 2000/78 zum
Schutz der unternehmerischen Freiheit ein Abweichen vom Diskriminierungsverbot toleriert.“
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
295
der Gleichbehandlung von Mann und Frau implizit und ohne vertiefte Abwägung259
recht kompromisslos über die unternehmerische Freiheit der privaten Versicherun-
gen gestellt und sie durch Ungültigerklärung des Art.5 II Unisex-RL dazu ver-
pichtet, das Geschlecht des Versicherungsnehmers bei der Tarierung gänzlich
außen vor zu lassen, obwohl die Berücksichtigung dieses Faktors ökonomisch
adäquate Versicherungstarife erlaubt.260 Der Fall ist im weiteren Sinne mit der Situ-
ation von Preispersonalisierung vergleichbar: Sowohl bei der risikoadäquaten Be-
rechnung von Versicherungstarifen als auch bei der Proling- basierten Personalisie-
rung von Preisen geht es im Kern um das Anknüpfen an statistische (und damit
pauschalisierende) Erfahrungswerte, um einen individuellen Preis zu kalkulieren.
In beiden Fällen kann die Preisgestaltung maßgeblich von der Zugehörigkeit zu
geschützten Gruppen abhängig gemacht werden. Test-Achats behandelte eine spezi-
sche Ausnahmeregelung für den Versicherungssektor und bezog sich thematisch
(aufgrund des Regelungsgegenstands der Richtlinie) nur auf das Gebot der Ge-
schlechtergleichbehandlung. Das Urteil ist mithin nur bedingt auf die Fallkonstella-
tion der Diskriminierung geschützter Gruppen durch personalisierte Preise über-
tragbar: Beim Personalised Pricing kommen grundsätzlich auch andere (ggf.
geschützte) Gruppen als Anknüpfungspunkt in Betracht. Auch ist zu berücksichti-
gen, dass Preise im Online-Handel mit Gütern und Dienstleistungen für die Kunden
keine vergleichbare Bedeutung haben wie (für die individuelle Lebensplanung
eventuell elementare) Versicherungen, sodass eine Rechtfertigung aus rein wettbe-
werblichen Gesichtspunkten eher in Betracht kommt.
Aus Test-Achats lässt sich die Wertung ablesen, dass Diskriminierungsschutz
grundsätzlich einen höheren Stellenwert als die Preisgestaltungsfreiheit des Anbie-
ters hat und dass dieser seine Preissetzungsmethoden ggf. effektiv anpassen muss.
Verschiedene Kriterien spielen für die Abwägung eine Rolle. Diese muss wertend,
einzelfallbezogen und nach den Grundsätzen von Treu und Glauben vorgenommen
werden.261 Die in Bezug genommene Gruppenzugehörigkeit, die Art des individuell
bepreisten Gutes, die Höhe der Preisdifferenz im Einzelfall, die Form der Kommu-
nikation mit dem Kunden und das vom Anbieter konkret verfolgte Ziel müssen
demnach Berücksichtigung nden.262 Auch dürfte es eine wesentliche Rolle spielen,
ob die Schlechterbehandlung bestimmter Gruppen systematisch und reproduzierbar
stattndet oder ob es sich um Einzelfälle („Ausreißer“) handelt.
bb. Mittelbare Benachteiligung (§3 II AGG)
Es ist denkbar, dass die Diskriminierung geschützter Gruppen in der Praxis die
Form einer mittelbaren Benachteiligung i.S.d. §3 II AGG annimmt und dass dabei
trotz prima facie neutraler Vorgehensweise diskriminierende Ergebnisse produziert
259 Kritisch Armbrüster, LMK 2011, 315339.
260 Kritisch Heese, NJW 2012, 572, 574.
261 So die Gesetzesbegründung BT-Drucksache 16/1780, S.43.
262 Zuiderveen Borgesius, Eur. Bus. Law Rev.31 (2020), 401, 418.
III.Dritte Stufe: Entscheidungsndung und -ausführung
296
werden, obwohl der Anbieter dies nicht unbedingt weiß oder beabsichtigt. Die Fest-
stellung, ob eine mittelbare Diskriminierung vorliegt, erfolgt durch die Bildung von
Vergleichsgruppen.263 Um diskriminierende Formen von Preispersonalisierung
nachzuweisen, müssten verschiedene Käufergruppen gebildet und es müsste ge-
zeigt werden, dass von Mitgliedern einer geschützten Gruppe regelmäßig und sys-
tematisch höhere Preise als von Nicht-Mitgliedern verlangt werden. Eine unzuläs-
sige Diskriminierung ist in diesen Fällen gem. §3 II AGG bereits tatbestandlich
ausgeschlossen, wenn die vom Anbieter eingesetzten Mittel „durch ein rechtmäßi-
ges Ziel sachlich gerechtfertigt“ und zugleich „zur Erreichung dieses Ziels ange-
messen und erforderlich“ sind. Materiell-rechtlich stellen sich– unter dogmatisch
anderen Vorzeichen, nämlich bereits auf Tatbestandsebene– die gleichen Abwä-
gungsfragen wie bei der Prüfung des §20 I S.1 AGG.264
d. Zwischenergebnis
Das Allgemeine Gleichbehandlungsgesetz beinhaltet in §19 I AGG ein allgemei-
nes, zivilrechtliches Benachteiligungsverbot. Dieses kann im Kontext von Preisper-
sonalisierung zur Anwendung gebracht werden und Kunden davor schützen, auf-
grund ihrer Zugehörigkeit zu einer in §19 I AGG genannten Gruppe systematisch
benachteiligt zu werden. Die Verantwortung für die Beachtung des Benachteili-
gungsverbots trägt der Anbieter, ohne dass es auf ein Verschulden seinerseits ankäme.
Aufgrund der gebotenen Einzelfallbetrachtung nicht verallgemeinerungsfähig ist
die rechtliche Frage, in welchen konkreten Fallkonstellationen unmittelbare Be-
nachteiligungen über §20 I S.1 AGG gerechtfertigt werden können. Im Falle mit-
telbarer Benachteiligung, §3 II AGG, stellt sich die inhaltlich gleich konturierte
Fragestellung, wann ein den Tatbestand ausschließendes rechtmäßiges Ziel auf Sei-
ten des Anbieters vorliegt. Das Urteil des EuGH in Test-Achats legt nahe, dass dem
Gleichbehandlungsgebot ein sehr hohes Gewicht zukommt. Die Tatsachenfrage, ob
bei einem konkreten Anbieter tatsächlich Preissetzungsmethoden zur Anwendung
kommen, durch die geschützte Gruppen systematisch diskriminiert werden, dürfte
oftmals schwierig zu beantworten sein. Vor allem bei mittelbaren Benachteiligun-
gen sind auf prozessualer Ebene difzile Nachweisprobleme zu erwarten, da die
notwendige Vergleichsgruppenbildung den Zugriff auf ausreichend großes Daten-
material notwendig macht.265 Bereits weiter oben hat sich gezeigt, wie anspruchs-
voll es in methodischer Hinsicht ist, Preispersonalisierung überhaupt mit der not-
wendigen Sicherheit nachzuweisen und von dynamischer Preissetzung abzugrenzen.
Der Nachweis gruppenspezischer Diskriminierung dürfte nochmals komplexer
sein. Der Schutz des Allgemeinen Gleichbehandlungsgesetzes ist weitreichend:
263 Vgl. zur Bildung von Vergleichsgruppen (im arbeitsrechtlichen Kontext) instruktiv BAG, NZA
2016, 1394 passim.
264 Vgl. Thüsing, in: Münchener Kommentar zum Bürgerlichen Gesetzbuch (Hrsg.), Band 1:Allge-
meiner Teil, 92021, §3 Rn.40 AGG und die Gesetzesbegründung BT-Drucksache 16/1780, S.43.
265 Vgl. dazu aber §22 AGG.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
297
§ 21 AGG sieht u.a. die Möglichkeit vor, Unterlassungsklagen zu erheben und
Schadensersatzansprüche geltend zu machen.
IV.Zusammenfassende Überlegungen
Auf materiell-rechtlicher Ebene bestehen verschiedene Mechanismen, die ge-
schützte Gruppen vor unzulässiger Diskriminierung durch Preispersonalisierung
schützen. Diese nden sich im Datenschutzrecht, im Lauterkeitsrecht und im An-
tidiskriminierungsrecht. Zwei Regelungstechniken können unterschieden werden:
Förderung von Transparenz sowie Handlungsverbote, welche sich auf diskriminie-
rende Handlungen beziehen. Transparenz senkt das Diskriminierungsrisiko: Je
nachvollziehbarer und offener Entscheidungsprozesse ausgestaltet sind, desto un-
wahrscheinlicher ist es, dass sich systematische, unzulässige Ungleichbehandlun-
gen etablieren und unentdeckt bleiben. Dieser Diskriminierungsschutz ist indirekt:
Er ist nicht unbedingt das primäre Ziel der einschlägigen Vorschriften, wird durch
sie aber mit bewirkt. Handlungsverbote hingegen sind zielgerichtet. §19 I AGG
richtet sich beispielsweise direkt gegen bestimmte Benachteiligungsformen.
Der Schutz durch Transparenz ist im Datenschutzrecht und im Lauterkeitsrecht
verankert. Datenschutzrechtlich ergibt er sich vor allem aus den Anforderungen, die
Art.6 I S.1 lit. a i.V.m. 4 Nr.11, 7 II DSGVO an eine wirksame datenschutzrecht-
liche Einwilligungserklärung stellen. Hinzu kommen die in Art.13 I lit. c, II lit. f
und 14 I lit. c, II lit. g DSGVO enthaltenen Informationspichten und das Aus-
kunftsrecht gem. Art.15 I lit. a und h DSGVO.Parallel dazu besteht gem. §§5a I,
5b IV UWG eine lauterkeitsrechtliche Picht, über den Einsatz eines personalisier-
ten Preises in concreto zu informieren. Seit dem 28.5.2022 enthält das bürgerlich-
rechtliche Verbraucherschutzrecht eine ausdrückliche dahingehende Informations-
picht, §§312d I S.1, 312j II BGB i.V.m. Art. 246a §1 I S.1 Nr.6 EGBGB.
Einschlägige Handlungsverbote ergeben sich aus dem Datenschutzrecht und
dem Antidiskriminierungsrecht. Die Datenschutz-Grundverordnung beinhaltet an
verschiedenen Stellen mittelbare Schutzmechanismen mit unterschiedlicher Wirk-
weise: Art.9 I DSGVO setzt bei sensiblen (und mithin besonders diskriminierungs-
geeigneten) Daten bereits bei der ersten Erhebung an und stellt erhöhte Anforderun-
gen an die Zulässigkeit ihrer Verarbeitung. Art.5 I lit. a DSGVO gebietet eine
Datenverarbeitung nach Treu und Glauben. Dieser Grundsatz kann über Erwä-
gungsgrund 71 DSGVO mit einem Verbot diskriminierender Verarbeitungsweisen
„aufgeladen“ werden. Dies ist vor allem für das Proling zwecks Bestimmung
der individuellen Zahlungsbereitschaft relevant. Auch das Verbot automatisierter
Einzelentscheidungen (Art.22 I DSGVO) kann zum Schutz vor diskriminierender
Preisgestaltung durch Auslegung des Begriffs „erhebliche Beeinträchtigung“
fruchtbar gemacht werden. §19 I AGG als genuin antidiskriminierungsrechtliche
Regelung verbietet Benachteiligungen bestimmter Gruppen u. a. bei Massenge-
schäften. Bei diesen Handlungsverboten stellt sich stets die Frage, ob Ungleichbe-
handlungen im Einzelfall gerechtfertigt werden können. Allgemeingültige Antwor-
IV.Zusammenfassende Überlegungen
298
ten darauf sind nicht möglich, da stets verschiedene Faktoren zu berücksichtigen
sind. Es kommt vor allem darauf an, an welche Gruppenzugehörigkeit zu welchem
Zweck angeknüpft wird. Wettbewerbliche Erwägungen können an dieser Stelle Be-
rücksichtigung nden und bestimmte diskriminierende Handlungen rechtfertigen.
Vorsatz- oder Verschuldensfragen spielen hingegen weder im Datenschutz- noch im
Antidiskriminierungsrecht eine Rolle: Die Einhaltung der Verbote obliegt stets dem
Anbieter. Der EuGH hat in der Rechtssache Test-Achats den Grundsatz der Gleich-
behandlung der Geschlechter pauschal über die ökonomische Realität privatrechtli-
cher Versicherungen gestellt. Als Blaupause für Abwägungsfragen im Kontext von
diskriminierenden Preispersonalisierungsmethoden taugt das Urteil aber kaum, da
das Gericht von einer aussagekräftigen Mitteilung und Begründung seiner Erwä-
gungen abgesehen hat.
Die Schutzmechanismen dieser drei Rechtsregime lassen sich auf allen drei Stu-
fen des hier vertretenen Modells verorten: Auf Stufe 1 spielt unter Transparenzge-
sichtspunkten vor allem die Einwilligung des Kunden eine wesentliche Rolle. Stufe
2– die Proling-basierte Annäherung an den Reservationspreis– ist geprägt vom
Diskriminierungsverbot des Art.5 I lit. a i.V.m. Erwägungsgrund 71 DSGVO.Auf
der dritten und letzten Stufe kommen die Verbote des Art.22 I DSGVO und §19 I
AGG zum Tragen. Zudem besteht dort– im Zeitpunkt unmittelbar vor dem poten-
ziellen Kaufabschluss– eine anbieterseitige Informationspicht. Letztere hat eigen-
ständige Relevanz und entspricht nicht gänzlich den datenschutzrechtlichen Pich-
ten. Diese greifen typischerweise im Zeitpunkt der ersten Datenverarbeitung (etwa
beim Anlegen eines Kundenkontos) und mithin, je nach Fallkonstellation, einige
Zeit vor dem eigentlichen Kaufabschluss.266 Die bestehende lauterkeitsrechtliche
(§§5a I, 5b IV UWG) bzw. verbraucherschutzrechtliche (§§312d I S. 1, 312j II
BGB i.V.m. Art. 246a §1 I S.1 Nr.6 EGBGB) Informationspicht hingegen gilt
in dem Moment, in dem der Kunde unmittelbar vor dem Kaufabschluss steht. Diese
zeitliche Nähe mit der endgültigen Kaufentscheidung dürfte ihre Effektivität weiter
steigern und verleiht ihr eine eigenständige Funktion.
Das von den verschiedenen Regelwerken jeweils etablierte Schutzniveau ist un-
einheitlich. Dies ergibt sich zunächst aus den unterschiedlichen Regelungsansätzen,
die auf den drei Stufen des Modells naturgemäß unterschiedliche Wirkungen zeiti-
gen. Aber auch mit dem Blick auf die konkret geschützten Gruppen ergeben sich
Unterschiede. §19 I AGG verbietet beispielsweise geschlechtsbezogene Benachtei-
ligungen und solche aufgrund des Alters. Dahingehende Diskriminierungen werden
weder von Art.9 I DSGVO noch von Erwägungsgrund 71 DSGVO erfasst. Diese
gehen wiederum an anderer Stelle über §19 I AGG hinaus, indem sie etwa vor Dis-
kriminierungen aufgrund der politischen Meinung oder des Gesundheitszustands
des Betroffenen schützen. Bei rein materiell-rechtlicher Betrachtungsweise ließe
sich argumentieren, dass es auf diese Unterscheidung nicht ankommt: Auf Stufe 3
des Modells greifen sowohl Art.22 I DSGVO als auch §19 I AGG.Mit Blick auf
die Durchsetzungsebene hingegen können sich wesentliche Unterschiede ergeben.
Das Datenschutzrecht wird– im Gegensatz zum Allgemeinen Gleichbehandlungs-
266 Vgl. etwa Art.13 I DSGVO: „zum Zeitpunkt der Erhebung dieser Daten“.
Kapitel 11: Rechtliche Analyse anhand des 3-stugen Modells
299
gesetz– nicht nur von Privaten, sondern auch behördlich durchgesetzt. Verstöße
gegen die hier diskutierten Normen sind zudem bußgeldbewehrt (Art.83 V lit. a und
b DSGVO). Hinzu kommt, dass die Datenschutz-Grundverordnung unionsweite
Geltung beansprucht, wohingegen der deutsche Gesetzgeber bei der Umsetzung der
Antidiskriminierungs-Richtlinien mehr Gruppen Schutz zugesprochen hat, als uni-
onsrechtlich vorgegeben war. In den Ländern der Europäischen Union kann es inso-
weit also zu qualitativ unterschiedlichen Schutzniveaus kommen.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 Internati-
onal Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nut-
zung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und For-
mat erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen,
einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenom-
men wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der
genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes er-
gibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht
und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben
aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers
einzuholen.
IV.Zusammenfassende Überlegungen
301
Kapitel 12: Abschließende Bemerkungen
I.Zusammenfassung der wesentlichen Ergebnisse
Proling nach dem Verständnis der Datenschutz-Grundverordnung ist ein techni-
sches Erkenntnisverfahren, das auf dem Prinzip der Gruppenbildung basiert. Die-
sem Verfahren wohnen signikante persönlichkeitsrechtliche Implikationen inne,
erlaubt es doch die Schaffung „neuer“ personenbezogener Daten, die dem Betroffe-
nen zugewiesen werden und teilweise tiefgehende Einblicke in seine persönlichen
Aspekte erlauben. Für die rechtliche Bewertung ist die Erkenntnis bedeutsam, dass
Proling letztlich nichts anderes ist als eine Wahrscheinlichkeitsberechnung. Im
Einzelfall falsche Ergebnisse– sog. false positives bzw. false negatives– sind die-
sem Verfahren deshalb systemimmanent. Dies unterstreicht die Notwendigkeit der
gedanklichen Trennung von Proling und darauf basierenden Entscheidungen so-
wie die Berechtigung der Regulierung automatisierter Einzelentscheidungen in
Art.22 DSGVO.
Proling kann grundsätzlich eingesetzt werden, um Preise im Online-Handel ge-
genüber Endverbrauchern zu personalisieren. Proling und Preispersonalisierung
basieren auf der gleichen konzeptionellen Herangehensweise. Preispersonalisie-
rung ist ein Unterfall von Preisdiskriminierung 3. Grades. In der Theorie erlaubt
sie– den Zugriff auf ausreichend Datenmaterial vorausgesetzt– die Bestimmung
des Reservationspreises des Kunden, also seiner individuellen Zahlungsbereitschaft
für ein bestimmtes Gut oder eine bestimmte Dienstleistung. Die Praxis ist davon aus
verschiedenen Gründen weit entfernt: In der Regel fehlt der Zugriff auf ausreichend
großes Datenmaterial (personenbezogener wie abstrakter Natur). Hinzu kommen
technische Schwierigkeiten (etwa hinsichtlich der zuverlässigen Identizierung des
einzelnen Kunden) sowie wettbewerbliche Beschränkungen, die ein Ausreizen des
Reservationspreises von vornherein erschweren oder gänzlich ausschließen. Der
möglicherweise bedeutendste Grund dafür ist letztlich aber auch ein ganz mensch-
licher: Es ist kaum möglich, von „dem“ Reservationspreis eines Kunden zu
© Der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9_12
302
sprechen. Die Zahlungsbereitschaft schwankt, ist situationsabhängig, oftmals irrati-
onal und auch vom Betroffenen nicht stets bezifferbar. Eher realisierbar sind des-
halb „Gruppenpreise“, die etwa in Abhängigkeit vom physischen Aufenthaltsort des
Kunden oder von der Nutzung eines Preisvergleichsportals bestimmt werden. Bei
diesen handelt es sich aber um nicht mehr als eine grobe, pauschalisierende Annä-
herung an den Reservationspreis.
Die auf tatsächlicher Ebene zwingend notwendige Unterscheidung zwischen
personalisierten Preisen und dynamisch oder anderweitig begründeten Preisschwan-
kungen schlägt auf die rechtliche Ebene durch. Die hiesige Untersuchung kommt zu
dem Ergebnis, dass beim Personalised Pricing im Regelfall personenbezogene Da-
ten i.S.d. Art. 4 Nr.1 DSGVO verarbeitet werden. Dementsprechend ndet die
Datenschutz- Grundverordnung gem. Art.2 I DSGVO Anwendung. Tragendes Ar-
gument dafür ist, dass der Anbieter, der Daten zum Zwecke der Preispersonalisie-
rung erhebt, dabei stets zumindest mittelbar auch die Feststellung der Identität des
Kunden bezweckt: Ohne Kenntnis der Identität des Vertragspartners ist ein Kaufab-
schluss kaum denkbar.
Mit der Datenschutz-Grundverordnung, dem Gesetz gegen den unlauteren Wett-
bewerb und dem Allgemeinen Gleichbehandlungsgesetz bestehen verschiedene
Schutzsysteme, die in den hier untersuchten Konstellationen bestimmte Gruppen
vor unzulässiger Diskriminierung schützen können. Rechtstechnisch wird dieses
Ergebnis auf materiell-rechtlicher Ebene durch zwei Herangehensweisen erreicht.
Zum einen bestehen datenschutzrechtliche und lauterkeitsrechtliche Informations-
pichten, die einen mittelbaren Schutz vor Diskriminierung bewirken. Durch er-
höhte Transparenz sinkt die Wahrscheinlichkeit, dass systematisch implementierte
Diskriminierung entsteht oder unentdeckt bleibt. Mit dem New Deal for Consumers
wurde zudem eine ausdrückliche verbraucherschutzrechtliche Picht eingeführt,
Kunden auf den Einsatz personalisierter Preise hinzuweisen. Diese kommt seit dem
28.5.2022 gem. §§312d I S.1, 312j II BGB i.V. m. Art.246a §1 I S.1 Nr.6
EGBGB zur Anwendung. Zudem bestehen datenschutzrechtliche und antidiskrimi-
nierungsrechtliche Handlungsverbote, die sich gegen diskriminierende Handlungen
richten. §19 I AGG ist auf die hier behandelten Sachverhalte anwendbar. Auch
Art.22 I DSGVO kann fruchtbar gemacht werden. Die Regelungssysteme sind ne-
beneinander anwendbar und der durch sie vermittelte Schutz kommt im Kontext
von Preispersonalisierung zur Anwendung. Dies entspricht dem jeweiligen Telos
dieser Regelwerke.
Ungewollte Schutzlücken sind nicht ersichtlich. Der europäische und der deut-
sche Gesetzgeber haben sich entschieden, im Privatrechtsverkehr bestimmte Grup-
pen vor unmittelbarer und mittelbarer Diskriminierung zu schützen– andere hinge-
gen nicht. §19 I AGG sowie Art.9 I und Erwägungsgrund 71 DSGVO beziehen sich
jeweils auf konkret bezeichnete Gruppen. Die Auistungen decken sich aber nicht
eins zu eins. Deshalb bestehen bei isolierter Betrachtung der Regelwerke unter-
schiedlich hohe Schutzniveaus. Hinzu kommt, dass keine der Normen sich auf alle
in Art.21 I GRCh genannten Eigenschaften bezieht. So erfährt etwa die dort ge-
nannte „Sprache“ als Anknüpfungspunkt für diskriminierende Handlungen keinen
einfachgesetzlichen Schutz. Die Frage, welche Gruppen in welcher Intensität auch
Kapitel 12: Abschließende Bemerkungen
303
im Privatrechtsverkehr vor Diskriminierung geschützt werden sollen, ist eine eigen-
ständige. Mittelfristig ist zu diskutieren, ob auch weiterhin nur auf konkrete ge-
schützte Gruppen abgestellt werden sollte oder ob der Schutz vor Diskriminierung
einer exibleren Herangehensweise bedarf. Proling-Verfahren zeichnen sich da-
durch aus, dass sie mithilfe statistischer Methoden Vergleichsgruppen erschaffen
und diese der Bewertung persönlicher Aspekte zugrunde legen. Die so produzierten
Ergebnisse können zu Ungleichbehandlungen führen, die im Einzelfall als überra-
schend, nicht nachvollziehbar oder gar unfair betrachtet werden. Ein wesentlicher
Grund dafür ist, dass die in Datensätzen enthaltenen Korrelationen oftmals zu Er-
kenntnissen führen, die intuitiv nicht zu erwarten wären. Dies gilt über Preisperso-
nalisierung hinaus für zahlreiche algorithmenbasierte Entscheidungssysteme. Der
Gesetzgeber wird sich zukünftig also mit der Frage auseinandersetzen müssen, wie
das Recht mit solchen Fallkonstellationen umzugehen hat, die in normativer Hin-
sicht problematisch sind, sich aber einer Kategorisierung entziehen, die sich klar
denierter, rechtlich geschützter Gruppen bedient.1 Denkbar wäre etwa eine Gene-
ralklausel, die normativ abzulehnende Diskriminierungen untersagt. Hier ist ten-
denziell Zurückhaltung geboten: Eine Ungleichbehandlung als solches ist im
Privatrechtsverkehr nicht per se verwerich. Sie ist letztlich Ausdruck einer frei-
heitlichen Wirtschaftsordnung. Unter welchen Umständen eine Einschränkung der
unternehmerischen Freiheit zugunsten des Diskriminierungsschutzes geboten ist,
ist eine politische Entscheidung. Diese muss sich wiederum an den Wertungen des
Verfassungsrechts orientieren, um allen betroffenen Interessen gerecht zu werden.
II.Ausblick
Generell zeichnet sich im Online-Bereich eine steigende Personalisierung von Inhal-
ten ab. Der Gesetzgeber steht vor der schwierigen Aufgabe, den damit einhergehen-
den Nutzen mit dem persönlichkeitsrechtlichen Schadenspotenzial in Ausgleich zu
bringen und, soweit notwendig, behutsam regulierend einzugreifen. Daher ist es bei-
spielsweise grundsätzlich zu begrüßen, dass der im November 2022in Kraft getre-
tene Digital Services Act eine recht detaillierte und weitreichende Regelung für au-
tomatisierte Empfehlungssysteme vorsieht.2 Demnach müssen Online- Plattformen,
die ihren Nutzern etwa Produkte nach Eingabe eines Suchbegriffs in Form eines
Rankings präsentieren, in ihren allgemeinen Geschäftsbedingungen gem. Art.27 I
DSA u.a. die wichtigsten dabei herangezogenen Parameter offenlegen.3 Sie müssen
darlegen, aus welchem Grund sie einem Nutzer bestimmte Informationen vorschla-
1 Siehe dazu bereits Wachter, Berkeley Tech. L.J. 35 (2020), 367, 413–418 und Zuiderveen Borge-
sius, Eur. Bus. Law Rev. 31 (2020), 401, 420–422.
2 Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022
über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG (Gesetz
über digitale Dienste) (ABl. L 277 vom 27.10.2022, S.1ff.), im Folgenden „DSA“.
3 Zur Legaldenition von Empfehlungssystemen siehe Art.3 lit. s DSA.
II.Ausblick
304
gen. Dies beinhaltet zumindest „die Kriterien, die für die Bestimmung der Informa-
tionen, die dem Nutzer vorgeschlagen werden, am wichtigsten sind [und] die Gründe
für die relative Bedeutung dieser Parameter.“4 Sofern es sich um eine sog. sehr große
Online-Plattform handelt, muss dem Nutzer bei der Erstellung eines solchen Ran-
kings darüber hinaus zumindest eine Option angeboten werden, die nicht auf Pro-
ling i.S.d.Art.4 Nr.4 DSGVO basiert.5
Preispersonalisierung stellt eine spezielle Form der Personalisierung dar. Sie
kommt zum heutigen Zeitpunkt ausgesprochen selten vor. Dennoch ist es möglich,
dass sich dies in Zukunft ändern wird. In sich abgeschlossene, digitale Assistenz-
systeme– wie etwa Alexa von Amazon– etablieren Rahmenbedingungen, die per-
sonalisierte Preise aus verschiedenen Gründen begünstigen. Die Kunden dort sind
aus Sicht des Anbieters stets eindeutig identiziert. Dies erlaubt eine individuali-
sierte Prolbildung über einen längeren Zeitraum. Zugleich besteht für die Anbieter
die Möglichkeit, in großem Ausmaß abstrakte Vergleichsdaten zu sammeln. Je ab-
geschlossener ein solches System ist, desto leichter ist auch die Preiskommunika-
tion dem Kunden gegenüber: Beispielsweise ist es leicht möglich, ausgewählten
Kunden Gutscheine zuzuschicken (mittelbare Preispersonalisierung). Auch unmit-
telbare Preispersonalisierung dürfte leichter möglich sein, wenn Endverbraucher
etwa zunehmend Kaufentscheidungen dem Assistenzsystem überlassen und
z.B. aus Bequemlichkeit– weniger geneigt sind, Preise online zu vergleichen.
Zum heutigen Zeitpunkt ist die kundenseitige negative Rezeption personalisier-
ter Preise eines ihrer größten Hindernisse: Kunden empnden es als ungerecht,
wenn sie realisieren, dass Preise ohne erkennbare Rechtfertigung individualisiert
und an ihre Zahlungsbereitschaft angepasst werden. Dennoch ist denkbar, dass die
Akzeptanz personalisierter Preise steigen wird. Dies zeigt sich am Beispiel des
Yield Managements. Als Fluggesellschaften diese Preissetzungsmethode in den
USA etabliert hatten, war die öffentliche Akzeptanz sehr gering. Heutzutage
empnden Kunden es als normal, dass Ticketpreise im Laufe der Zeit Schwankun-
gen unterliegen. Es bleibt abzuwarten, welche Auswirkungen die neue, in die
Verbraucherrechte- Richtlinie eingefügte verbraucherschutzrechtliche Informati-
onspicht haben wird. Die Durchsetzung dieser Picht dürfte in der Praxis unter
verschiedenen Gesichtspunkten schwierig werden und umstritten sein. So stellen
sich etwa komplizierte Nachweisprobleme bei der Frage, ob ein Anbieter dynami-
sche Preissetzungsmethoden einsetzt (diese sind ausdrücklich vom Anwendungsbe-
reich der Informationspicht ausgenommen) oder Preise tatsächlich personalisiert.
Letztlich wird es Aufgabe der Gerichte sein, diese Fragen zu beantworten.
Das geltende materielle Recht ist diesen tatsächlichen Entwicklungen gewach-
sen: Die bestehenden Schutzsysteme sind grundsätzlich dazu geeignet, mit der Dis-
kriminierungsgefahr, die dem Personalised Pricing innewohnt, umzugehen. Die in
§19 I AGG sowie Art.9 I und Erwägungsgrund 71 DSGVO genannten und dement-
sprechend geschützten Gruppen können vom Gesetzgeber erweitert werden, sollte
4 Art.27 II S.2 DSA.
5 Art.38 DSA.Sehr große Online-Plattformen sind solche, „die eine durchschnittliche monatliche
Zahl von mindestens 45Millionen aktiven Nutzern in der Union haben“ (Art.33 I DSA).
Kapitel 12: Abschließende Bemerkungen
305
dies in der Zukunft geboten erscheinen. Auch wird sich erst im Laufe der Zeit zei-
gen, ob im Hinblick auf etwaige Probleme bei der Rechtsdurchsetzung Änderungs-
bedarf besteht, etwa bei der Beweislastverteilung.
III.Zusammenfassung der wesentlichen Ergebnisse mithilfe
von Thesen
1. Proling i.S.d.Art.4 Nr.4 DSGVO ist ein technisches Erkenntnisverfahren,
das auf dem Prinzip der Gruppenbildung basiert. Diesem Verfahren wohnen
weitreichende persönlichkeitsrechtliche Implikationen inne, da es die Schaffung
„neuer“ personenbezogener Daten ermöglicht. Sie werden dem Betroffenen zu-
gewiesen und erlauben potenziell tiefgreifende Einblicke in seine persönlichen
Aspekte. Für die rechtliche Bewertung ist vor allem die Erkenntnis bedeutsam,
dass Proling letztlich eine reine Wahrscheinlichkeitsberechnung darstellt. Im
Einzelfall falsche Ergebnisse– sog. false positives bzw. false negatives– sind
diesem Verfahren systemimmanent. Dies unterstreicht die Notwendigkeit der
gedanklichen und rechtlichen Trennung von Proling einerseits und den darauf
basierenden Entscheidungen, die Nutzern gegenüber getroffen werden, anderer-
seits. Es zeigt auch die Berechtigung der Regulierung automatisierter Einzelent-
scheidungen in Art.22 DSGVO.
2. Proling und darauf basierende Entscheidungsndungsprozesse können mithilfe
des im Rahmen dieser Arbeit entwickelten 3-stugen Modells zum Zwecke einer
rechtlichen Einordnung erfasst werden. Die erste Stufe bezieht sich auf die Da-
tensammlung: Sowohl abstrakte Vergleichsdaten als auch sich auf den Betroffe-
nen beziehende personenbezogene Daten sind nötig, um Proling überhaupt
durchführen zu können. Das eigentliche Proling stellt die zweite Stufe des Mo-
dells dar. Es geht hier darum, nutzbare Erkenntnisse über einen Betroffenen zu
gewinnen, die als Entscheidungsgrundlage dienen können. Die dritte Stufe des
Modells bezieht sich auf die Phase der Entscheidungsndung und -ausführung.
Hier werden die Erkenntnisse des Prolings sowie weitere relevante Aspekte
herangezogen, um eine Entscheidung zu fällen (und ggf. auszuführen), die für
den Betroffenen Relevanz hat. Die dritte Stufe endet also mit einer Handlung
bzw. einem bewussten Untätigbleiben.
Diese Strukturierung ermöglicht es, die rechtlichen und tatsächlichen Impli-
kationen von Proling und den darauf aufbauenden Entscheidungen zu erkennen
und sie rechtlich und normativ zu bewerten. Das 3-stuge Modell erleichtert
zudem die Analyse solcher Sachverhalte, an denen mehrere Akteure beteiligt
sind. Ein praxisrelevantes Beispiel hierfür ist das Kredit-Scoring.
3. Proling und Preispersonalisierung basieren auf der gleichen konzeptionellen
Herangehensweise. Proling kann dementsprechend eingesetzt werden, um
Preise im Online-Handel gegenüber Endverbrauchern zu personalisieren. Theo-
retisch ist es möglich, den Reservationspreis eines Kunden, also seine individu-
III.Zusammenfassung der wesentlichen Ergebnisse mithilfe von Thesen
306
elle Zahlungsbereitschaft für ein bestimmtes Gut oder eine bestimmte Dienst-
leistung, zum Zwecke der Preisdiskriminierung 1. Grades genau zu bestimmen
und bei der Preisgestaltung effektiv zu berücksichtigen. Die Praxis ist davon
derzeit aber weit entfernt. Die Gründe hierfür sind vielfältig: In vielen Fällen
fehlt der Zugriff auf ausreichend Datenmaterial. Hinzu kommen technische
Schwierigkeiten (etwa bei der zuverlässigen Identizierung des einzelnen Kun-
den) sowie wettbewerbliche Beschränkungen, die ein Ausreizen des Reservati-
onspreises von vornherein erschweren oder gänzlich ausschließen. Auch lehnen
(zumindest zum jetzigen Zeitpunkt) die meisten Kunden personalisierte Preise
ab, da sie ihren Einsatz als unfair erachten. Hinzu kommt, dass es kaum möglich
ist, von „dem“ Reservationspreis eines Kunden zu sprechen. Die Zahlungsbe-
reitschaft schwankt, ist situationsabhängig, oftmals irrational und auch vom Be-
troffenen im Regelfall nicht konkret bezifferbar. Preispersonalisierung kann
(wohl aus diesen Gründen) nur in eher seltenen Ausnahmefällen überhaupt
nachgewiesen werden. Innerhalb dieser wenigen nachweisbaren Fälle sind zu-
dem meistens nur verhältnismäßig kleine Preisunterschiede zu beobachten. Eher
realisierbar sind Gruppenpreise, die etwa in Abhängigkeit vom Aufenthaltsort
des Kunden oder von der Nutzung eines Preisvergleichsportals bestimmt werden
(Preisdiskriminierung 3. Grades). Dabei handelt es sich aber um nicht mehr als
eine grobe, pauschalisierende Annäherung an den Reservationspreis.
4. Mit der zunehmenden Verbreitung in sich abgeschlossener, automatisierter Assis-
tenzsysteme gehen immer bessere Rahmenbedingungen für diejenigen Anbieter
solcher Systeme einher, die Preise personalisieren wollen. Dies hat verschiedene
Gründe. Die Kunden sind stets eindeutig identiziert, sodass eine aussagekräftige
Prolbildung über einen längeren Zeitraum möglich ist. Auch die Preiskommuni-
kation ist erheblich erleichtert, da der Kunde etwa aus Gründen der Bequemlich-
keit möglicherweise davon absieht, die ihm gegenüber verlangten Preise zu hin-
terfragen oder mit denen anderer Anbieter zu vergleichen.
5. Die auf tatsächlicher Ebene zwingend notwendige Unterscheidung zwischen
personalisierten Preisen und dynamisch oder anderweitig begründeten Preis-
schwankungen schlägt auf die datenschutzrechtliche Ebene durch. Bei Preisper-
sonalisierung im Online-Bereich werden im Regelfall personenbezogene Daten
verarbeitet. Dementsprechend ndet die Datenschutz-Grundverordnung Anwen-
dung und bewirkt eine mittelbare Regulierung der Zulässigkeit personalisier-
ter Preise.
6. Es ist ohne Weiteres denkbar, dass der Einsatz personalisierter Preise zukünftig
zu einer rechtlich und moralisch missbilligten Diskriminierung von Angehörigen
geschützter Gruppen führen wird. Die (frühere) Praxis des US- amerikanischen
Kredit-Scorings dient hierfür als anschauliches Beispiel. Dort kam es nachgewie-
senermaßen zu Benachteiligungen rechtlich geschützter Gruppen (etwa bestimm-
ter Ethnien). Vergleichbare Effekte sind mit Blick auf die stetig zunehmende In-
dividualisierung von digitalen Inhalten auch im Kontext von Preispersonalisierung
vorstellbar. Dies ist letztlich eine Folge des Umstands, dass Proling auf dem
Prinzip der Gruppenbildung aufbaut.
Kapitel 12: Abschließende Bemerkungen
307
7. Für die rechtliche Bewertung der Zulässigkeit personalisierter Preise spielen
auch die mit ihnen einhergehenden ökonomischen Auswirkungen eine Rolle.
Dabei ist zu beachten, dass eine pauschale Aussage darüber, wer von Preisperso-
nalisierung protiert, nicht möglich ist. Personalisierte Preise können beispiels-
weise mit durchaus positiven ökonomischen Effekten zugunsten der Kunden
einhergehen. Dies ist etwa dann der Fall, wenn Kunden erst aufgrund der Perso-
nalisierung des Preises bereit sind, ein bestimmtes Gut zu erwerben. Dieser Ef-
fekt kann auftreten, wenn ihr Reservationspreis über den Produktionskosten des
Gutes, aber unter dem einheitlichen Preis liegt, der sich ohne den Einsatz von
Preispersonalisierung am Markt ergeben würde.
8. Mit der Datenschutz-Grundverordnung, dem Gesetz gegen den unlauteren Wett-
bewerb und dem Allgemeinen Gleichbehandlungsgesetz bestehen verschiedene
Schutzsysteme, die in den hier untersuchten Konstellationen bestimmte Grup-
pen vor unzulässiger Diskriminierung schützen können. Rechtstechnisch wird
dieses Ergebnis durch zwei Herangehensweisen erreicht, und zwar durch Infor-
mationspichten und Handlungsverbote. Zunächst bestehen datenschutzrechtli-
che und lauterkeitsrechtliche Informationspichten. Diese bewirken einen mit-
telbaren Schutz vor Diskriminierung. Durch erhöhte Transparenz sinkt die
Wahrscheinlichkeit, dass systematisch implementierte Diskriminierung entsteht
oder unentdeckt bleibt. Zudem wurde kürzlich auf europarechtlicher Grundlage
eine verbraucherschutzrechtliche Picht eingeführt, Kunden auf den Einsatz
personalisierter Preise hinzuweisen. Darüber hinaus bestehen datenschutzrecht-
liche und antidiskriminierungsrechtliche Handlungsverbote, die sich gegen dis-
kriminierende Handlungen richten. Die genannten Regelungssysteme sind ne-
beneinander anwendbar. Der durch sie vermittelte Schutz kommt im Kontext
von Preispersonalisierung zur Geltung.
9. Vom Gesetzgeber ungewollte Schutzlücken sind nicht ersichtlich. Dies bedeutet
aber nicht, dass der im geltenden Recht vorgesehene Schutz zwingend ausrei-
chend ist. Der europäische und der deutsche Gesetzgeber haben sich entschie-
den, im Privatrechtsverkehr bestimmte Gruppen vor Diskriminierung zu schüt-
zen– andere hingegen nicht. Die Frage, welche Gruppen in welchem Umfang
vor Diskriminierung geschützt werden sollen, ist eine eigenständige. Ausgangs-
punkt ihrer Beantwortung sollte das Verfassungsrecht sein. Ihre gesellschaftliche
Relevanz ist nicht zu unterschätzen.
III.Zusammenfassung der wesentlichen Ergebnisse mithilfe von Thesen
308
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International
Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung,
Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format er-
laubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen
Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der
genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes er-
gibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht
und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben
aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers
einzuholen.
Kapitel 12: Abschließende Bemerkungen
309
Literatur
Abel, Ralf B., Automatisierte Entscheidungen im Einzelfall gem. Art.22 DS-GVO– Anwendungs-
bereich und Grenzen im nicht-öffentlichen Bereich, ZD 2018, S.304–307.
Agentur der Europäischen Union für Grundrechte/Europarat, Handbuch zum europäischen Anti-
diskriminierungsrecht (Ausgabe 2018), Luxemburg 2018.
Albors-Llorens, Albertina, Competition and Consumer Law in the European Union: Evolution and
Convergence, Yb. Eur. L. 33 (2014), S.163–193.
Armbrüster, Christian, EuGH: Geschlechtsspezische Unterscheidung bei Versicherungstarifen
verletzt EU-Grundrechte-Charta (Anmerkung zu EuGH, Urt. v. 1.3.2011– C-236/09), LMK
2011, 315339.
Arora, Neeraj/Dreze, Xavier/Ghose, Anindya/Hess, James D./Iyengar, Raghuram/Jing, Bing/Joshi,
Yogesh/Kumar, V./Lurie, Nicholas/Neslin, Scott/Sajeesh, S./Su, Meng/Syam, Niladri/Thomas,
Jacquelyn/Zhang, Z.John, Putting one-to-one Marketing to Work: Personalization, Customiza-
tion, and Choice, Mark Lett 19 (2008), S.305–321.
Article 29 Data Protection Working Party, Opinion 03/2013 on Purpose Limitation– 00569/13/EN
WP203 2013.
Article 29 Data Protection Working Party, Opinion 06/2014 on the Notion of Legitimate Interests
of the Data Controller under Article 7 of Directive 95/46/EC– 844/14/EN WP217 2014.
Article 29 Data Protection Working Party, Guidelines on Automated individual Decision-Making
and Proling for the Purposes of Regulation 2016/679– 17/EN WP251rev.01 2018.
Article 29 Data Protection Working Party, Guidelines on Consent under Regulation 2016/679–
17/EN WP259 rev.01 2018.
Article 29 Data Protection Working Party, Guidelines on Transparency under Regulation
2016/679– 17/EN WP260 rev.01 2018.
Autorité de Protection des Données (Belgische Datenschutzbehörde), Opinion No. 35/2012 2012.
Baratta, Roberto, Complexity of EU Law in the domestic Implementing Process, The Theory and
Practice of Legislation 2 (2014), S.293–308.
Bar-Gill, Oren, Algorithmic Price Discrimination– When Demand is a Function of both Preferen-
ces and (Mis)perceptions, U.Chi. L.Rev. 86 (2019), S.217–254.
Born, Tobias, Bonitätsprüfungen im Online-Handel – Scorewert-basierte automatisierte Ent-
scheidung über das Angebot von Zahlungsmöglichkeiten, ZD 2015, S.66–72.
Botta, Marco/Wiedemann, Klaus, The Interaction of EU Competition, Consumer, and Data Protec-
tion Law in the Digital Economy– The regulatory Dilemma in the Facebook Odyssey, The
Antitrust Bulletin 64 (2019), S.428–446.
Botta, Marco/Wiedemann, Klaus, To discriminate or not to discriminate? Personalised Pricing in
online Markets as exploitative Abuse of Dominance, Eur. J.Law. Econ. 50 (2020), S.381–404.
© Der/die Herausgeber bzw. der/die Autor(en) 2023
K. Wiedemann, Rechtliche Implikationen Proling-basierter
Preispersonalisierung, Munich Studies on Innovation and Competition 20,
https://doi.org/10.1007/978-3-662-67452-9
310
Bourreau, Marc/de Streel, Alexandre, The Regulation of Personalised Pricing in the Digital Era–
OECDBackground Material DAF/COMP/WD(2018)150 2018.
Brkan, Maja, Do Algorithms rule the World? Algorithmic Decision-Making and Data Protection in
the Framework of the GDPR and beyond, Int. J.Law Inf. Technol. 27 (2019), S.91–121.
Buchner, Benedikt, Grundsätze und Rechtmäßigkeit der Datenverarbeitung unter der DS-GVO,
DuD 40 (2016), S.155–161.
Buck-Heeb, Petra, Rechtsrisiken bei automatisierter Kreditwürdigkeitsprüfung und Kreditvergabe,
BKR 2023, S.137–145.
Bygrave, Lee A., Data Privacy Law– An international Perspective, Oxford 2014.
Centre on Regulation in Europe (Cerre), Big Data and Competition Policy: Market Power, Perso-
nalised Pricing and Advertising– Project Report 2017.
Citron, Danielle Keats/Pasquale, Frank, The scored Society: Due Process for automated Predicti-
ons, Wash. L.Rev. 89 (2014), S.1–33.
Collum, Christopher T., Owning Ourselves: Why the American Notion of Privacy Demands a Re-
gulatory Answer to the GDPR at the Federal Level, Wash. U. Jurisprudence Rev. 13 (2021),
S.433–466.
Colonna, Liane, Legal Implications of Data Mining– Assessing the European Union’s Data Pro-
tection Principles in Light of the United States Government’s National Intelligence Data Mi-
ning Practices, Tallinn 2016.
Competition and Markets Authority (CMA), The Commercial Use of Consumer Data 2015.
Competition and Markets Authority (CMA), Digital Comparison Tools Market Study 2017.
Competition and Markets Authority (CMA), Pricing Algorithms– Economic Working Paper on the
Use of Algorithms to facilitate Collusion and Personalised Pricing 2018.
Council of Europe, The Protection of Individuals with Regard to automatic Processing of personal
Data in the Context of Proling– Recommendation CM/Rec(2010)13 adopted by the Commit-
tee of Ministers of the Council of Europe on 23 November 2010 and Explanatory Memoran-
dum, Straßburg 2011.
Custers, Bart, Data Dilemmas in the Information Society: Introduction and Overview, in: Custers,
Bart/Calders, Toon u.a. (Hrsg.), Discrimination and Privacy in the Information Society– Data
Mining and Proling in Large Databases, Berlin, Heidelberg 2013, S.3–26.
Dammann, Ulrich, Erfolge und Dezite der EU-Datenschutzgrundverordnung– Erwarteter Fort-
schritt, Schwächen und überraschende Innovationen, ZD 2016, S.307–314.
Datatilsynet (Dänische Datenschutzbehörde), The great Data Race– How commercial Utilisation
of personal Data challenges Privacy 2015.
Datenethikkommission der Bundesregierung, Gutachten, Berlin 2019.
Datenschutzkonferenz (DSK), Zur Anwendbarkeit des TMG für nicht-öffentliche Stellen ab dem
25. Mai 2018– Positionsbestimmung der Konferenz der unabhängigen Datenschutzbehörden
des Bundes und der Länder 2018.
Datenschutzkonferenz (DSK), Orientierungshilfe der Aufsichtsbehörden für Anbieter von Tele-
medien März 2019.
Datta, Amit/Tschantz, Michael Carl/Datta, Anupam, Automated Experiments on Ad Privacy Set-
tings– A Tale of Opacity, Choice, and Discrimination, PoPETs 2015 (2015), S.92–112.
Däubler, Wolfgang/Beck, Thorsten (Hrsg.), Allgemeines Gleichbehandlungsgesetz – Hand-
kommentar, 5.Au. 2022.
Della Vigna, Stefano/Malmendier, Ulrike, Paying not to go to the Gym, Amer. Econ. Rev. 96
(2006), S.694–719.
Demmer, Christine, So verändern Roboter die Jobsuche, Süddeutsche Zeitung 17.06.2017.
Deuster, Lisa, Automatisierte Entscheidungen nach der Datenschutz-Grundverordnung, PinG 4
(2016), S.75–78.
Drexl, Josef, Legal Challenges of the changing Role of personal and non-personal Data in the Data
Economy, in: Franceschi, Alberto de/Schulze, Reiner (Hrsg.), Digital Revolution– New Chal-
lenges for Law, München, Baden-Baden 2019, S.19–41.
Drexl, Josef/Hilty, Reto M./Beneke, Francisco/Desaunettes, Luc/Finck, Michèle/Globocnik, Jure/
Gonzalez Otero, Begoña/Hoffmann, Jörg/Hollander, Leonard/Kim, Daria/Richter, Heiko/
Literatur
311
Scheuerer, Stefan/Slowinski, Peter R./Thonemann, Jannick, Technical Aspects of Articial In-
telligence: An Understanding from an Intellectual Property Law Perspective– Version 1.0,
Max Planck Institute for Innovation & Competition Research Paper No. 19-13 2019, S.1–14.
Duhigg, Charles, How Companies learn your Secrets, The NewYork Times Magazine 16.02.2012.
Düsseldorfer Kreis, Orientierungshilfe zu den Datenschutzanforderungen an App-Entwickler und
App-Anbieter 2014.
Ehmann, Eugen/Selmayr, Martin (Hrsg.), Datenschutz-Grundverordnung – Kommentar,
2.Au. 2018.
Ekelund, Robert B., Price Discrimination and Product Differentiation in Economic Theory: An
early Analysis, Q.J. Econ. 84 (1970), S.268–278.
Ernst, Christian, Algorithmische Entscheidungsndung und personenbezogene Daten, JZ
72 (2017), S.1026–1036.
Ernst, Stefan, Die Einwilligung nach der Datenschutzgrundverordnung– Anmerkungen zur De-
nition nach Art.4 Nr.11 DS-GVO, ZD 2017, S.110–114.
Europäische Kommission, Leitlinien zur Umsetzung/Anwendung der Richtlinie 2005/29/EG über
unlautere Geschäftspraktiken– SWD(2016) 163 nal 2016.
European Commission, ePrivacy Directive: Assessment of Transposition, Effectiveness and Com-
patibility with proposed Data Protection Regulation– FinalReport 2015.
European Commission, Final Report on the E-Commerce Sector Inquiry (Commission Staff Wor-
king Document)– SWD(2017) 154 nal 2017.
European Commission, Consumer Market Study on Online Market Segmentation through perso-
nalised Pricing/Offers in the European Union– Request for specic Services 2016 85 02 for the
Implementation of Framework Contract EAHC/2013/CP/04 2018.
European Commission, Consumer Market Study on Online Market Segmentation through perso-
nalised Pricing/Offers in the European Union– ANNEXES – Request for specic Services
2016 85 02 for the Implementation of Framework Contract EAHC/2013/CP/04 2018.
Ezrachi, Ariel/Stucke, Maurice E., Virtual Competition– The Promise and Perils of the Algorithm-
driven Economy, Cambridge, MA(USA)/London (Großbritannien) 2016.
Ezrachi, Ariel/Stucke, Maurice E., Articial Intelligence & Collusion: When Computers inhibit
Competition, U.Ill. L.Rev. 2017 (2017), S.1775–1809.
Ezrachi, Ariel/Stucke, Maurice E., Sustainable and unchallenged algorithmic Tacit Collusion, Nw.
J.Tech. & Intell. Prop. 17 (2020), S.217–259.
Fayyad, Usama/Piatetsky-Shapiro, Gregory/Smyth, Padhraic, From Data Mining to Knowledge
Discovery in Databases, AI Magazine 17 (1996), S.37–54.
Federal Trade Commission, Data Brokers– A Call for Transparency and Accountability 2014.
Federal Trade Commission, Big Data– A Tool for Inclusion or Exclusion?– Understanding the
Issues 2016.
Finck, Michèle, Smart Contracts as a Form of solely automated Processing under the GDPR, Inter-
national Data Privacy Law 9 (2019), S.78–94.
Finck, Michèle, Hidden Personal Insights and Entangled in the Algorithmic Model: The Limits of
the GDPR in the Personalisation Context, in: Kohl, Uta/Eisler, Jacob (Hrsg.), Data-Driven
Personalisation in Markets, Politics and Law, Cambridge (Großbritannien) 2021, S.95–107.
Fulda, Joseph S., Data Mining and Privacy, Alb. L.J.Sci. & Tech. 11 (2000), S.105–113.
Gal, Michal S./Elkin-Koren, Niva, Algorithmic Consumers, Harv. J. L. & Tech. 30 (2017),
S.309–353.
Galetzka, Christian, Web-Analytics/Retargeting und automatisierte Einzelfallentscheidung, in:
Taeger, Jürgen (Hrsg.), Rechtsfragen digitaler Transformationen – Gestaltung digitaler Ver-
änderungsprozesse durch Recht, Edewecht 2018, S.45–57.
Garbarino, Ellen/Maxwell, Sarah, Consumer Response to Norm-breaking Pricing Events in
E-Commerce, J.Bus. Res. 63 (2010), S.1066–1072.
Giesswein, Claudia, Die Verfassungsmäßigkeit des Scoringverfahrens der Schufa, Hamburg 2012.
Gleixner, Alexander, Personalisierte Preise im Onlinehandel und Europas „New Deal for Consu-
mers“, VuR 2020, S.417–421.
Literatur
312
Gola, Peter/Heckmann, Dirk (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutzgesetz–
Kommentar, 3.Au., München 2022.
Gola, Peter/Schomerus, Rudolf (Hrsg.), Bundesdatenschutzgesetz– Kommentar, 12.Au., Mün-
chen 2015.
Golland, Alexander, Datenschutzrechtliche Fragen personalisierter Preise– Herausforderungen
von Algorithmen im Schnittbereich von Ethik, Ökonomie und Datenschutz, CR 2020,
S.186–194.
Golland, Alexander, Das Telekommunikation-Telemedien-Datenschutzgesetz – Cookies und
PIMS als Herausforderungen für Website-Betreiber, NJW 2021, S.2238–2243.
Goodman, Bryce, Discrimination, Data Sanitisation and Auditing in the European Union’s General
Data Protection Regulation, Eur. Data Prot. L.Rev. 2 (2016), S.493–506.
Graef, Inge, Algorithms and Fairness: What Role for Competition Law in Targeting Price Discri-
mination towards End Consumers?, Colum. J.Eur. L. 24 (2018), S.541–559.
Greenstein, Stanley, Our Humanity exposed– Predictive Modelling in a legal Context, Stock-
holm 2017.
Hammersen, Jens/Eisenried, Ulrich, Ist „Redlining“ in Deutschland erlaubt? Plädoyer für eine
weite Auslegung des Auskunftsanspruchs, ZD 2014, S.342–345.
Hanloser, Stefan, Geräte-Identier im Spannungsfeld von DS-GVO, TMG und ePrivacy-VO
Mögliche Schranken bei zielgruppenspezischer Online-Werbung, ZD 2018, S.213–218.
Hanloser, Stefan, Anmerkung (zu den Schlussanträgen des Generalanwalts Maciej Szpunar vom
21.3.2019– Rechtssache C-673/17), ZD 2019, S.264–266.
Hanloser, Stefan, Schutz der Geräteintegrität durch §25 TTDSG– Neue Cookie-Regeln ab dem
1.12.2021, ZD 2021, S.399–403.
Hannak, Aniko/Soeller, Gary/Lazer, David/Mislove, Alan/Wilson, Christo, Measuring Price Discri-
mination and Steering on E-Commerce Web Sites 2014.
Harte-Bavendamm, Henning/Henning-Bodewig, Frauke (Hrsg.), Gesetz gegen den unlauteren
Wettbewerb (UWG)– Kommentar, 5.Au. 2021.
Härting, Niko, Proling: Vorschläge für eine intelligente Regulierung, CR 30 (2014), S.528–536.
Härting, Niko, Big Data und Proling nach der DSGVO, ITRB 2016, S.209–211.
Heberlein, Johanna, Datenschutz im Social Web– Materiell-rechtliche Aspekte der Verarbeitung
personenbezogener Daten durch Private in sozialen Netzwerken 2017.
Hecking, Claus, So iegen Sie billig, Die Zeit 21.07.2016.
Heese, Michael, Offene Preisdiskriminierung und zivilrechtliches Benachteiligungsverbot– Eine
Zwischenbilanz, NJW 2012, S.572–577.
Helbing, Thomas, Big Data und der datenschutzrechtliche Grundsatz der Zweckbindung, K&R
2015, S.145–150.
Hennemann, Moritz, Die personalisierte Vertragsanbahnung– Regulierungsbedarf für den digita-
len Massenverkehr, AcP 219 (2019), S.818–854.
Hildebrandt, Mireille, Smart Technologies and the End(s) of Law– Novel Entanglements of Law
and Technology, Cheltenham, UK/Northampton, MA, USA 2015.
Hoffmann-Riem, Wolfgang, Verhaltenssteuerung durch Algorithmen – Eine Herausforderung für
das Recht, AöR 142 (2017), S.1–42.
Hofmann, Franz, Der maßgeschneiderte Preis– Dynamische und individuelle Preise aus lauter-
keitsrechtlicher Sicht, WRP 62 (2016), S.1074–1081.
Hofmann, Franz/Freiling, Felix, Personalisierte Preise und das Datenschutzrecht– Anforderungen
an die datenschutzrechtliche Einwilligung, ZD 2020, S.331–335.
Hurley, Mikella/Adebayo, Julius, Credit Scoring in the Era of Big Data, Yale J.L. & Tech. 18 (2016),
S.148–216.
ibi research an der Universität Regensburg GmbH/trinnovative GmbH, Empirie zu personalisier-
ten Preisen im E-Commerce– Schlussbericht 2021.
Immenga, Ulrich/Mestmäcker, Ernst-Joachim (Hrsg.), Band 2. GWB– Kommentar zum Deutschen
Kartellrecht, 5.Au., München 2014.
Jandt, Silke, Spezischer Datenschutz für Telemedien und die DS-GVO – Zwischen Rechts-
setzung und Rechtsanwendung, ZD 2018, S.405–408.
Literatur
313
Jarass, Hans D., Charta der Grundrechte der Europäischen Union– Kommentar, 4.Au., Mün-
chen 2021.
Jentzsch, Nicola, Wohlfahrts- und Verteilungswirkungen personalisierter Preise und Produkte
Studie im Auftrag der Friedrich-Ebert-Stiftung (WISO Diskurs) 2017.
Johannsen, Germán Oscar, Conscious Parallelism and Price Discrimination in the Era of Algo-
rithms: A Case of collective Abuse of Dominance? 2017.
Karg, Moritz/Kühn, Ulrich, Datenschutzrechtlicher Rahmen für „Device Fingerprinting“: Das
klammheimliche Ende der Anonymität im Internet, ZD 2014, S.285–290.
Kerr, Ian, Prediction, Pre-Emption, Presumption– The Path of Law after the computational Turn,
in: Hildebrandt, Mireille/Vries, Katja de (Hrsg.), Privacy, Due Process and the Computational
Turn– The Philosophy of Law Meets the Philosophy of Technology, Oxford 2013, S.91–120.
Kerr, Ian/Earle, Jessica, Prediction, Preemption, Presumption– How Big Data threatens Big Pic-
ture Privacy, Stan. L.Rev. Online 66 (2013), S.65–72.
Kimes, Sheryl E., Perceived Fairness of Yield Management, The Cornell H.R.A. Quarterly
35 (1994), S.22–29.
King, Nancy J./Forder, Jay, Data Analytics and Consumer Proling: Finding appropriate Privacy
Principles for discovered Data, Computer Law & Security Review 32 (2016), S.696–714.
Klimas, Tadas/Vaičiukaitė, Jūratė, The Law of Recitals in European Community Legislation,
ILSA J.Int 15 (2008), S.61–93.
Klimke, Dominik, Telematik-Tarife in der Kfz-Versicherung, r+s 2015, S.217–225.
Köhler, Helmut/Bornkamm, Joachim/Feddersen, Jörn (Hrsg.), Gesetz gegen den unlauteren Wett-
bewerb– Kommentar, 41.Au. 2023.
Kosinski, Michal/Stillwell, David/Graepel, Thore, Private Traits and Attributes are predictable
from digital Records of human Behavior, PNAS 110 (2013), S.5802–5805.
Kühling, Jürgen/Buchner, Benedikt (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz– Kommentar, 3.Au., München 2020.
Kühling, Jürgen/Martini, Mario, Die Datenschutz-Grundverordnung: Revolution oder Evolution
im europäischen und deutschen Datenschutzrecht?, EuZW 2016, S.448–454.
La Diega, Guido Noto, Against the Dehumanisation of Decision-Making– Algorithmic Decisions
at the Crossroads of Intellectual Property, Data Protection, and Freedom of Information, jipitec
9 (2018), S.3–34.
Leibbrandt, Andreas, Behavioral constraints on price discrimination: Experimental evidence on
pricing and customer antagonism (Article 103303), European Economic Review 121 (2020),
S.1–16.
Leistner, Matthias/Antoine, Lucie/Sagstetter, Thomas, Big Data– Rahmenbedingungen im euro-
päischen Datenschutz- und Immaterialgüterrecht und übergreifende Reformperspektive 2021.
Linderkamp, Jörn, Der digitale Preis– eine automatisierte Einzelfallentscheidung? Personalisierte
Preisgestaltungen im Kontext des Datenschutzrechts, ZD 2020, S.506–511.
Locher, Lieselotte, Verschiedene Preise für gleiche Produkte? Personalisierte Preise und Scoring
aus ökonomischer Sicht, ZWeR 16 (2018), S.292–316.
Loewenheim, Ulrich/Meessen, Karl M./Riesenkampff, Alexander/Kersting, Christian/Meyer-
Lindemann, Hans Jürgen (Hrsg.), Kartellrecht– Kommentar zum Deutschen und Europäischen
Recht, 4.Au. 2020.
Maggiolino, Mariateresa, Personalized Prices in European Competition Law, Bocconi Legal Stu-
dies Research Paper No. 2984840 2017, S.1–24.
Malc, Domen/Mumel, Damijan/Pisnik, Aleksandra, Exploring Price Fairness Perceptions and their
Inuence on Consumer Behavior, J.Bus. Res. 69 (2016), S.3693–3697.
Malgieri, Gianclaudio/Comandé, Giovanni, Why a Right to Legibility of automated Decision-
Making exists in the General Data Protection Regulation, International Data Privacy Law
7 (2017), S.243–265.
Mantz, Reto/Spittka, Jan, Anmerkung (zu EuGH, Urt. v. 19.10.2016– C-582/14 (Breyer)), NJW
2016, S.3582–3583.
Marron, Donncha, ‘Lending by Numbers’: Credit Scoring and the Constitution of Risk within
American Consumer Credit, Economy and Society 36 (2007), S.103–133.
Literatur
314
Martini, Mario, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelli-
genz 2019.
McAfee, R.Preston/Mialon, Hugo M./Mialon, Sue H., Does large Price Discrimination imply great
Market Power?, Economics Letters 92 (2006), S.360–367.
Mehra, Salil K., Antitrust and the Robo-Seller: Competition in the Time of Algorithms, Minn.
L.Rev. 100 (2016), S.1323–1375.
Mendoza, Isak/Bygrave, Lee A., The Right not to be Subject to automated Decisions based on
Proling, in: Synodinou, Tatiana-Eleni/Jougleux, Philippe u.a. (Hrsg.), EU Internet Law– Re-
gulation and Enforcement, Cham 2017, S.77–98.
Metzger, Axel, Dienst gegen Daten: Ein synallagmatischer Vertrag, AcP 216 (2016), S.817–865.
Mikians, Jakub/Gyarmati, László/Erramilli, Vijay/Laoutaris, Nikolaos, Detecting Price and Search
Discrimination on the Internet 2012.
Mikians, Jakub/Gyarmati, László/Erramilli, Vijay/Laoutaris, Nikolaos, Crowd-assisted Search for
Price Discrimination in E-Commerce: First Results 2013.
Miller, Akiva A., What do we worry about when we worry about Price Discrimination?– The Law
and Ethics of using personal Information for Pricing, J.Tech. L. & Pol 19 (2014), S.41–104.
Möller, Jan/Florax, Björn-Christoph, Kreditwirtschaftliche Scoring-Verfahren – Verbot auto-
matisierter Einzelentscheidungen gem. §6a BDSG, MMR 2002, S.806–810.
Monopolkommission, Wettbewerb 2018– XXII.Hauptgutachten der Monopolkommission gemäß
§44 Abs.1 Satz 1 GWB 2018.
Monreal, Manfred, Weiterverarbeitung nach einer Zweckänderung in der DS-GVO– Chancen
nicht nur für das europäische Verständnis des Zweckbindungsgrundsatzes, ZD 2016,
S.507–512.
Moos, Flemming/Rothkegel, Tobias, Anmerkung (zu EuGH, Urt. v. 19.10.2016 – C-582/14
(Breyer)), MMR 2016, S.845–847.
Motta, Massimo, Competition Policy– Theory and Practice 2004.
Münchener Kommentar zum Bürgerlichen Gesetzbuch, Band 1: Allgemeiner Teil– §§1–240, Allg-
PersönlR, ProstG, AGG, 9.Au. 2021.
Münchener Kommentar zum Bürgerlichen Gesetzbuch, Band 2: Schuldrecht Allgemeiner TeilI–
§§241–310, 9.Au. 2022.
Münchener Kommentar zum Lauterkeitsrecht, Band 1: Grundlagen und unionsrechtlicher Rahmen
des Lauterkeitsrechts, §§1–7 UWG, 3.Au. 2020.
Muraca, Chiara/Maggiolino, Mariateresa, Personalised Prices under EU Antitrust Rules, ECLR
40 (2019), S.483–489.
Nahra, Kirk J., The Past, Present, and Future of U.S.Privacy Law, Seton Hall L.Rev. 51 (2021),
S.1549–1564.
National Research Council, Protecting individual Privacy in the Struggle against Terrorists– A
Framework for Program Assessment, Washington 2008.
Obergfell, Eva Inés, Personalisierte Preise im Lebensmittelhandel– Vertragsfreiheit oder Kunden-
betrug?, ZLR 2017, S.290–301.
Ofce of Fair Trading, Personalised Pricing– Increasing Transparency to improve Trust 2013.
Ohly, Ansgar/Sosnitza, Olaf (Hrsg.), Gesetz gegen den unlauteren Wettbewerb – Kommentar,
8.Au. 2023.
Ohm, Paul, Broken Promises of Privacy: Responding to the surprising Failure of Anonymization,
UCLA L.R. 57 (2010), S.1701–1777.
Organisation for Economic Co-operation and Development (OECD), Price Discrimination
Background Note by the Secretariat (DAF/COMP(2016)15) 2016.
Organisation for Economic Co-operation and Development (OECD), Algorithms and Collusion–
Competition Policy in the Digital Age 2017.
Organisation for Economic Co-operation and Development (OECD), Personalised Pricing in the
Digital Era– Background Note by the Secretariat (DAF/COMP(2018)13) 2018.
Paal, Boris, Missbrauchstatbestand und Algorithmic Pricing– Dynamische und individualisierte
Preise im virtuellen Wettbewerb, GRUR 2019, S.43–53.
Paal, Boris, Marktmacht im Daten(schutz)recht, ZWeR 2020, S.215–245.
Literatur
315
Paal, Boris P./Pauly, Daniel A. (Hrsg.), Datenschutz-Grundverordnung/Bundesdatenschutz-
gesetz– Kommentar, 3.Au., München 2021.
Peppet, Scott R., Regulating the Internet of Things: First Steps toward managing Discrimination,
Privacy, Security, and Consent, Tex. L.Rev. 93 (2014), S.85–178.
Pigou, Arthur C., The Economics of Welfare, 3.Au., London (Großbritannien) 1929.
Poort, Joost/Zuiderveen Borgesius, Frederik, Personalised Pricing: The Demise of the Fixed
Price?, in: Kohl, Uta/Eisler, Jacob (Hrsg.), Data-Driven Personalisation in Markets, Politics
and Law, Cambridge (Großbritannien) 2021, S.174–189.
Räuchle, Christine, Online-Proling– Die Erhebung und Nutzung personenbezogener Prole im
Internet unter datenschutzrechtlichen Gesichtspunkten des internationalen, europäischen und
deutschen Rechts, Tübingen 2006.
Rauer, Nils/Bibi, Alexander, Einwilligung in die Setzung von Cookies– Anmerkung zu BGH,
Urteil vom 28.5.2020– I ZR 7/16 – Cookie-Einwilligung II (ZUM 2020, 878), ZUM 2020,
S.887–890.
Roßnagel, Alexander, Big Data – Small Privacy? Konzeptionelle Herausforderungen für das
Datenschutzrecht, ZD 2013, S.562–567.
Rubinstein, Ira S./Lee, Ronald D./Schwartz, Paul M., Data Mining and Internet Proling: Emer-
ging regulatory and technological Approaches, U.Chi. L.Rev. 75 (2008), S.261–285.
Rühlicke, Lars, Die Geheimhaltung von Scoring-Algorithmen, in: Maute, Lena/Mackenrodt,
Mark-Oliver (Hrsg.), Recht als Infrastruktur für Innovation – Tagungsband GRUR Junge
Wissenschaft (München 2018), 2019, S.9–39.
Schafand, Hans-Jürgen/Wiltfang, Noeme (Hrsg.), Datenschutz-Grundverordnung– Kommentar,
Berlin EL 2/2023.
Scherer, Inge, Abwehransprüche von Verbrauchern und sonstigen Marktbeteiligten gegen un-
zulässige geschäftliche Handlungen, GRUR 2019, S.361–367.
Schermer, Bart W., The Limits of Privacy in automated Proling and Data Mining, Computer Law
& Security Review 27 (2011), S.45–52.
Schleipfer, Stefan, Anmerkung (zu BGH, Beschl. v. 28.10.2014– VI ZR 135/13 (Vorlagebeschluss
Breyer)), CR 2015, S.113–114.
Schleipfer, Stefan, Datenschutzkonformes Webtracking nach Wegfall des TMG– Was bringen die
DS-GVO und die ePrivacy-Verordnung?, ZD 2017, S.460–466.
Schleusener, Michael, Personalisierte Preise im Handel – Chancen und Herausforderungen, in:
Stüber, Eva/Hudetz, Kai (Hrsg.), Praxis der Personalisierung im Handel– Mit zeitgemäßen
E-Commerce-Konzepten Umsatz und Kundenwert steigern, Wiesbaden 2017, S.71–89.
Schleusener, Michael/Hosell, Sarah, Expertise zum Thema „Personalisierte Preisdifferenzierung
im Online-Handel“ 2016.
Schmidt, Bernd/Babilon, Tobias, Anforderungen an den Einsatz von Cookies, Browser-
Fingerprinting und ähnlichen Techniken im deutschen Recht, K&R 2016, S.86–91.
Schoeld, Alex, Personalized Pricing in the Digital Era, Competition Law Journal 18 (2019),
S.35–44.
Schwartmann, Rolf/Benedikt, Kristin/Reif, Yvette, Entwurf zum TTDSG: Für einen zeitgemäßen
Online-Datenschutz?– Ein Zwischenruf, MMR 2021, S.99–102.
Schwartz, Paul M., The EU-U.S.Privacy Collision: A Turn to Institutions and Procedures, Harv.
L.Rev. 126 (2013), S.1966–2009.
Schwartz, Paul M./Solove, Daniel J., The PII Problem: Privacy and a new Concept of personally
identiable Information, N.Y.U.L. Rev. 86 (2011), S.1814–1894.
Selbst, Andrew D./Powles, Julia, Meaningful Information and the Right to Explanation, Inter-
national Data Privacy Law 7 (2017), S.233–242.
Shiller, Benjamin Reed, First-Degree Price Discrimination using Big Data 2014.
Shy, Oz/Stenbacka, Rune, Customer Privacy and Competition, J.Econ. Manag. Strategy 25 (2016),
S.539–562.
Simitis, Spiros, Anmerkung (zu BGH, Urt. v. 19.9.1985– III ZR 213/83), JZ 43 (1986), S.188–191.
Simitis, Spiros (Hrsg.), Bundesdatenschutzgesetz– Kommentar, 8.Au., Baden-Baden 2014.
Literatur
316
Simitis, Spiros/Hornung, Gerrit/Spiecker gen. Döhmann, Indra (Hrsg.), Datenschutzrecht– Kom-
mentar 2019.
Simon, Jürgen, Schufa-Verfahren und neue Schufa-Klausel – Eine rechtliche und ökonomische
Analyse, CR 1988, S.637–646.
Sosnitza, Olaf, Die Preisangabenverordnung nach der Reform von 2021, GRUR 2022, S.794–800.
Spies, Axel, USA: Neues kalifornisches Datenschutzgesetz (CPRA) vom Wähler gebilligt (07398),
ZD-Aktuell 2020.
Spies, Axel, USA: Neues Datenschutzgesetz in Colorado (05257), ZD-Aktuell 2021.
Spies, Axel, USA: Datenschutz in Kalifornien – neue Implementierungsregeln (01050), ZD-
Aktuell 2023.
Spies, Axel, Zahlreiche neue Datenschutzgesetze in den US-Bundesstaaten – Schwierige
Datenschutz- Compliance in den USA, MMR 2023, S.69–73.
Spindler, Gerald/Schuster, Fabian (Hrsg.), Recht der elektronischen Medien – Kommentar,
4.Au. 2019.
Sprague, Robert, Welcome to the Machine: Privacy and Workplace Implications of predictive Ana-
lytics, Rich. J.L. & Tech. 21 (2014), S.1–46.
Steppe, Richard, Online Price Discrimination and personal Data: A General Data Protection Regu-
lation Perspective, Computer Law & Security Review 33 (2017), S.768–785.
Stigler, George J., The Theory of Price, 4. Au., New York, NY (USA)/London (Groß-
britannien) 1987.
Stole, Lars A., Price Discrimination and Competition, in: Armstrong, Mark/Porter, Robert
H. (Hrsg.), Handbook of Industrial Organization– Volume 3, 2007, S.2221–2299.
Sweeney, Latanya, Simple Demographics often identify People uniquely, Pittsburgh 2000.
Taeger, Jürgen, Scoring in Deutschland nach der EU-Datenschutzgrundverordnung, ZRP 2016,
S.72–75.
Taeger, Jürgen, Verbot des Proling nach Art.22 DS-GVO und die Regulierung des Scoring ab
Mai 2018, RDV 2017, S.3–9.
Taeger, Jürgen/Gabel, Detlev (Hrsg.), DSGVO– BDSG– TTDSG– Kommentar, 4.Au., Frank-
furt a.M. 2022.
Tanner, Adam, How Ads follow you from Phone to Desktop to Tablet, MIT Technology Review
01.07.2015.
Temme, Merle, Algorithms and Transparency in View of the New General Data Protection Regula-
tion, Eur. Data Prot. L.Rev. 3 (2017), S.473–485.
Tene, Omer/Polonetsky, Jules, Big Data for All: Privacy and User Control in the Age of Analytics,
Nw. J.Tech. & Intell. Prop. 11 (2013), S.239–273.
The White House, Big Data and Differential Pricing 2015.
Townley, Christopher/Morrison, Eric/Yeung, Karen, Big Data and Personalized Price Discrimina-
tion in EU Competition Law, YEL 36 (2017), S.683–748.
Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein (ULD), Scoringsysteme zur
Beurteilung der Kreditwürdigkeit– Chancen und Risiken für Verbraucher, Kiel 2005.
Vaidyanathan, Rajiv/Aggarwal, Praveen, Who is the fairest of them all? An attributional Approach
to Price Fairness Perceptions, J.Bus. Res. 56 (2003), S.453–463.
Valentino-DeVries, Jennifer/Singer-Vine, Jeremy/Soltani, Ashkan, Websites vary Prices, Deals
based on Users’ Information, The Wall Street Journal 24.12.2012.
Varian, Hal R., Price Discrimination, in: Schmalensee, Richard/Willig, Robert (Hrsg.), Handbook
of Industrial Organization– Volume 1, 1989, S.597–654.
Varian, Hal R., Intermediate Microeconomics– A Modern Approach, 9.Au. 2014.
Veale, Michael/Edwards, Lilian, Clarity, Surprises, and further Questions in the Article 29 Wor-
king Party Draft Guidance on automated Decision-Making and Proling, Computer Law &
Security Review 34 (2018), S.398–404.
Verbraucherzentrale Brandenburg e. V., Dynamische Preisdifferenzierung im Deutschen Online-
Handel– Eine Untersuchung der Verbraucherzentralen (Marktwächter Digitale Welt) 2018.
von Lewinski, Kai/Pohl, Dirk, Auskunfteien nach der europäischen Datenschutzreform– Brüche
und Kontinuitäten der Rechtslage, ZD 2018, S.17–23.
Literatur
317
Wachter, Sandra, Afnity Proling and Discrimination by Association in Online Behavioral Ad-
vertising, Berkeley Tech. L.J. 35 (2020), S.367–430.
Wachter, Sandra/Mittelstadt, Brent/Floridi, Luciano, Why a Right to Explanation of automated
Decision-Making does not exist in the General Data Protection Regulation, International Data
Privacy Law 7 (2017), S.76–99.
Wagner, Gerhard/Eidenmüller, Horst, In der Falle der Algorithmen? Abschöpfen von Konsu-
mentenrente, Ausnutzen von Verhaltensanomalien und Manipulation von Präferenzen: Die Re-
gulierung der dunklen Seite personalisierter Transaktionen, ZfPW 2019, S.220–246.
Waldfogel, Joel, First Degree Price Discrimination goes to School, The Journal of Industrial Eco-
nomics 63 (2015), S.569–597.
Weber, Alexa Lynn, Who Really Controls the Privacy Conversation? The Need for a Fundamental
Right to Privacy in the United States, Corp. & Bus. L.J. 2 (2021), S.188–202.
Weichert, Thilo, Big Data und Datenschutz– Chancen und Risiken einer neuen Form der Daten-
analyse, ZD 2013, S.251–259.
Weichert, Thilo, Scoring in Zeiten von Big Data, ZRP 2014, S.168–171.
Weichert, Thilo, „Sensitive Daten“ revisited, DuD 2017, S.538–543.
Wendehorst, Christiane/Graf von Westphalen, Friedrich, Das Verhältnis zwischen Datenschutz-
Grundverordnung und AGB-Recht, NJW 2016, S.3745–3750.
Wiedemann, Klaus, The ECJ’s Decision in “Planet49” (Case C-673/17): A Cookie Monster or
Much Ado About Nothing?, IIC 51 (2020), S.543–553.
Wiedemann, Klaus, Zum Zusammenspiel von Datenschutzrecht und Kartellrecht in der Digital-
ökonomie– Zugleich eine normative und rechtspolitische Analyse der aktuellen kartellrecht-
lichen Fallpraxis, CR 2021, S.425–432.
Wiedemann, Klaus, Proling and (automated) decision-making under the GDPR: A two-step ap-
proach (Article 105662), Computer Law & Security Review 45 (2022), S.1–17.
Wojtal, Karolina, Shopping ohne Grenzen?– Diskriminierung von Verbrauchern 2015.
Wolff, Heinrich Amadeus/Brink, Stefan (Hrsg.), Beck’scher Online-Kommentar Datenschutzrecht,
München 43. Edition (Stand: 1.2.2023).
Xia, Lan/Monroe, Kent B., Is a good Deal always fair? Examining the Concepts of Transaction
Value and Price Fairness, Journal of Economic Psychology 31 (2010), S.884–894.
Xia, Lan/Monroe, Kent B./Cox, Jennifer L., The Price is unfair! A conceptual Framework of Price
Fairness Perceptions, Journal of Marketing 68 (2004), S.1–15.
Zander-Hayat, Helga/Reisch, Lucia A./Steffen, Christine, Personalisierte Preise – Eine ver-
braucherpolitische Einordnung, VuR 2016, S.403–409.
Zarsky, Tal Z., “Mine your own Business!”: Making the Case for the Implications of the Data Mi-
ning of personal Information in the Forum of public Opinion, Yale J.L. & Tech. 5 (2002–2003),
S.1–56.
Zarsky, Tal Z., Transparent Predictions, U.Ill. L.Rev. 2013, S.1503–1569.
Zhong, Erheng/Tan, Ben/Mo, Kaixiang/Yang, Qiang, User Demographics Prediction based on mo-
bile Data, Pervasive and Mobile Computing 9 (2013), S.823–837.
Zuiderveen Borgesius, Frederik, Price Discrimination, Algorithmic Decision-Making, and Euro-
pean Non-Discrimination Law, Eur. Bus. Law Rev. 31 (2020), S.401–422.
Zuiderveen Borgesius, Frederik/Poort, Joost, Online Price Discrimination and EU Data Privacy
Law, J Consum Policy 40 (2017), S.347–366.
Zuiderveen Borgesius, Frederik J., Improving Privacy Protection in the Area of Behavioural Targe-
ting 2015.
Zurth, Patrick, Personalisierte Preise, AcP 221 (2021), S. 514–554.
Literatur
Article
The enormous growth and development of technology, especially since the beginning of the 21st century, has led to an increase in the amount of information we are surrounded by. Thanks to this fact, the basis for action and accelerated development of programs based on artificial intelligence concepts was created. The mentioned programs base their work on the automated processing, collection and systematization of data without the participation of human activity in these processes, that is, without the use of human intelligence. Due to the speed and efficiency of such a way of manipulating a large amount of data, the concept of artificial intelligence introduces numerous changes and totally changes the way numerous social areas function. The subject of the author's interest will be pointing out the very importance and way of functioning of the concept of artificial intelligence, pointing out the advantages and disadvantages of that concept, and all through looking at its impact on economic development.
Article
Full-text available
In “Planet49”, the ECJ ruled that a pre-selected checkbox on a website (which the user must actively deselect to refuse consent) does not constitute valid consent under data protection law. In this context, the Court also provided guidance on the extent of the existing informational duties. It furthermore found that it does not make a difference with respect to Art. 5(3) ePrivacy Directive whether or not information that is stored or accessed on the terminal device of a user constitutes personal data. The majority of these findings is not surprising and in accordance with the values underlying today’s data protection and privacy regulations. Unfortunately, the ECJ failed to address the role Art. 7(2) GDPR plays for online declarations referring to both consent and other matters. It thus missed a valuable opportunity to provide further clarity on how consent can be given in a way that is compliant with data protection regulations and user-friendly at the same time. Unfortunately, the Court was not asked to show a way out of the dogmatic Gordian knot arising from the German Telemedia Act, parts of which are still in clear contradiction to Art. 5(3) ePrivacy Directive.
Article
Our society can benefit immensely from algorithmic decision-making and similar types of artificial intelligence. But algorithmic decision-making can also have discriminatory effects. This paper examines that problem, using online price differentiation as an example of algorithmic decision-making. With online price differentiation, a company charges different people different prices for identical products, based on information the company has about those people. The main question in this paper is: to what extent can non-discrimination law protect people against online price differentiation? The paper shows that online price differentiation and algorithmic decision-making could lead to indirect discrimination, for instance harming people with a certain ethnicity. Indirect discrimination occurs when a practice is neutral at first glance, but ends up discriminating against people with a protected characteristic, such as ethnicity. In principle, non-discrimination law prohibits indirect discrimination. The paper also shows, however, that non-discrimination law has flaws when applied to algorithmic decision-making. For instance, algorithmic discrimination can remain hidden: people may not realise that they are being discriminated against. And many types of unfair – some might say discriminatory – algorithmic decisions are outside the scope of current non-discrimination law. price discrimination, price differentiation, personalised pricing, dynamic pricing, algorithmic decision-making, big data, artificial intelligence, fairness, law, equality, non-discrimination law, human rights, fundamental rights.
Article
This paper examines profiling and decision-making under the GDPR and analyses how these two processes are interconnected. The GDPR's definition of profiling is analysed and put in relation to both automated and human decision-making. This contribution works with a two-step approach. It can be derived from the structure and wording of the GDPR and provides for an enhanced level of legal certainty. Within this approach, profiling is considered to be step 1 and decision-making to be step 2. The two steps are treated as distinct, yet logically interconnected. This helps understand how profiling and decision-making are conducted. It makes it possible to identify the legal implications of these two steps and to allocate who is legally responsible, no matter how many parties are involved. The approach might be particularly helpful in the context of joint controllership, as it makes it possible to delineate whether joint controllership is given in the first place and to allocate the respective responsibilities of the parties concerned. Profiling (step 1) leads to implications of primary relevance for the data subjects’ right to the protection of personal data. Decision-making (step 2) regularly does not lead to such data protection implications but is primarily relevant from a personal autonomy and (economic) freedom perspective. A notable exception is the rare scenario of solely automated decision-making falling under Art. 22(1) GDPR. The two-step approach is eventually applied to a use case that concerns profiling and automated decision-making in the context of credit scoring conducted by a social network.
Chapter
The most fascinating and profitable subject of predictive algorithms is the human actor. Analysing big data through learning algorithms to predict and pre-empt individual decisions gives a powerful tool to corporations, political parties and the state. Algorithmic analysis of digital footprints, as an omnipresent form of surveillance, has already been used in diverse contexts: behavioural advertising, personalised pricing, political micro-targeting, precision medicine, and predictive policing and prison sentencing. This volume brings together experts to offer philosophical, sociological, and legal perspectives on these personalised data practices. It explores common themes such as choice, personal autonomy, equality, privacy, and corporate and governmental efficiency against the normative frameworks of the market, democracy and the rule of law. By offering these insights, this collection on data-driven personalisation seeks to stimulate an interdisciplinary debate on one of the most pervasive, transformative, and insidious socio-technical developments of our time.
Article
The purpose of this article is to analyse the rules of the General Data Protection Regulation (GDPR) and the Directive on Data Protection in Criminal Matters on automated decision-making and to explore how to ensure transparency of such decisions, in particular those taken with the help of algorithms. Both legal acts impose limitations on automated individual decision-making, including profiling. While these limitations of automated decisions might come across as a forceful fortress strongly protecting individuals and potentially even hampering the future development of Artificial Intelligence in decision-making, the relevant provisions nevertheless contain numerous exceptions allowing for such decisions. While the Directive on Data Protection in Criminal Matters worryingly does not seem to give the data subject the possibility to familiarize herself with the reasons for such a decision, the GDPR obliges the controller to provide the data subject with ‘meaningful information about the logic involved’ (Articles 13(2)(f), 14(2)(g) and 15(1)(h)), thus raising the much-debated question whether the data subject should be granted a ‘right to explanation’ of the automated decision. This article seeks to go beyond the semantic question of whether this right should be designated as the ‘right to explanation’ and argues that the GDPR obliges the controller to inform the data subject of the reasons why an automated decision was taken. While such a right would in principle fit well within the broader framework of the GDPR’s quest for a high level of transparency, it also raises several queries: What exactly needs to be revealed to the data subject? How can an algorithm-based decision be explained? The article aims to explore these questions and to identify challenges for further research regarding explainability of automated decisions.
Article
Zusammenfassung Das Verhältnis von Datenschutz- und Kartellrecht ist – auch und gerade – in Bezug auf marktmächtige Unternehmen der Digitalökonomie („Internetgiganten“) mit guten Gründen ein hervorgehobener Befassungsgegenstand von Gesetzgebung und Rechtsprechung, Praxis und Forschung. Vornehmlich standen dabei bislang die Bedeutung und der Einfluss von datenschutzrechtlichen Regelungen für die Anwendung des Kartellrechts im Mittelpunkt. Der vorliegende Beitrag nimmt die umgekehrte Perspektive ein und untersucht, ob und inwieweit die kartellrechtlich grundierte Konzeption der unternehmensbezogenen Marktmacht (auch) im Datenschutzrecht Wirkungen entfalten kann. Zu diesem Zweck werden auch und gerade die für eine rechtmäßige Verarbeitung von personenbezogenen Daten maßgeblichen Erlaubnistatbestände aus Art. 6 der Datenschutz-Grundverordnung in den Blick zu nehmen sein.
Book
Dieses Buch liefert eine rechtswissenschaftliche Analyse der Chancen und Gefahren algorithmenbasierter Verfahren. Algorithmen, die im Maschinenraum moderner Softwareanwendungen werkeln, sind zu zentralen Steuerungsinstanzen der digitalen Gesellschaft avanciert. Immer nachhaltiger beeinflussen sie unser Leben. Ihre Funktionsweise gleicht aber teilweise einer Blackbox. Die in ihr schlummernden Risiken zu bändigen, fordert die Rechtsordnung heraus. Das Buch beleuchtet die gesellschaftlichen Gefahren einer zunehmenden gesellschaftlichen Steuerung durch Algorithmen und entwickelt erste Regulierungsideen, mit deren Hilfe sich die Wertschöpfungspotenziale automatisierter digitaler Prozesse mit den Grundwerten der Rechtsordnung versöhnen lassen.