BookPDF Available

Anwendung von Neuronalen Netzen zur Evaluierung des Aktienindex auf Basis von Aktienverläufen und Zinsniveau

Authors:

Abstract

This study explores the use of neural networks to evaluate stock indices based on stock price movements and interest rate levels. It aims to understand the relationship between these factors and infer the implications for stock performance. This research is motivated by the prevailing assumption of a link between interest rates, inflation and their impact on stock prices and indices. The use of artificial intelligence (AI) in financial markets is becoming increasingly common for risk mitigation and early risk detection. However, this particular investigation using AI techniques is novel. The relationship between stock prices, index values, and interest rates is non-linear, necessitating the use of neural networks (NNs) for analysis. The study uses different NN models, mainly feedforward and recurrent NNs, to validate the predictive ability of the data. The research provides a comprehensive motivation for the problem statement in the context of financial markets and the application of AI methods in evaluating the relationship between interest rates and stocks and indices. The basic concepts of NNs are well summarized, despite extensive existing research. The study also includes an economic perspective on AI. Financial markets, with a focus on stocks, indices, and interest rates, are thoroughly examined. A special chapter deals with the datasets used for NN training, discussing their plausibility and preparation for applicability. The implemented NN models are presented along with identified limitations and discussions. These limitations are mitigated using various AI techniques, such as hyperparameter optimization. The study of the relationship between interest rates and stock or index values using NNs reveals ambiguous interpretations for different labeling approaches, although they can inform investment decisions. The study bridges two different disciplines: financial markets and artificial intelligence. It connects these fields through the hypothesis investigated. The critical and reflective discussions of the applied methods and results show an intensive discourse on the topic.
Arbeitspapiere der FOM
Nr.
89
Anwendung von Neuronalen Netzen
zur Evaluierung des Aktienindex
auf Basis von Aktienverläufen und Zinsniveau
~
Alexander Maximilian Röser
Alexander Maximilian Röser
Anwendung von Neuronalen Netzen zur Evaluierung des Aktienindex auf Basis von Aktienverläu-
fen und Zinsniveau
Arbeitspapiere der FOM, Nr. 89
Essen 2023
ISSN 1865-5610 (Print) – ISSN 2569-5800 (E-Book)
ISBN 978-3-89275-362-9 (Print) – ISBN 978-3-89275-363-6 (eBook)
Dieses Werk wird herausgegeben von der FOM Hochschule für Oekonomie & Management gGmbH
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliographie;
detaillierte bibliographische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© 2023 by
MA Akademie Verlags-
und Druck-Gesellschaft mbH
Leimkugelstraße 6, 45141 Essen
info@mav-verlag.de
Das Werk einschließlich seiner
Teile ist urheberrechtlich geschützt.
Jede Verwertung außerhalb der
engen Grenzen des Urhebergeset-
zes ist ohne Zustimmung der MA
Akademie Verlags- und Druck-
Gesellschaft mbH unzulässig und
strafbar. Das gilt insbesondere für
Vervielfältigungen, Übersetzungen,
Mikroverfilmungen und die Ein-
speicherung und Verarbeitung in
elektronischen Systemen.
Die Wiedergabe von Gebrauchs-
namen, Handelsnamen, Warenbe-
zeichnungen usw. in diesem Werk
berechtigt auch ohne besondere
Kennzeichnung nicht zu der Annah-
me, dass solche Namen im Sinne
der Warenzeichen- und Marken-
schutz-Gesetzgebung als frei zu
betrachten wären und daher von
jedermann benutzt werden dürfen.
Oft handelt es sich um gesetzlich
geschützte eingetragene Waren-
zeichen, auch wenn sie nicht als
solche gekennzeichnet sind.
Alexander Maximilian Röser
Anwendung von Neuronalen Netzen
zur Evaluierung des Aktienindex
auf Basis von Aktienverläufen und Zinsniveau
Arbeitspapiere der FOM Hochschule für Oekonomie & Management
Nr. 89, Essen 2023
ISSN 1865-5610 (Print) ISSN 2569-5800 (E-Book)
ISBN 978-3-89275-362-9 (Print) ISBN 978-3-89275-363-6 (eBook)
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
III
Vorwort
In dieser Arbeit wird die Anwendung von Neuronalen Netzen zur Evaluation von
Aktienindizes auf Basis der Aktienkursentwicklung und des Zinsniveaus unter-
sucht. Ziel ist es, den Zusammenhang zwischen diesen Faktoren zu verstehen
und daraus Rückschlüsse auf die Aktienperformance zu ziehen. Motiviert ist die
Untersuchung durch die bestehende Annahme, dass ein Zusammenhang zwi-
schen Zinsen und Inflation besteht, und somit das vorherrschende Zinsniveau
Einfluss auf den Kursverlauf von Aktien und auf die Indizes nimmt. Um den am
Kapitalmarkt bestehenden Risiken entgegenzuwirken bzw. diese rechtzeitig zu
erkennen, wird heutzutage bereits Künstliche Intelligenz (KI) eingesetzt. Die Un-
tersuchung der vorliegenden Fragestellung ist auf der Basis von KI jedoch neu.
Der Zusammenhang von Aktienkursen, Indexwerten und Zinsniveau hat keinen
linearen Charakter. Somit werden zur Analyse des Zusammenhangs Neuronale
Netze (NN) verwendet. Dieses Feld ist in der KI gut erforscht und es werden
verschiedene Modelle von NN eingesetzt (schwerpunktmäßig feedforward und
rekurrente NN), um die Prädiktionsfähigkeit der vorliegenden Daten zu validieren.
Die Problemstellung wird ausführlich in Bezug auf die Finanzmärkte motiviert.
Ebenso die Anwendung von Methoden der KI zur Evaluierung des Zusammen-
hangs von Zinsniveau und Aktien und Indizes, und die Entscheidung verschie-
dene Modelle von NN zu nutzen. Die Grundlagen von NN werden trotz der inzwi-
schen vorliegenden vielfältigen Forschungsergebnisse sehr gut zusammenge-
fasst dargestellt. Eine wirtschaftliche Betrachtung von KI rundet die Grundlagen
ab. Finanzmärkte mit Fokus auf Aktien, Indizes, Zinsen und Zinsniveau werden
sehr sorgfältig dargestellt. Ein eigenes Kapitel bemüht sich um die Datensätze
zum Einsatz für das Training der NN und deren Plausibilität. Diese werden für die
Anwendbarkeit kritisch diskutiert und für das Training vorbereitet. Anschließend
werden die durchgeführten Implementationen der NN dargestellt und Limitierun-
gen erkannt und diskutiert. Die Limitierungen werden durch verschiedene Ver-
fahren der KI mitigiert, wie z. B. durch die Optimierung von Hyperparametern.
Die Untersuchung des Zusammenhangs zwischen Zinsniveau und Aktien- bzw.
Indexwerten zeigen mit NN nicht eindeutige Interpretationen für die unterschied-
lichen angewendeten Labelings, obwohl hieraus Indikatoren für Investitionsent-
scheidungen abgeleitet werden können.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
IV
Die Arbeit behandelt zwei disjunkte Disziplinen, Finanzmärkte und die KI. Die
untersuchte These verbindet beide Disziplinen. Die kritischen und reflektierenden
Diskussionen der angewendeten Methoden und der Ergebnisse zeigen einen in-
tensiven Diskurs mit der Fragestellung.
Bonn, im September 2023
Prof. Dr. habil. Roman A. Englert
Professor für Künstliche Intelligenz, Universität Siegen
FOM Hochschule, Dortmund
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
V
Inhalt
Vorwort ................................................................................................................ III
Über den Autor .................................................................................................. VII
Abkürzungsverzeichnis ..................................................................................... VIII
Formelverzeichnis .............................................................................................. IX
Abbildungsverzeichnis ......................................................................................... X
Tabellenverzeichnis ........................................................................................... XII
1 Einleitung ......................................................................................................... 1
1.1 Problemstellung ....................................................................................... 1
1.2 Zielsetzung und Struktur der Arbeit ......................................................... 5
1.3 Methodisches Vorgehen .......................................................................... 7
2 Technische Grundlagen .................................................................................. 8
2.1 Charakterisierung von Künstlicher Intelligenz ......................................... 8
2.1.1 Der Turing-Test-Ansatz menschlich handeln .......................... 9
2.1.2 Ansatz der kognitiven Modellierung menschlich denken ......... 9
2.1.3 Ansatz der Gesetze des Denkens rational denken ............... 10
2.1.4 Ansatz der rationalen Agenten rational handeln .................... 11
2.1.5 Nützliche Maschinen ................................................................. 11
2.2 Mächtigkeit von Künstlicher Intelligenz .................................................. 12
2.3 Geschichte der Künstlichen Intelligenz und der Neuronalen Netze ...... 14
2.4 Wirtschaftliche Betrachtung der Künstlichen Intelligenz ........................ 22
3 Wirtschaftliche Grundlagen ........................................................................... 24
3.1 Aktien als Unterkategorie der Teilhabereffekte ..................................... 24
3.2 Begriffsdefinition von Index ................................................................... 30
3.3 Zinsen und Zinsniveau........................................................................... 35
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
VI
4 Praxisbezug .................................................................................................. 42
4.1 Annahmen des Praxisbezugs ............................................................... 42
4.2 Ablauf des Praxisbezugs ...................................................................... 43
4.3 Datenherkunft und Datenvorverarbeitung............................................. 44
4.4 Korrelation und Kausalität ..................................................................... 50
4.5 Erste Vorüberlegungen ......................................................................... 51
5 Implementierung der Neuronalen Netze ...................................................... 53
5.1 Limitationen stetiger Vorhersagen ........................................................ 53
5.2 Notwendigkeit von Data-Labeling zur diskreten Modellierung ............. 57
5.3 Entwicklung unterschiedlicher Neuronaler Netze ................................. 58
5.4 Hyperparameteroptimierung ................................................................. 62
6 Ergebnisvergleich und Evaluation ................................................................ 68
6.1 Analyse der Ergebnisse ........................................................................ 68
6.2 Interpretation der Ergebnisse ............................................................... 76
6.3 Entscheidungsbäume als mögliche Alternative .................................... 80
7 Fazit .............................................................................................................. 83
7.1 Zusammenfassung der Ergebnisse ...................................................... 83
7.2 Zielerreichung und kritische Würdigung ............................................... 85
7.3 Ausblick und weitere Forschungsperspektiven .................................... 87
Literatur .............................................................................................................. 88
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
VII
Über den Autor
Alexander Maximilian Röser M.Sc. arbeitet als Consultant bei der CP Consul-
tingpartner AG, ist Research Fellow am Institute of Strategic Finance (isf) der
FOM Hochschule und promoviert berufsbegleitend an der University of Sopron.
Zuvor hat er eine Ausbildung zum Bankkaufmann absolviert und Business Admi-
nistration mit dem Schwerpunkt Digitale Transformation an der FOM Hochschule
in Dortmund studiert. Im März 2023 hat er erfolgreich sein Masterstudium Risk
Management & Treasury an der FOM Hochschule in Düsseldorf abgeschlossen.
Seine erste Publikation zur Charakterisierung von schwacher und starker KI
wurde im Jahr 2021 veröffentlicht.
Seine Forschungsschwerpunkte liegen in den Bereichen Digitale Transformation,
KI und Data Science.
E-Mail: info@alexanderroeser.de
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
VIII
Abkürzungsverzeichnis
IS-LM-Modell Geldmarkt-Gütermarkt-Modell
KI Künstliche Intelligenz
NN Neuronales Netz
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
IX
Formelverzeichnis
Formel 1: Gewichtungsänderung und Lernparameter ................................... 18
Formel 2: Additive Gewichtungsfunktion ........................................................ 19
Formel 3: Gradient mit Fehlerfunktion der kleinsten Quadrate ...................... 20
Formel 4: Gradientenabstiegsfunktion/Delta-Regel ....................................... 20
Formel 5: Lernregel beim Backpropagation-Ansatz ....................................... 22
Formel 6: Ermittlung des Indexwerts .............................................................. 33
Formel 7: Ermittlung des Verkettungsfaktors ................................................. 34
Formel 8: Zwischenwertermittlung ................................................................. 34
Formel 9: Formaler Aufbau der Zusammenhangsbestimmung ..................... 53
Formel 10: Fehlerfunktion MSE ....................................................................... 56
Formel 11: F1-Score ........................................................................................ 70
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
X
Abbildungsverzeichnis
Abbildung 1: Geldanlagen der Deutschen 2021 ............................................. 2
Abbildung 2: Struktur der Arbeit ...................................................................... 6
Abbildung 3: Syllogismus von Aristoteles ..................................................... 10
Abbildung 4: Merkmale von Künstlicher Intelligenz ...................................... 14
Abbildung 5: Aktivierungsfunktion eines Neurons......................................... 16
Abbildung 6: Sigmoid-Funktion mit Glättungsparameter T ........................... 17
Abbildung 7: Basismodell nach dem Backpropagation-Ansatz .................... 21
Abbildung 8: Motive für ein Investment in Aktien .......................................... 27
Abbildung 9: Geldmarktgleichgewicht ........................................................... 37
Abbildung 10: Wirkung der Geldpolitik ............................................................ 39
Abbildung 11: Zinsentwicklung in Deutschland............................................... 40
Abbildung 12: Übersicht über den Datensatz vor
Durchführung der Hauptkomponentenanalyse ........................ 46
Abbildung 13: Übersicht über die wesentlichen Varianztreiber
nach der Hauptkomponentenanalyse ..................................... 49
Abbildung 14: Korrelationsübersicht ............................................................... 50
Abbildung 15: Darstellung der Ergebnisse der
Hauptkomponentenanalyse ..................................................... 52
Abbildung 16: Schematischer Aufbau eines rekurrenten
Neuronalen Netzes .................................................................. 61
Abbildung 17: Aufbau des klassischen Neuronalen Netzes ........................... 64
Abbildung 18: Aufbau des rekurrenten Neuronalen Netzes ........................... 66
Abbildung 19: Hyperparameteroptimierung des rekurrenten
Neuronalen Netzes .................................................................. 67
Abbildung 20: Konfusionsmatrizen Test-Daten vs.
Dummy-Daten beim klassischen Neuronalen Netz ................. 69
Abbildung 21: Konfusionsmatrizen Test-Daten vs.
Dummy-Daten beim rekurrenten Neuronalen Netz ................. 72
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
XI
Abbildung 22: Training über die Epochen ........................................................ 74
Abbildung 23: Kreuzvalidierung ....................................................................... 75
Abbildung 24: Exemplarische Darstellung eines Entscheidungsbaums .......... 81
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
XII
Tabellenverzeichnis
Tabelle 1: Vergleich der Ergebnisse des Modells nach Datenbasis ........ 60
Tabelle 2: Ergebnisvergleich klassisches Neuronales Netz und
rekurrentes Neuronales Netz ................................................... 62
Tabelle 3: Hyperparameteroptimierung des klassischen
Neuronalen Netzes .................................................................. 65
Tabelle 4: Ergebnisvergleich Test-Daten vs. Dummy-Daten
beim klassischen Neuronalen Netz.......................................... 71
Tabelle 5: Ergebnisvergleich Test vs. Dummy beim rekurrenten
Neuronalen Netz ...................................................................... 73
Tabelle 6: Analyse der Robustheit beider Modelle ................................... 76
Tabelle 7: Labeling bei negativem Zinsniveau.......................................... 77
Tabelle 8: Labeling bei moderatem Zinsniveau ........................................ 78
Tabelle 9: Labeling bei positivem Zinsniveau ........................................... 79
Tabelle 10: Methodenvergleich klassisches Neuronales Netz vs.
XGBoost auf Basis der Testdaten............................................ 82
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
1
1 Einleitung
Die Einleitung gliedert sich in drei Abschnitte. Die Problemstellung und die For-
schungsfragen werden im ersten Abschnitt erläutert. Im darauffolgenden Ab-
schnitt 1.2 werden sowohl die Zielsetzung als auch die Struktur der Arbeit aufge-
zeigt und schematisch dargestellt. Das methodische Vorgehen wird in Abschnitt
1.3 beschrieben.
1.1 Problemstellung
Für die Statistik des Verbands der Privaten Bausparkassen wurden ca. 2.000
Personen ab einem Alter von 14 Jahren zu den bereits genutzten Möglichkeiten
der Geldanlage befragt. Die Ergebnisse zeigen, dass mit 47 Prozent das Giro-
konto sowie mit 43 Prozent das Sparbuch an oberster Stelle stehen. Investment-
fonds sowie Aktien werden insgesamt von rund 20 Prozent der befragten Perso-
nen genutzt und belegen somit die Plätze 7 und 9 der insgesamt zehn dargestell-
ten Möglichkeiten zur Geldanlage.1
Anders sieht es aus, wenn es um wohlhabende und UHNW-Anlegende, d. h. ka-
pitalanlegende Personen mit einem Nettovermögen von über 30 Mio. USD, geht.
Im Rahmen einer Studie des Schweizer Software- und Finanzdienstleistungsun-
ternehmens Avaloq wurden im Frühjahr 2021 viele Personen aus dieser Bevöl-
kerungsgruppe in Europa und Asien befragt. Zwar unterscheiden sich die Anla-
gemöglichkeiten je nach Markt, dennoch wird deutlich, welche Anlageklassen am
beliebtesten sind. Im Ergebnis zählen neben Aktien auf Platz 1 ebenfalls Invest-
mentfonds und die Bargeldhaltung auf den nachfolgenden Rängen zu den präfe-
rierten Anlageoptionen.2 Auch wird deutlich, dass der Handel mit Investment-
fonds vor allem in China und Indien bevorzugt wird. Auffällig ist bei diesen beiden
Ländern, dass in China Aktien als Investmentmöglichkeit auf Platz 2 liegen, in
Indien hingegen die Bargeldhaltung. Ebenso ist festzustellen, dass in den Län-
dern Deutschland, Frankreich und der Schweiz im Mittel lediglich 30 Prozent der
befragten in Finanzanlagen investierenden Personen die Bargeldhaltung als In-
vestmentmöglichkeit sehen. Auch hieran wird deutlich, dass der Aktienmarkt,
inkl. der Investmentfonds, an Bedeutung gewinnt.
1 Vgl. Verband der Privaten Bausparkassen e. V., Geldanlagen 2021, 2021.
2 Vgl. Avaloq Group AG, Investor Behaviour, o. J.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
2
Abbildung 1: Geldanlagen der Deutschen 2021
Quelle: in Anlehnung an Verband der Privaten Bausparkassen e. V., Geldanla-
gen 2021, 2021.
Ein Vergleich des europäischen und japanischen Marktes mit dem indischen und
chinesischen Markt zeigt, dass in den ersten beiden Regionen der Fokus stark
auf Aktien, Investmentfonds und Bargeldhaltung als Finanzanlagen liegt, wäh-
rend in den beiden anderen Ländern eine breite Auswahl an Geldanlagemöglich-
keiten präferiert wird. Wenn die Risikobereitschaft der befragten kapitalanlegen-
den Personen untersucht wird, ist bei der Mehrheit ein ausgewogener Risikoan-
satz festzustellen. Tendenzen zur Risikoaversion sind vor allem bei Personen
aus dem Vereinigten Königreich und Indien zu erkennen, wohingegen in Finanz-
analagen investierte Personen aus China und Hongkong eher als risikoaffin ein-
zuschätzen sind.3 Somit wird deutlich, dass die befragten Personengruppen aus
unterschiedlichen Ländern bei einem Investment in Aktien und Finanzderivate
den Fokus auf ein moderates Risiko legen. Aus diesem Grund ist vor allem der
3 Vgl. ebd.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
3
Aktienmarkt unter Berücksichtigung des Zinsniveaus für Kapitalanlegende von
besonderer Bedeutung.
Neben dem Aktienmarkt ist auch die entsprechende Risikoneigung der kapital-
anlegenden Person ausschlaggebend. Sie basiert in der Regel auf unterschied-
lichen Heuristiken der Behavioral Finance, wie beispielsweise der Verfügbar-
keitsheuristik. Investitionen, die von dieser Heuristik getrieben werden, beruhen
in der Regel auf eingeschränkten Erfahrungen und persönlichen Ansichten sowie
kategorischen Eigenschaften der bzw. des Investierenden und der Verfügbarkeit
von Informationen.4
Werden Aktienmärkte weltweit betrachtet, sind einschneidende Erlebnisse für
Kapitalanlegende und institutionell Investierende deutlich erkennbar. Vor allem
Börsencrashs gewinnen in diesem Kontext an Bedeutung. Auch wenn es in den
letzten 100 Jahren lediglich fünf große Börsencrashs gegeben hat, kann ein sol-
cher sowohl nationale als auch globale Ausmaße annehmen. Allein am schwar-
zen Montag (19. Oktober 1987), einem der fünf großen Ereignisse in dieser Zeit-
periode, verlor der Dow Jones an einem Tag 22,6 Prozent. Hintergründe waren
sowohl die Inflation und Handelsdefizite in den USA als auch das nachlassende
Vertrauen in den US-Dollar. In der Folge erreichte der Dow Jones erst nach fünf-
zehn Monaten wieder das Vor-Crash-Niveau. Weitere Folgen waren der Aktien-
rückkauf von börsennotierten Unternehmen sowie die expansive Geldpolitik der
US-Zentralbank.5 Um die Auswirkungen dieses Ereignisses besser nachvollzie-
hen zu können, wird im Folgenden der Index zusammenfassend beschrieben.
Dieser Aktienindex wurde Ende 1896 erstmals durch das namensgebende Ver-
lagshaus Dow Jones & Co. berechnet. Seit der Weiterentwicklung 1928 umfasst
dieser die 30 wichtigsten Industrieunternehmen und gilt als bedeutendster sowie
bekanntester Aktienindex der USA. Der Index ist preisgewichtet, sodass der re-
lative Anteil eines einzelnen Unternehmens am Wert des Indizes durch die jewei-
ligen Kurswerte der Indexmitglieder bestimmt wird. Ebenso wird der arithmeti-
sche Mittelwert mittels eines Korrekturfaktors bereinigt, wobei sowohl Aktiensplits
als auch eine Änderung der Indexzusammensetzung berücksichtigt werden. Ana-
log zum DAX® notiert der Dow Jones als Real-Time-Index.6
Durch die Beschreibung des Index wird deutlich, dass die Folgen eines Börsen-
crashs sowohl für die institutionellen als auch für die privaten Kapitalanlegenden
eine Herausforderung darstellen. Um den am Kapitalmarkt bestehenden Risiken
4 Vgl. von Nitzsch, R., Heuristiken, 2021, S. 52–57.
5 Vgl. AlleAktien GmbH, Börsencrashs, o. J.
6 Vgl. Heldt, C., Dow Jones Index, 2018.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
4
entgegenzuwirken bzw. diese rechtzeitig zu erkennen, wird bereits Künstliche In-
telligenz (KI) eingesetzt. Diese analysiert bewertungsrelevante Daten von Aktien
kontinuierlich und detailliert. Somit sollen marktrelevante Strukturveränderungen
frühzeitig erkannt werden und in allen Marktphasen so auch in turbulenten Zei-
ten soll eine positive Rendite erzielt werden. Hierbei werden ebenfalls das Zins-
niveau und die Inflation berücksichtigt.7
Wird ein Zusammenhang zwischen Zinsen und Inflation angenommen, so kann
der Schluss gezogen werden, dass das vorherrschende Zinsniveau ebenfalls
Einfluss auf den Kursverlauf von Aktien und somit auf die Indizes nimmt. Es ist
somit zu fragen, ob durch die gesonderte Betrachtung des Zinsniveaus im Zu-
sammenhang von Aktien und Indizes weitere Erkenntnisse in Bezug auf die Wer-
tentwicklung gewonnen werden können.
Da der Zusammenhang von Aktienkursen, Indexwerten und Zinsniveau keinen
linearen Charakter hat,8 wird zur Zusammenhangsanalyse ein Neuronales Netz
(NN) verwendet. Somit kann die komplexe Beziehung erklärt werden. Ein NN
lässt sich als selbstlernendes System definieren, das schematisch dem mensch-
lichen Gehirn ähnlich ist. Grundsätzlich sind NN als Bionik-Zweig innerhalb der
KI zu verstehen, d. h. als Entschlüsselung der Natur und Übersetzung in die
Technik.9 Anhand eines NN können große und komplexe Datenmengen mit Hilfe
von Algorithmen verarbeitet und analysiert werden. Neuronale Netze sind somit
eine Algorithmenklasse der KI.10 Um nachzuvollziehen, wie NN funktionieren,
werden diese im Folgenden kurz dargestellt und in Kapitel 2 zusammen mit der
KI erläutert. Neuronale Netze funktionieren ähnlich wie die Neuronen im mensch-
lichen Gehirn. Jedes menschliche Neuron besitzt einen Zellkörper und ein Axon.
Dieses ermöglicht die Spannungsweitergabe an weitere Neuronen. Im Zellkörper
dieses Neurons wird Energie gespeichert, die zuvor durch andere Neuronen oder
äußere Impulse eingegangen ist. Sofern die gespeicherte Energie einen be-
stimmten Schwellenwert übersteigt, wird sie in Form eines Impulses über die A-
xone an weitere Neurone weitergegeben. Innerhalb des menschlichen Gehirns
ist ein Neuron hierbei mit 1.000 bis 10.000 anderen Neuronen zur Spannungs-
weitergabe verbunden.11
7Vgl. Willmann, D., KI Potenziale, 2021.
8Vgl. Schneider, H., High Rates and Nonlinear Impact, 2022.
9Vgl. Ertel, W., Grundkurs KI, 2016, S. 265.
10 Vgl. Kohn, W., Tamm, U., Einführung in neuronale Netze, 2019, S. 184.
11 Vgl. Ertel, W., Grundkurs KI, 2016, S. 265 f.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
5
Wird dies auf die künstlichen NN übertragen, können anhand dieser und der zu-
gehörigen Lernalgorithmen Diagnosen und Prognosen basierend auf Sensorin-
puts erlernt werden. So können mit Hilfe dieser NN nichttriviale Klassifikations-
oder Approximationsaufgaben gelöst werden. Somit eignet sich ein NN zur Be-
stimmung des Zusammenhangs von Index- und Aktienkursen sowie dem zu-
grunde liegenden Zinsniveau.12
1.2 Zielsetzung und Struktur der Arbeit
In dieser Arbeit werden mehrere Fragestellungen betrachtet. Zuerst ist zu fragen,
inwieweit Aktien und Indizes zusammenhängen. Diese Fragestellung wird durch
die Vermittlung der theoretischen Grundlagen in Kapitel 3 beantwortet. Ebenso
ist der Zusammenhang von steigenden bzw. fallenden Zinsen mit Aktien- und
Indexwerten zu betrachten. Ziel der Arbeit ist es somit, ein Verständnis für den
Zusammenhang zwischen Aktien und Indizes sowie dem herrschenden Zinsni-
veau zu schaffen. Ebenso lässt sich anhand der Ergebnisse aus der Zusammen-
hangsanalyse beispielhaft darstellen, wie sich eine Aktie sowie deren Index bei
steigenden und fallenden Zinssätzen entwickeln kann. Zu beachten ist hierbei,
dass es sich nicht zwingend um eine Vorhersage auf Basis durchschnittlicher
Input-Parameter, sondern vielmehr um eine Stressbetrachtung anhand von ad-
versen Input-Parametern handeln kann. Aus den Ergebnissen der Analyse könn-
ten somit perspektivisch gegebenenfalls Rückschlüsse auf Börsencrashs gezo-
gen werden.
Die genannten Forschungsfragen werden durch die Implementierung eines NN
beantwortet. Zu diesem Zweck werden in Kapitel 2 die technischen Grundlagen
dargelegt. Darauf folgen eine zusammenfassende Darstellung der Ansätze von
KI sowie deren Charakterisierung hinsichtlich der Mächtigkeit. Ebenso wird auf
die historische Entwicklung der NN als Teilbereich der KI sowie die wirtschaftliche
Bedeutung eingegangen. Im darauffolgenden Kapitel 3 werden die wirtschaftli-
chen Grundlagen geschaffen. Hierzu werden die Bereiche ‚Aktien als Unterkate-
gorie der Teilhabereffekte‘, ‚Index‘ sowie ‚Zinsen und Zinsniveau‘ betrachtet.
Diese theoretischen Grundlagen bilden die Basis für das Verständnis dieser wis-
senschaftlichen Arbeit. In Kapitel 4 wird der Praxisbezug hergestellt. Neben der
Erklärung der Datenauswahl und Datenherkunft wird auch eine erste Analyse der
Daten hinsichtlich ihrer Korrelationen durchgeführt. Ebenso werden erste Vor-
überlegungen validiert. Unter Berücksichtigung der theoretischen Grundlagen
12 Vgl. ebd., S. 299 f.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
6
aus den Kapiteln 2 und 3 kann somit in mit der Implementierung eines NN be-
gonnen werden, welche in Kapitel 5 beschrieben wird. Daraufhin wird die Art des
NN ausgewählt sowie dessen Umsetzung mit Python dargestellt. In Kapitel 6 fol-
gen der Ergebnisvergleich und die Evaluation der NN zur Bestimmung des Zu-
sammenhangs. Schließlich werden die Ergebnisse interpretiert und es wird ein
Exkurs zu Entscheidungsbäumen als Alternative zu NN gegeben. Die Arbeit en-
det mit einer zusammenfassenden Darstellung der wesentlichen Erkenntnisse
sowie der Beantwortung der in diesem Abschnitt genannten Forschungsfragen,
einer kritischen Würdigung sowie einem Ausblick auf weitere Forschungsper-
spektiven.
Abbildung 2: Struktur der Arbeit
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
7
1.3 Methodisches Vorgehen
Das methodische Vorgehen dieser wissenschaftlichen Arbeit gliedert sich in ei-
nen theoretischen und einen empirischen Ansatz. Der erste Teil, der die Defini-
tion zentraler Begriffe umfasst, wird auf Basis der Sekundärforschung durchge-
führt. Demgegenüber beinhaltet der zweite Teil, in dem der konkrete Praxisbezug
hergestellt sowie ein NN implementiert und evaluiert wird, die empirische Ausei-
nandersetzung mit dem Forschungsthema. Eine Sekundärforschung beschreibt
die Beschäftigung mit unterschiedlichen Definitionen zu einem Forschungsge-
genstand. Ziel der Sekundärforschung ist es somit, einen Überblick über die vor-
handenen Definitionen zu geben und diese zusammenfassend darzustellen. Im
Gegensatz zur Sekundärforschung erfolgt in der empirischen Auseinanderset-
zung ein Praxisbezug zu der genannten Problemstellung. Für die vorliegende Ar-
beit wurde ein quantitative Forschungsansatz gewählt.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
8
2 Technische Grundlagen
In diesem Kapitel werden die technischen Grundlagen dargestellt, die für die Be-
antwortung der Forschungsfragen wesentlich sind. Zusammen mit Kapitel 4 wird
dadurch die Basis für den Praxisteil der Arbeit geschaffen. In Abschnitt 2.1 wird
KI charakterisiert. Hierfür werden unterschiedliche Ansätze der KI dargestellt und
abschließend hinsichtlich der Anwendbarkeit kritisch gewürdigt. In Abschnitt 2.2
folgt die Darstellung der Mächtigkeit von KI mit den Möglichkeiten der Klassifizie-
rung in schwache, mittlere und starke KI. Im darauffolgenden Abschnitt 2.3 wird
die historische Entwicklung der KI mit Fokus auf NN betrachtet. Dazu wird zuerst
ein grober Überblick über die historischen Meilensteine gegeben. Daraufhin folgt
die mathematische Darstellung der Funktionsweise von NN. Abschließend wer-
den in Abschnitt 2.4 Anwendungen der KI aus wirtschaftlicher Sicht betrachtet.
2.1 Charakterisierung von Künstlicher Intelligenz
In der Historie gibt es verschiedene Ansätze zur Beschreibung von KI. Es kann
zwischen vier Dimensionen der KI unterschieden werden.13 Einige Forschende
sind der Auffassung, dass KI eine Ähnlichkeit zur menschlichen Intelligenz auf-
weisen sollte. Dies kann sich sowohl auf das menschliche Denken als auch auf
das menschliche Verhalten beziehen. Andere Forschende beschreiben KI als
abstrakt und formal. Eine derartige KI kann als rationale Definition von Intelligenz
in Bezug auf das Denken und Handeln verstanden werden. Insgesamt ergeben
sich somit die Eigenschaften rational vs. menschlich sowie Denken vs. Verhal-
ten.14 Die Darstellung von KI als menschliche Intelligenz basiert auf empirischen
und psychologischen Daten sowie Beobachtungen und Hypothesen über das
menschliche Verhalten. Dahingegen ist bei der Darstellung als rationale Intelli-
genz eine Kombination unterschiedlicher mathematischer sowie statistischer
Verfahren in Verbindung mit dem Ingenieurwesen und der Wirtschaft unerläss-
lich. Im Allgemeinen kann bei der Betrachtung von KI zwischen Denken und Ver-
halten sowie anhand der Frage, ob Menschen nachgeahmt werden sollen oder
ob optimale Ergebnisse zu erzielen sind, differenziert werden. 15 Wenngleich sich
beide Ansätze, menschlich vs. rational, in ihrer Herangehensweise unterschei-
den, sind sie für die Weiterentwicklung der KI insgesamt bedeutsam.
13 Vgl. Russell, S. J., Norvig, P., Artificial Intelligence, 2021, S. 19 f.
14 Vgl. ebd., S. 19.
15 Vgl. ebd., S. 19 f.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
9
Im Folgenden werden die vier Ansätze der KI zusammenfassend dargestellt. Zu-
nächst wird mit Hilfe des Turing-Test-Ansatzes das menschliche Handeln be-
schrieben. Im Ansatz der kognitiven Modellierung wird das menschliche Denken
abgebildet und im Ansatz der Gesetze des Denkens das rationale Denken. Im
Anschluss daran wird das rationale Handeln anhand des Ansatzes der rationalen
Agenten dargestellt. Weiter wird eine kritische Würdigung des Standardansatzes
im Kontext mit nützlichen Maschinen gegeben.
2.1.1 Der Turing-Test-Ansatz menschlich handeln
Anhand des Turing-Tests versuchte Alan Turing der Frage nachzugehen, inwie-
fern eine Maschine denken kann.16 Der Test ist so aufgebaut, dass eine Ver-
suchsperson dem Computer Fragen stellt und dieser oder ein Mensch die Fragen
schriftlich beantwortet. Kann die Versuchsperson die Antwort des Computers
nicht von der eines Menschen unterscheiden, so gilt der Test als bestanden. Die
Anforderungen an den Computer sind somit die natürliche Verarbeitung von
Sprache und die Darstellung des Ergebnisses. 17 Ebenso gehören logisches Den-
ken und maschinelles Lernen zu den zentralen Herausforderungen.18 Da Turing
in seinem Test davon ausgeht, dass die Anwesenheit einer physischen Person
zum Nachweis von Intelligenz nicht nötig sei, wurde der Turing-Test weiterentwi-
ckelt. Der sogenannte vollständige Turing-Test prüft neben den genannten Fä-
higkeiten ebenfalls die Interaktion mit Objekten und Menschen der realen Welt.
Zudem sind Bildverarbeitung und Spracherkennung eingebaut. Weiter sind vor
allem die Fähigkeiten im Bereich der Computervision, also sowohl Verarbeitung
als auch Analyse von Bildinformationen, und Robotik von Bedeutung für das Be-
stehen des vollständigen Turing-Tests.19
2.1.2 Ansatz der kognitiven Modellierung menschlich denken
Um zu bewerten, inwieweit ein Computer menschlich denken kann, ist Wissen
über das menschliche Denken notwendig. Dies kann in der Regel über drei Arten
gewonnen werden: Beobachtungen, psychologische Experimente sowie die me-
dizinische Untersuchung der Hirnaktivität bei unterschiedlichen Handlungen. Das
menschliche Denken eines Computers kann anhand des Input-Verhaltens
16 Vgl. Turing, A. M., Turing Test, 1950, S. 433.
17 Vgl. ebd., S. 446 f.
18 Vgl. Russell, S. J., Norvig, P., Artificial Intelligence, 2021, S. 20.
19 Vgl. ebd.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
10
geprüft werden. Hierbei wird untersucht, inwieweit bei gegebenen Input-Daten
das menschliche Verhalten mit dem des Computers übereinstimmt. Bei der Über-
prüfung des menschlichen Denkens geht es somit nicht primär um die richtige
Lösung einer gegebenen Aufgabe, sondern vielmehr um den Vergleich zwischen
den Denkschritten von Mensch und Computer. 20
2.1.3 Ansatz der Gesetze des Denkens rational denken
Das rationale Denken wird zumeist als ‚richtiges Denken‘ dargestellt. Der griechi-
sche Philosoph Aristoteles versuchte, dieses ‚richtige Denken‘ in Syllogismen zu-
sammenzufassen und die Muster der Argumentationsstruktur abzubilden. Aristo-
teles beschreibt, dass richtige Prämissen innerhalb einer Argumentationsstruktur
immer zur richtigen Schlussfolgerung führen.21 Ein Beispiel ist Abbildung 3 zu
entnehmen.
Abbildung 3: Syllogismus von Aristoteles
Quelle: in Anlehnung an: Russell, S. J., Norvig, P., Artificial Intelligence, 2021,
S. 21.
Anhand dieses Musters erklärte Aristoteles die Funktionsweise des rationalen
Denkens und schuf somit den Ausgangspunkt für das Themenfeld der Logik. Im
Verlauf des 19. Jahrhunderts versuchten Logiker anhand dieses Grundgedan-
kens die präzise Notation von Objekten und Beziehungen darzustellen. Ziel war
es, ein Programm zu entwickeln, das jedes in logischer Notation beschriebene
Problem lösen und somit ein intelligentes System erschaffen kann. Die Proble-
matik besteht jedoch darin, dass die logische Notation auch die sichere Kenntnis
von Eigenschaften der gesamten Welt voraussetzt. Diese Bedingung gilt als nicht
erfüllt, aber das Defizit kann durch die Wahrscheinlichkeitstheorie kompensiert
werden. Durch eine derartige Kombination kann die Funktionsweise der Welt er-
klärt werden, aber rationales Handeln kann hierdurch nicht entstehen.22
20 Vgl. ebd., S. 20 f.
21 Vgl. ebd., S. 21.
22 Vgl. ebd.
Sokrates ist ein
Mensch. Alle Menschen
sind sterblich. Sokrates ist
sterblich.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
11
2.1.4 Ansatz der rationalen Agenten rational handeln
Ein Agent oder ein Akteur kann als jemand beschrieben werden, der eine be-
stimmte Aktion ausführt. In Bezug auf Computer sind die Anforderungen jedoch
wesentlich umfangreicher. Ihre Fähigkeiten umfassen neben dem selbstständi-
gen Handeln die Wahrnehmung der Umwelt sowie die Anpassung an Verände-
rungen und Zielvorgaben. Bei einem rationalen Akteur wird zusätzlich zu den ge-
nannten Anforderungen noch das bestmögliche Ergebnis, trotz eventuell beste-
hender Unsicherheit, erwartet.23 Zu den Aufgaben von rationalen Agenten gehört
es somit, die richtige Entscheidung zu treffen oder korrekte Schlussfolgerungen
zu ziehen. Dies geht damit einher, die Handlungsalternativen einzuschätzen und
die beste davon zu wählen. Diese Anforderungen werden beim Ansatz der Ge-
setze des Denkens verfolgt. Demgegenüber gibt es jedoch auch Aktionen, die
ggf. keine Schlussfolgerungen, sondern eine direkte Handlung erfordern. Hierzu
zählen beispielsweise Reflexreaktionen bei Berührung eines heißen Gegen-
stands. Durch eine komplexe Analyse und Abwägung der besten Handlungsal-
ternative könnte der Entscheidungsprozess zu lange dauern. So würde zwar die
beste Entscheidung ermittelt, jedoch der optimale Zeitpunkt durch die Maschine
verpasst werden. Werden die im Rahmen des Turing-Tests geprüften Fähigkei-
ten betrachtet, können auch diese zu rationalen Handlungen von Agenten führen.
In diesem Zusammenhang sind besonders die Fähigkeiten der Wissenspräsen-
tation und Argumentation von Bedeutung. Die Fähigkeiten des Lernens unterstüt-
zen zusätzlich bei der Anpassung an neue Gegebenheiten und bewirken eine
höhere Effektivität der Aktivitäten.24
2.1.5 Nützliche Maschinen
Werden die vorgenannten Ansätze miteinander verglichen, so handelt es sich bei
dem Ansatz der rationalen Agenten im Vergleich mit dem Ansatz der Gesetze
des Denkens um einen allgemeingültigen Ansatz. Dies hat den Hintergrund, dass
die korrekte Schlussfolgerung in einem Prozess lediglich eine Möglichkeit des
rationalen Handelns beschreibt. Ebenfalls ist die mathematische Definition allge-
mein gehalten und gut darstellbar. Der Ansatz der rationalen Agenten hat sich
gegen die Ansätze durchgesetzt, das menschliche Verhalten oder die Denkpro-
zesse zu imitieren. Im Allgemeinen haben sich KI-Anwendungen auf die
23 Vgl. ebd., S. 21 f.
24 Vgl. ebd., S. 22.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
12
Konstruktion von Agenten spezialisiert, die ‚das Richtige tun‘ und sich dabei auf
ein Ziel fokussieren. Dies wird in der Literatur als Standardmodell beschrieben.25
Der Nachteil des beschriebenen Standardmodells liegt darin, dass die Zielvor-
gabe vollständig spezifiziert sein muss.26 Dies ist in der realen Welt jedoch selten
gegeben, sodass vor allem bei der Interaktion zwischen Mensch und Maschine
das value alignment problem27 (zu Deutsch: Werteabgleichsproblem) auftritt:
Dieses beschreibt im genannten Fall die fehlende Übereinstimmung zwischen
den vorgegebenen Werten der Maschine und den Vorstellungen des Men-
schen.28 Wird der Maschine ein falsches Ziel zugrunde gelegt, kann diese je nach
Mächtigkeit auch negative Folgen hervorrufen. Als Beispiel hierfür kann der Al-
gorithmus des autonomen Fahrens herangezogen werden. Wird angenommen,
dass das primäre Ziel des autonomen Fahrens das Ankommen am gewünschten
Ort ist, so würde das sekundäre Ziel der Sicherheit verfehlt werden. Bei diesem
Sicherheitsziel handelt es sich, anders als bei der Zielerreichung, um die Vorstel-
lung des Menschen, die nicht formalisiert wurde. Somit wäre zwar das Ankom-
men am Zielort sichergestellt, der Weg dahin jedoch umso risikoreicher. Ebenso
kann es sein, dass eine derartig mächtige Maschine auch in der Lage ist, eigene
Lösungen zu erarbeiten und durchzuführen. Dies steht nicht im Widerspruch mit
der Darstellung von Intelligenz, birgt jedoch das Risiko, dass derart intelligente
und somit mächtige Maschinen unzählige Möglichkeiten zur Zielerreichung aus-
findig machen können. Diese basieren im schlechtesten Fall auf einer falschen
oder nicht vollständig spezifizierten Zielerreichung. Als Beispiel kann genannt
werden, dass die Einhaltung moralischer Standards nicht als Ziel definiert wurde.
Damit die Maschine bei bestehender Unsicherheit nicht eine für sie richtige, aber
für den Menschen falsche Entscheidung trifft, können Kontrollen in entsprechen-
den Situationen einen Lösungsansatz darstellen.29
2.2 Mächtigkeit von Künstlicher Intelligenz
Nachdem in den vorangegangenen Abschnitten die unterschiedlichen Ansätze
von KI beschrieben wurden, wird im Folgenden auf die Mächtigkeit der KI einge-
gangen. Dabei geht es vor allem um die Macht, d. h. die Möglichkeiten der KI
sowie um deren Vertrauenswürdigkeit. Hinsichtlich der Mächtigkeit kann
25 Vgl. ebd.
26 Vgl. ebd., S. 23.
27 Ebd.
28 Vgl. Wiener, N., God and Golem, 1990, S. 15.
29 Vgl. Russell, S. J., Norvig, P., Artificial Intelligence, 2021, S. 23.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
13
zwischen starker, mittlerer und schwacher KI unterschieden werden.30 Die jewei-
lige Klassifizierung erfolgt nach den Merkmalen, die ein System der KI umfasst.
Um die einzelnen Klassen voneinander abgrenzen zu können, müssen die Merk-
male einer schwachen bzw. einer starken KI definiert werden.
Systeme, die der schwachen KI zuzuordnen sind, wurden von Entwickelnden le-
diglich dazu erarbeitet, ein spezifisches Problem oder eine spezifische Aufgabe
zu lösen. Aufgabenübergreifende Problemstellungen lassen sich mit einer KI die-
ser Klasse nicht lösen, da ein Lösungsansatz und Trainingsdaten fehlen. Ebenso
sind derartige Systeme hinsichtlich des Lernprozesses eingeschränkt. Sie kön-
nen sich nicht so weiterentwickeln, dass sie perspektivisch auch höheren Anfor-
derungen gerecht werden.31 Das wird ebenfalls im Unvollständigkeitstheorem
von Gödel postuliert:32 Dieses besagt in Bezug auf künstliche Logiksysteme,
dass eine KI lediglich partiell die menschliche Intelligenz simulieren kann. Diese
lässt sich nicht allumfassend abbilden, weil die menschliche Intelligenz nicht voll-
ständig widerspruchsfrei definierbar ist.33 Insgesamt kommen Systeme der
schwachen KI überwiegend bei der Ausgabe und Erkennung von Bildern, Texten
und Sprache zum Einsatz.
Während eine schwache KI von Entwickelnden lediglich für die Lösung einer spe-
ziellen Aufgabe konzipiert wurde, kennzeichnet sich eine starke KI dadurch, dass
sie auch bereichsübergreifenden Anforderungen gerecht wird. Neben der the-
menübergreifenden Lösung von Aufgaben ist ein weiteres Merkmal von Syste-
men dieser Klasse die kontinuierliche autonome Weiterentwicklung. Ebenso soll
das Handeln der starken KI dem Handeln des Menschen entsprechen. Es soll
nicht zu erkennen sein, ob die Interaktion mit einer Maschine oder einem Men-
schen stattfindet.34
Systeme lassen sich nicht nur in schwache oder starke KI untergliedern. Eine
mittlere KI vereint in sich Merkmale der beiden anderen Klassen. Hierbei kann es
sich um Systeme handeln, die überwiegend Eigenschaften einer schwachen KI
zeigen und gleichzeitig vereinzelte Merkmale der starken KI aufweisen. In Abbil-
dung 4 sind beispielhafte Merkmale zu entnehmen, die die Klassifizierung von KI
hinsichtlich der Mächtigkeit vereinfachen können.
30 Vgl. Röser, A. M., Charakterisierung KI, 2021, S. 3335.
31 Vgl. ebd., S. 33.
32 Vgl. Lucas, J. R., Unvollständigkeitstheorem, 1961, S. 112127.
33 Vgl. ebd.
34 Vgl. Röser, A. M., Charakterisierung KI, 2021, S. 3335.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
14
Abbildung 4: Merkmale von Künstlicher Intelligenz
Quelle: Röser, A. M., Charakterisierung KI, 2021, S. 35.
2.3 Geschichte der Künstlichen Intelligenz und der Neuronalen Netze
Bereits in den Jahren 1943 bis 1956 wurde durch entsprechende Meilensteine
die Grundlage für künstlich intelligente Systeme geschaffen.35 Für diese Arbeit
sind die Entwicklungen seit der Einführung von Expertensystemen bis zum heu-
tigen Status quo, dem Deep Learning, von besonderer Bedeutung. Die Erkennt-
nisse aus der Historie waren eindeutig. Expertensysteme zu entwickeln und wei-
terzuentwickeln galt als schwierig und zuletzt als fragwürdig. Dies hatte den Hin-
tergrund, dass die von den Systemen angewandte Argumentationsfolge durch
die vorliegende Ungewissheit zumeist versagte. Ebenso waren die jeweiligen
Systeme nicht in der Lage, aus den gemachten Erfahrungen zu lernen. Mitte der
1980er Jahre kam es zu einer Wende, da der Backpropagation-Lernalgorithmus
der NN neu entwickelt wurde.36 Ebenfalls in dieser Zeit wurde das maschinelle
Lernen vorangetrieben, das nun auf einem neuen Ansatz basierte. Der Fokus
des maschinellen Lernens lag jetzt vor allem auf der Beweiskraft und experimen-
tellen Ergebnissen und weniger auf der booleschen Logik und philosophischen
Behauptungen.37 Zwei Jahrzehnte später, ab 2001, wurde mit Big Data der
35 Vgl. McCulloch, W. S., Pitts, W., Logical Calculus, 1943, S. 115133.
36 Vgl. Russell, S. J., Norvig, P., Artificial Intelligence, 2021, S. 42.
37 Vgl. ebd., S. 42 ff.
Schwache KI
Konzipiert für eine bestimmte
Problemstellung
Keine autonome
Weiterentwicklung der
Kompetenzen möglich
Erkennung und Ausgabe von
Schriften, Bildern und Sprache
Limitationen hinsichtlich der
Funktionalität
Starke KI
Konzipiert für jegliche
Problemstellungen
Autonome Weiterentwicklung
der Kompetenzen möglich
Imitation menschlichen
Handelns
Erkennung und Ausgabe von
Schriften, Bildern und Sprache
Fähigkeiten der logischen
Entscheidung, Schlussfolgerung
und natürlichen Kommunikation
Problemlösungskompetenz
Keine Limitationen hinsichtlich
der Funktionalität
Mittlere KI
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
15
nächste Meilenstein erreicht, der bis heute für die KI von Bedeutung ist.38 Big
Data beschreibt dabei sehr große Datensätze, die beispielsweise durch die
Schaffung des World Wide Web entstanden sind. Durch die Verbindung von ma-
schinellem Lernen und Big Data stieg die kommerzielle Attraktivität von KI.
Ebenso wurde KI, vor allem durch das System Watson, entwickelt durch IBM,
von der Öffentlichkeit zunehmend wahrgenommen. Bis heute werden, basierend
auf Big Data und maschinellem Lernen, auch Techniken des Deep Learning wei-
terentwickelt. Bei Deep Learning handelt es sich vereinfacht gesagt um eine
Abstufung des maschinellen Lernens. Dass Deep-Learning-Systeme in speziel-
len Anwendungsfällen verglichen mit der menschlichen Leistung bessere Ergeb-
nisse erzielten, sorgte zusätzlich für ein starkes Interesse an KI vonseiten der
Universitäten, Unternehmen, Investierenden und der Öffentlichkeit.39
Um nachzuvollziehen, wie Deep Learning als Teilbereich der NN funktioniert, ist
die Kenntnis von natürlichen NN hilfreich. Künstliche NN werden deswegen zu-
meist als Bionik-Zweig der KI angesehen, bei dem die Entschlüsselung von Ge-
hirnaktivitäten in der Technik umgesetzt wird.40 Nachdem in Abschnitt 1.1 der
grobe Aufbau eines NN anhand des Vergleichs mit dem menschlichen Vorbild
dargestellt wurde, wird der Aufbau von künstlichen NN nachfolgend mathema-
tisch modelliert.
Innerhalb einer diskreten Zeitskala berechnet ein Neuron in jedem Zeitabschnitt
die Aktivierungsfunktion. Mit dieser Funktion kann aus der Summe der gewichte-
ten Ausgabewerte des vorangegangenen Neurons (, , ) der Wert des sy-
naptischen Gewichts ermittelt werden. Das synaptische Gewicht wird daraufhin
an anliegende Neurone weitergegeben (siehe Abbildung 5). Mathematisch und
formal kann die Aktivierungsfunktion des Neurons wie folgt dargestellt werden:
38 Vgl. Banko, M., Brill, E., Large Corpora for NL, 2001.
39 Vgl. Russell, S. J., Norvig, P., Artificial Intelligence, 2021, S. 4045.
40 Vgl. Ertel, W., Grundkurs KI, 2016, S. 265.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
16
Abbildung 5: Aktivierungsfunktion eines Neurons
Quelle: in Anlehnung an Ertel, W., Grundkurs KI, 2016, S. 269.
Der Wert des synaptischen Gewichts wird durch die Summe der gewichteten
Eingangsdaten bestimmt. Diese werden durch die Variablen ,…, formalisiert.
Der Gewichtungsfaktor der Aktivierungsfunktion wird durch  dargestellt, wobei
 das individuelle Gewicht jeden Eingangswertes beschreibt. Da die Aktivie-
rungsfunktion als solche nicht begrenzt ist, könnte es zu Konvergenzproblemen
kommen. Um diese zu umgehen, wird die beschränkte Schwellenwertfunktion
angewendet. Bei der heavisideschen Stufenfunktion wird die Ausgabe anhand
einer Schwelle errechnet.41 Liegt das Ergebnis aus der Berechnung der Akti-
vierungsfunktion unterhalb des Schwellenwertes, gibt das Neuron eine Null als
Ausgabe als synaptisches Gewicht an das anliegende Neuron weiter. Ist das Er-
gebnis der Aktivierungsfunktion jedoch höher als der zugrunde liegende Schwel-
lenwert, wird = 1 an das anliegende Neuron weitergegeben.42 Eine positive
Weitergabe des Ergebnisses geschieht somit binär nur bei Erreichen des Schwel-
lenwertes.43 Sofern die Aktivierung eines Neurons auch Werte zwischen 0 und 1
annehmen kann, handelt es sich um stetige Neuronen.44 Damit sich die Schwel-
lenwertfunktion weiterhin ohne die Erzeugung von Unstetigkeit verwenden lässt,
kann eine Glättung zum Beispiel durch die Anwendung der Sigmoid-Funktion er-
folgen.45
41 Vgl. Zhang, W., Zhou, Y., Heaviside Function, 2021, S. 946.
42 Vgl. Ertel, W., Grundkurs KI, 2016, S. 269 f.
43 Vgl. Zhang, W., Zhou, Y., Heaviside Function, 2021, S. 946.
44 Vgl. Ertel, W., Grundkurs KI, 2016, S. 269 f.
45 Vgl. Ruland, T., Einführung NN, 2004, S. 4.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
17
Abbildung 6: Sigmoid-Funktion mit Glättungsparameter T
: ()=1
1 + 
.
Quelle: in Anlehnung an Ertel, W., Grundkurs KI, 2016, S. 270.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
18
Die Glättung kann über den Glättungsparameter T bestimmt werden. Bei Errei-
chen der Schwelle weist die Funktion ein nahezu lineares Verhalten auf.
Ebenso ist sie asymptotisch beschränkt.
Da bei NN auch deren Lernprozess im Mittelpunkt steht, kann dieser beispielhaft
anhand der Hebb-Regel dargestellt werden.46 Diese besagt, dass eine metaboli-
sche Veränderung einer oder beider Zellen stattfindet, wenn das Axon von einer
Zelle nah genug an einer anderen Zelle ist, um diese wiederholt zu erregen.
Diese metabolische Veränderung kann im Kontext der bekannten NN dazu füh-
ren, dass die Gewichtung in der Aktivierungsfunktion durch Anwendung des
Lernparameters angepasst wird.47 Die Hebb-Regel bildet somit die Grundlage
für verschiedene Lernalgorithmen und Netzwerktypen. Die Formel für die Ge-
wichtungsänderung  ist unten zu sehen.
Formel 1: Gewichtungsänderung und Lernparameter
 =.
(1)
Quelle: in Anlehnung an Hebb, D. O., Neuropsychologische Theorie, 2002, S. 62.
Die Variable  beschreibt dabei die Verbindung der Neuronen und . Sofern
beide Neuronen gleichzeitig aktiv sind, wird die Gewichtung  angepasst. Die
Lernrate zeigt an, wie groß die einzelnen Lernschritte sind.48
Dennoch gibt es bei der klassischen Hebb-Regel auch ein zentrales Problem.
Anhand der Formel wird deutlich, dass die Gewichtung im Zeitverlauf konstant
steigt, sofern die Neuronen Werte zwischen 0 und 1 annehmen. Eine Abschwä-
chung der Gewichtung oder gar das Verwerfen einer Weitergabe an andere Neu-
ronen wäre somit nicht darstellbar. Dieses Problem wurde von Hopfield gelöst.49
Er verwendet hierzu in seinem Lösungsansatz binäre Neuronen mit den Werten
1 für aktiv und -1 für nicht aktiv. Bei Anwendung der Hebb-Regel wird nun die
Gewichtung positiv beeinflusst, falls zwei Neuronen aktiv sind. Ist dagegen nur
eines der beiden Neuronen aktiv, wird die Gewichtung negativ beeinflusst.50
Auf diesem Lösungsansatz basieren die Hopfield-Netze, die dem menschlichen
Vorbild ähnlich sind. Da diese jedoch eine komplexe Dynamik aufweisen, sind
46 Vgl. Hebb, D. O., Neuropsychologische Theorie, 2002, S. 62.
47 Vgl. ebd.
48 Vgl. Ertel, W., Grundkurs KI, 2016, S. 270.
49 Vgl. Hopfield, J. J., NN, 1982, S. 460464.
50 Vgl. ebd.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
19
sie nur schwer handhabbar.51 Entsprechend wird im Folgenden kurz auf die
Feedforward-Netze sowie auf den Backpropagation-Algorithmus als meist ge-
nutzter Algorithmus im neuronalen Modell eingegangen.52
In einem Feedforward-Netz fließen die Eingabedaten x vorwärts durch das Netz
zur Ausgabe y. Dabei stellt x die Eingangsdaten dar, die innerhalb des NN durch
dessen einzelne Schichten propagiert, d. h. übertragen, werden. Zuletzt liegt die
Ausgabe y in der Ergebnisschicht vor. Dieser Ablauf kann somit als Forward-
Propagation bezeichnet werden.53 Der Backpropagation-Ansatz erlaubt es, auch
Daten von der Ergebnis- bzw. Ausgabeschicht durch die einzelnen Schichten zu
propagieren, bis die letzte Schicht zur Gewichtungsanpassung erreicht wird. Oft
wird Backpropagation fälschlicherweise auf den vollständigen Lernalgorithmus
angewandt. Dabei bezieht sich der Prozess lediglich auf die Gewichtsänderung
mit Anwendung des Gradientenabstiegs. 54 Dieser kann anhand der Delta-Regel
im inkrementellen bzw. dem stufenweisen Lernen dargestellt werden. Beim in-
krementellen Lernen kann, anders als beim Batch-Lernverfahren, der Trainings-
datensatz ergänzt werden, ohne dass der komplette Lernprozess erneut durch-
laufen werden muss.55 Die Gewichtung der Neuronen werden für neue Trainings-
daten additiv aktualisiert. In Formel 2 wird die Gewichtung des Neurons (w)
neu definiert, indem die Änderungsrate der Gewichtung w addiert wird. Die Än-
derungsrate der Gewichtung wird nachfolgend anhand der Gradientenabstiegs-
funktion beschrieben.
Formel 2: Additive Gewichtungsfunktion
=+
.
(2)
Quelle: Ertel, W., Grundkurs KI, 2016, S. 288.
Der Gradient dieser Funktion wird als Vektor beschrieben, der alle partiellen Ab-
leitungen der Fehlerfunktion des inkrementellen Lernens aufzeigt. Hierbei weist
der Gradient innerhalb des -dimensionalen Raums der Gewichte in die Richtung
der maximalen Steigung der Fehlerfunktion. So kann für die Minimierung der
51 Vgl. Ertel, W., Grundkurs KI, 2016, S. 308.
52 Vgl. ebd., S. 308 f.
53 Vgl. Goodfellow, I. et al., Deep Learning, 2018, S. 225.
54 Vgl. ebd.
55 Vgl. Ertel, W., Grundkurs KI, 2016, S. 288.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
20
gegebenen Fehlerfunktion 
 im Trainingsbeispiel dem negativen Gradien-
ten gefolgt werden.56
Formel 3: Gradient mit Fehlerfunktion der kleinsten Quadrate
=󰇡
,,
󰇢
,
(3)
mit

= 2


.
Quelle: Ertel, W., Grundkurs KI, 2016, S. 289.
Für den Gradientenabstieg und somit für die Anpassung der Gewichtung kann
unter Berücksichtigung der konstanten positiven Lernrate für  die untenste-
hende Formel angewandt werden.
Formel 4: Gradientenabstiegsfunktion/Delta-Regel
= (),
 (4)
mit
gewünschte Antwort
tatsächliche Antwort
Eingabedaten
Quelle: Ertel, W., Grundkurs KI, 2016, S. 290.
Mit Hilfe der Formel 4 kann anhand der Eingabe die Differenz zwischen der tat-
sächlichen und der gewünschten Antwort ermittelt werden. Nach der Berechnung
aller Muster erfolgt die Gewichtungsanpassung. Es wird deutlich, dass eine An-
passung erst nach dem Durchlaufen aller Trainingsdaten stattfindet. Wird die dar-
gestellte Delta-Regel zu einer Gewichtungsanpassung nach jedem Trainingsbei-
spiel angepasst, so handelt es sich nicht mehr um die reine Anwendung der
56 Vgl. ebd., S. 289.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
21
Delta-Regel. Vielmehr wird nun der inkrementelle Gradientenabstieg darge-
stellt.57
Die zuvor erläuterte Funktion des Gradientenabstiegs bildet die Grundlage für
den Backpropagation-Algorithmus als meist genutztes neuronales Modell. Nach
dem Backpropagation-Ansatz besteht ein Basismodell aus einer Eingabe-, einer
verdeckten und einer Ausgabeschicht. Neben die Ausgabeschicht wird eine wei-
tere Schicht, die Zielausgabeschicht, gelegt. Diese dient lediglich dem Vergleich
der Ausgabewerte mit den Zielwerten.58 Eine exemplarische Darstellung des Ba-
sismodells ist unten zu sehen.
Abbildung 7: Basismodell nach dem Backpropagation-Ansatz
Mit Ausnahme der Neuronen in der Eingangsschicht werden die Werte der Neu-
ronen mit den Formeln der Abbildung 5 und Abbildung 6 berechnet. Auch die
Anpassung der Gewichtungen zwischen den einzelnen Neuronen erfolgt in An-
lehnung an die Gradientenabstiegsfunktion/Delta-Regel, wobei diesmal die sum-
mierte quadratische Fehlerfunktion angewandt wird. Somit kann die Backpropa-
gation-Lernregel für das Trainingsmuster p wie folgt formalisiert werden:
57 Vgl. ebd., S. 290.
58 Vgl. ebd., S. 291.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
22
Formel 5: Lernregel beim Backpropagation-Ansatz
 =,(5)
mit
=󰇱1 falls ein Neuron der Ausgabeschicht ist
1
 falls
ein Neuron der verdeckten Schicht ist
Quelle: Ertel, W., Grundkurs KI, 2016, S. 292.
Formel 5 erklärt somit, dass bei einem Ausgabeneuron dessen Gewichtsände-
rung vom gemachten Fehler abhängt. Sofern es sich um ein Neuron der verdeck-
ten Schicht handelt, wird der Wert des Neurons rekursiv aus allen Änderungen
der Neuronen höherer Schichten ermittelt. Bei der Anwendung des Backpropa-
gation-Ansatzes wird somit zuerst vorwärts propagiert. Daraufhin folgen die Be-
rechnung des Approximationsfehlers und die Anpassung der Gewichte durch die
Gradientenabstiegsfunktion in Kombination mit der Lernregel. Dies geschieht bis
zu dem Zeitpunkt, an dem es keine Änderung der Gewichte oder entwicklungs-
bestimmte Restriktionen gibt.59
2.4 Wirtschaftliche Betrachtung der Künstlichen Intelligenz
Im Jahr 2021 haben Anwendung der KI ein Umsatzwachstum von mehr als 20,7
Prozent im Vergleich zum Vorjahr verzeichnet. Das entspricht einem Umsatz von
383,3 Mrd. USD mit KI, einschließlich Software, Hardware und Dienstleistungen
für zentrische und nicht zentrische KI-Anwendungen.60 Dieser Wert wurde an-
hand des Worldwide Semiannual Artificial Intelligence Tracker der International
Data Corporation (IDC) ermittelt und soll Aufschluss darüber geben, wie stark der
Umsatz des Marktes für KI steigt. Die Unterscheidung in KI-zentrische und nicht
KI-zentrische Anwendungen zeigt, ob die KI-Technologie als zentrales Element
einer Anwendung oder als modularer Bestandteil fungiert.61 Die IDC prognosti-
ziert ferner für das Jahr 2022 einen Gesamtumsatz von circa 450 Mrd. USD, und
auch für die folgenden fünf Jahre wird ein konstantes Wachstum im hohen 10
Prozent-Bereich vorhergesagt.62 Künstliche Intelligenz wird nach Rasmus
59 Vgl. ebd., S. 292 f.
60 Vgl. IDC Corporate USA, Revenue for the AI Market, 2022.
61 Vgl. ebd.
62 Vgl. ebd.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
23
Andsbjerg, dem Associate Vice President Data & Analytics bei IDC, als Möglich-
keit gesehen, die digitale Transformation voranzutreiben. Dabei kann KI sowohl
Kosteneinsparungen als auch Automatisierungen unterstützen. Dies gewinnt vor
allem in Zeiten hoher Inflationsraten an Bedeutung.63 Wird der Jahresumsatz
nach Kategorien gegliedert, zeigt sich, dass ein Großteil davon mit KI-Anwen-
dungen sowie KI-Infrastruktursoftware erzielt wird. Lediglich 30 Prozent werden
durch die Entwicklung und Einführung von KI-Anwendungen sowie KI-Plattfor-
men generiert.64 Auch im Investmentbereich hält KI vermehrt Einzug. Ein Beispiel
hierfür ist das Unternehmen EquBot, das basierend auf dem Programm Watson
von IBM quantitative Modelle zur Bewertung von Aktien erstellt.65 Bereits 2017
hat das Unternehmen den weltweit ersten aktiven KI-basierten ETF für Investiti-
onen innerhalb der USA eingeführt. Es folgte die Auflage eines internationalen
ETFs für weltweite Investments. Die Aufgabe der KI ist es hierbei, Aktien in das
Portfolio aufzunehmen, die von den gegebenen wirtschaftlichen Bedingungen,
Trends oder Weltereignissen profitieren und das größte Potenzial für Kursge-
winne aufweisen.66
63 Vgl. ebd.
64 Vgl. ebd.
65 Vgl. EquBot, AI Investment, 2020.
66 Vgl. ebd.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
24
3 Wirtschaftliche Grundlagen
Nachdem in Kapitel 2 die technischen Hintergründe von KI betrachtet wurden,
stehen in den Abschnitten 3.1 bis 3.3 die wirtschaftlichen Hintergründe im Mittel-
punkt. In Abschnitt 3.1 werden Aktien als Unterkategorie der Teilhabereffekte be-
schrieben. Es wird ein zusammenfassender Überblick über Aktien sowie deren
Eigenschaften gegeben. Die Kenntnis dieser Eigenschaften ist unabdingbar, um
die Motive für eine Geldanlage in Aktien nachvollziehen zu können. Die wesent-
lichen Informationen über Aktien bilden die Grundlage für das Verständnis der in
Abschnitt 3.2 beschriebenen Definition des Index. Für diese Arbeit wird als Index
der DAX® herangezogen. Neben den Merkmalen des Index werden vor allem die
Zusammensetzung sowie die Wertermittlung betrachtet. Im nachfolgenden Ab-
schnitt 3.3 folgt die Definition des Zinsniveaus. Dabei wird auf die Unterschiede
zwischen Geld- und Kapitalmarkt sowie auf die Grundlagen der Geldpolitik ein-
gegangen. Abschließend wird das aktuelle Zinsniveau dargestellt, um die Aus-
gangssituation beurteilen zu können.
3.1 Aktien als Unterkategorie der Teilhabereffekte
Um ein einheitliches Verständnis von Aktien sowie der wesentlichen damit in Ver-
bindung stehenden Gesetze zu schaffen, wird im Folgenden auf Aktien als Un-
terkategorie der Teilhabereffekte eingegangen. Ebenso wird ein Kurzüberblick
über die relevantesten Rechte als anteilshabende Person gegeben. Diese
Rechte können die Grundlage für das Anlagemotiv in Aktien bilden. Darüber hin-
aus wird ein Überblick über die unterschiedlichen Aktienarten sowie das damit
verbundene Risiko gegeben.
Durch Teilhabereffekte können Miteigentumsanteile an einer Aktiengesellschaft
oder am Sondervermögen einer Kapitalgesellschaft verbrieft werden. Damit geht
der Anspruch auf eine prozentuale Gewinnbeteiligung einher.67 Anders gesagt
ist die innehabende Person der Teilhabereffekte mit dem jeweiligen Anteil oder
dem verbrieften Betrag Teilhaber des Unternehmens, also des jeweiligen Emit-
tenten. Als Emittent wird in diesem Kontext der Herausgeber der Teilhaberef-
fekte, d. h. das entsprechende Unternehmen, beschrieben. Die damit verbunde-
nen Rechte und Pflichten sind in den gesetzlichen Grundlagen sowie den Sat-
zungen festgelegt. Grundsätzlich handelt es sich um Effekte mit veränderlichem
67 Vgl. Grundmann, W., Heinrichs, C., Bankbetriebswirtschaft, 2020, S. 200.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
25
Ertrag, da die sogenannten Ertragsansprüche vom Reingewinn des Unterneh-
mens abhängig sind.68
Eine Aktie verbrieft ein solches Teilhaberrecht, d. h. die Teilhaberschaft an einer
Aktiengesellschaft oder einer börsennotierten Gesellschaft. Somit ist die jeweilige
aktienhabende Person am jeweiligen Grundkapital des Unternehmens beteiligt.
Der tatsächliche Beteiligungswert der jeweiligen Aktienhabenden an der Gesell-
schaft ist bei der Betrachtung der kraft Gesetzes begebenen Rechte und Pflich-
ten sowie der solchen aus der Satzung der Gesellschaft unwesentlich.69 Die re-
levantesten im Aktiengesetz (AktG) fixierten Rechte werden nachfolgend zusam-
menfassend dargestellt.
Aktienhabende Personen haben mit dem Erwerb der Aktie die Möglichkeit, an
der Hauptversammlung teilzunehmen. Bei dieser Gelegenheit versammeln sich
gem. § 118 (1) AktG die Eigentümerinnen und Eigentümer der Gesellschaft, d. h.
Gesellschaftende und Aktienhabende, und üben die Rechte in den Unterneh-
mensangelegenheiten aus. Die Hauptversammlung kann hierbei zu unterschied-
lichen Zeitpunkten und Anlässen stattfinden. Der allgemeine Turnus ist mindes-
tens einmal pro Jahr. Dabei findet die Hauptversammlung gem. § 120 (1) AktG
innerhalb der ersten acht Monate des Geschäftsjahres statt. Sie dient der Entlas-
tung sowohl des Vorstands als auch des Aufsichtsrats. Dennoch kann die Haupt-
versammlung auch zu anderen Anlässen stattfinden. Zu diesen zählt gem. AktG,
wenn das Wohl der Gesellschaft gefährdet ist (§ 121 (1) AktG) oder eine Minder-
heit von aktienhabenden Personen die Einberufung verlangt (§ 122 (1) AktG).
Grundsätzlich können Aktienhabende ohne Anwesenheit und ohne Bevollmäch-
tigte an der Hauptversammlung virtuell teilnehmen. Dies ist jedoch gem.
§118a (1) AktG an diverse Voraussetzungen geknüpft. Im Rahmen der Haupt-
versammlung wird gem. § 119 AktG über die Wahl der Aufsichtsratsmitglieder
namentlich entschieden. Des Weiteren kann im Rahmen der Hauptversammlung
gem. § 119 (1) AktG über
die Verwendung des Bilanzgewinns,
die Entlastung des Vorstands- und Aufsichtsrats inkl. Vergütungsbericht und
das weitere Vergütungssystem,
die Bestellung des Abschlussprüfers,
Satzungsänderungen,
68 Vgl. Richard, W., Mühlmeyer, J., Bankbetriebslehre, 2019, S. 286.
69 Vgl. ebd.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
26
Maßnahmen der Kapitalbeschaffung und -herabsetzung oder
die Auflösung der Gesellschaft
entschieden werden.
Die Aktienhabenden erhalten ihr Stimmrecht entsprechend des Nennbetrags ih-
rer Aktien oder der Anzahl der Aktien in ihrem Besitz. Hier ist gem. § 134 (1) AktG
nicht die Anzahl der Stimmen, sondern die Höhe des vertretenen Kapitals auf der
Hauptversammlung maßgeblich. Ebenso ist es möglich, dass die Stimmrechte
der Aktienhabenden gem. Satzung der Gesellschaft eingeschränkt oder Höchst-
beträge festgesetzt werden.70
Neben dem Recht, an der Hauptversammlung teilzunehmen und dort abzustim-
men, haben aktienhabende Personen ebenfalls das Recht auf Auskunftserteilung
durch den Vorstand während der Hauptversammlung. Dieses Recht ist in
§131 AktG geregelt und erlaubt es den aktienhabenden Personen, Auskunft
über Angelegenheiten der Gesellschaft zu verlangen, sofern sie für die Beurtei-
lung der Tagesordnungspunkte und die Stimmrechtsabgabe erforderlich ist. Auch
die Gründe, aus denen der Vorstand der Gesellschaft das Auskunftsersuchen
ablehnen kann, sind in § 131 (3) AktG definiert. Hierzu zählen beispielsweise die
Bekanntgabe geschäftsinterner Angelegenheiten oder Auskünfte, die sich im
Wettbewerb nachteilig auf die Gesellschaft selbst auswirken können.
Die Rechte der aktienhabenden Personen beschränken sich aber nicht nur auf
die Möglichkeiten im Rahmen der Hauptversammlung. So haben Aktienhabende
ein Bezugsrecht sowie ein Recht auf einen anteilsmäßigen Gewinn und einen
Anteil am Liquidationserlös im Falle der Auflösung der Gesellschaft.
Ein Bezugsrecht steht grundsätzlich jeder aktienhabenden Person zu, sofern sich
die jeweilige Gesellschaft für die Ausgabe neuer, sogenannter junger Aktien zur
Kapitalerhöhung oder für die Ausgabe von Wandel- und Gewinnschuldverschrei-
bungen entscheidet. Dennoch kann die Vergabe von Bezugsrechten über den
Beschluss zur Erhöhung des Grundkapitals gem. § 186(3) AktG beschränkt wer-
den. Sofern sich eine Gesellschaft für eine Kapitalerhöhung entscheidet, sinken
die relativen Beteiligungsquoten der aktienhabenden Personen am Grundkapital.
Das Bezugsrecht dient dazu, den aktienhabenden Personen die Möglichkeit ei-
nes Ausgleichs im Rahmen der Erhöhung des Grundkapitals zu schaffen. Dieser
Ausgleich ist bezogen auf die relative Beteiligungsquote an der Gesellschaft. Es
70 Vgl. ebd., S. 287.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
27
schützt die Aktienhabenden somit vor einer Stimmrechtsverwässerung durch die
Verschiebung von Beteiligungsquoten.71
Durch die Beteiligung am Grundkapital der Gesellschaft haben aktienhabende
Personen das Recht auf einen anteilsmäßigen Gewinn. Dieses wird in den
§§ 58 (4) und 60 (1) AktG geregelt. Der Anspruch auf Gewinnbeteiligung besteht
jedoch nur bei einem Gewinnausweis der Gesellschaft und wenn die Hauptver-
sammlung der Verteilung des Gewinns unter den aktienhabenden Personen zu-
stimmt (§§ 58 (4) und 60 (3) AktG). Die Gewinnausschüttung an die aktienhaben-
den Personen wird als Dividendenzahlung bezeichnet und deren Höhe bestimmt
sich gem. § 60 (1) AktG nach den Anteilen am Grundkapital.
Im Liquidationsfall haben Aktienhabende gem. § 271 (1) AktG i. V. m. § 199 InsO
(Insolvenzordnung) ein anteilsmäßiges Anrecht auf das nach der Berichtigung
der Verbindlichkeiten verbleibende Vermögen. Grundlage hierfür ist das Wesen
der Aktiengesellschaft gem. § 1 AktG. Die Haftung für die Verbindlichkeiten der
Gesellschaft trägt ausschließlich das Gesellschaftsvermögen. Dieses setzt sich
aus den Einlagen der Gesellschaftenden in Form von Aktien zusammen. Somit
wird mit Aktien in das Eigenkapital einer Gesellschaft investiert.
Die Motive für ein Investment in Aktien können mit den dargestellten Rechten der
aktienhabenden Personen einhergehen. Allgemein lassen sich vier Motive für ein
Investment in diese Anlageklasse definieren.
Abbildung 8: Motive für ein Investment in Aktien
Quelle: in Anlehnung an Richard, W., Mühlmeyer, J., Bankbetriebslehre, 2019,
S. 288.
71 Vgl. ebd., S. 293.
Anlagemotiv
Sach-
wert-
motiv
Spekulations-
motiv
Mit-
sprache
-motiv
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
28
Beim Anlagemotiv wird ein Investment als ertragsbringende Kapitalanlage ange-
sehen. Dies geht mit hohen Ertragserwartungen beispielsweise aus Kursverän-
derungen oder Dividendenzahlungen einher. Ähnlich verhält es sich beim Spe-
kulationsmotiv. Die Gründe für das Investment liegen hier vor allem in der Parti-
zipation an kurzfristigen Kursschwankungen durch entsprechende Kauf- und Ver-
kaufsaufträge. Bei den beiden letzten Motiven verfolgen die Kapitalanlegenden
einen anderen Ansatz. Beim Sachwertmotiv geht es überwiegend um das lang-
fristige Investment in ein Unternehmen. Somit sollen eventuelle Geldwertschwan-
kungen ausgeglichen werden. Das Mitsprachemotiv ist nicht direkt mit kurz- oder
langfristigen Gewinnen verknüpft. Stattdessen steht der Einfluss auf die Ge-
schäftsleitung durch die gehaltenen Beteiligungsanteile im Vordergrund. Dieses
Motiv ist facettenreich.72 Hinsichtlich des Investments in Aktien kann es sein,
dass das Handeln einer bzw. eines Investierenden nicht direkt einem der genann-
ten Motive zuzuordnen ist. Neben dem Fokus auf ein Motiv kann es zu Mischfor-
men kommen. Dies hängt unter anderem mit der Größenordnung des Invest-
ments sowie mit den allgemeinen Gründen für die Geldanlage zusammen.
Je nach Anlagemotiv gibt es ebenfalls die Möglichkeit, in die unterschiedlichen
Arten von Aktien zu investieren. Bei den Aktienarten wird nach verbrieften Rech-
ten in Stamm- und Vorzugsaktien unterschieden.73 An der Börse werden übli-
cherweise diese beiden Aktienarten gehandelt. Als Stammaktien werden die gän-
gigen Teilhaberpapiere einer Gesellschaft zur Beschaffung von Grundkapital be-
zeichnet. Mit dem Erwerb werden der aktienhabenden Person die gem. der Ge-
sellschaftssatzung und dem AktG geltenden Rechte zugesprochen. Dagegen gilt
bei den sogenannten Vorzugsaktien entweder ein absoluter Vorzug oder ein Vor-
zug, der zugleich einen Nachteil für die bzw. den Investierenden nach sich zieht.
Bei Letzterem handelt es sich in der Regel um einen Dividendenvorteil bei gleich-
zeitigem Stimmrechtsverzicht der Investierenden. Zu beachten ist, dass bei aus-
bleibender Dividendenzahlung bei stimmrechtslosen Vorzugsaktien das Stimm-
recht nach einem Jahr ohne Dividendenzahlung bis zur Begleichung der entstan-
denen Rückstände gem. § 140 (2) AktG wiederauflebt. Vorzugsaktien eignen
sich aufgrund ihrer Gestaltung für Kleinanlegende, die angesichts eines kleinen
Anteils kein oder nur ein geringes Interesse an der Stimmrechtsausübung haben.
Dazu ist die Kursnotierung bei Vorzugsaktien in der Regel unter der der
72 Vgl. ebd., S. 288.
73 Vgl. ebd., S. 289.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
29
Stammaktien, sodass neben der höheren Dividendenrendite ebenfalls ein gerin-
gerer Kapitaleinsatz notwendig ist.74
Des Weiteren können Aktien nach der Beteiligung am Grundkapital sowie nach
der Übertragungsart untergliedert werden. Bei der Unterscheidung nach der Be-
teiligung am Grundkapital der Gesellschaft wird gem. § 8 (1) AktG zwischen
Nennbetragsaktien und Stückaktien differenziert. Nennbetragsaktien müssen
gem. § 8 (2) AktG auf mindestens einen Euro lauten, andernfalls werden sie nich-
tig. Bei dieser Form der Aktie hält die investierende Person einen absoluten Wert
am Eigenkapital. Der Wert der einzelnen Aktien dieses Unternehmens kann je-
doch unterschiedlich sein.
Stückaktien hingegen lauten auf keinen Nennbetrag, sondern auf einen Anteil am
Grundkapital. Dieser bestimmt sich gem. § 8 (4) AktG bei Stückaktien nach der
Anzahl der emittierten Aktien. Der Anteil am Grundkapital ist somit relativ und für
jede einzelne Aktie identisch. Mit Einführung des Euros hat die überwiegende
Zahl der deutschen Aktiengesellschaften von Nennbetragsaktien auf Stückaktien
umgestellt.75
Ferner können Aktien nach Art ihrer Übertragung in die beiden Gruppen Inhaber-
und Namensaktien unterschieden werden. Bei Inhaberaktien wird die aktienha-
bende Person nicht namentlich erwähnt. Somit kann jede aktienhabende Person
die damit verbundenen Rechte einfordern. Inhaberaktien sind daher vereinfach-
ter und anonym übertragbar sowie verkehrsfähiger als Namensaktien. Im Gegen-
satz zu Inhaberaktien lauten Namensaktien auf den Namen einer Person. Deren
Merkmale werden elektronisch im Aktienregister der Gesellschaft geführt und
sind bei Übertragung durch die Depotbanken zu übermitteln. Aufgrund des bes-
seren Überblicks über die Aktionärsstruktur und der damit einhergehenden
Schutzwirkung vor unerwünschten Übernahmen bevorzugen immer mehr Gesell-
schaften diese Aktienart. Ebenso wird mit der Herausgabe der Namensaktien ein
Teil der Voraussetzungen für eine Notierung an Auslandsbörsen erfüllt. Neben
den Namensaktien gibt es noch die vinkulierten Namensaktien. Anders als bei
den schon beschriebenen Namensaktien ist bei dieser Aktienart für jede Art der
Übertragung eine Zustimmung der Gesellschaft erforderlich. 76
Das Gesamtrisiko einer jeden Geldanlage setzt sich aus dem systematischen
und dem unsystematischen Risiko zusammen. Bei den unsystematischen
74 Vgl. Steiner, M. et al., Wertpapiermanagement, 2017, S. 220.
75 Vgl. Richard, W., Mühlmeyer, J., Bankbetriebslehre, 2019, S. 289.
76 Vgl. ebd., S. 290 f.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
30
Risiken handelt es sich um titelspezifische Risiken, d. h. Risiken, die in keinem
Zusammenhang zu übergeordneten Ereignissen stehen. Dagegen basieren sys-
tematische Risiken auf marktinhärenten Veränderungen und tangieren somit die
Gesamtheit der entsprechenden Anlagekategorie. Werden diese beiden Risiko-
arten im Hinblick auf die Anlage in Aktien betrachtet, werden unsystematische
Risiken durch Gesellschaftsvorgänge hervorgerufen. Beispiele hierfür sind
Streiks, Imageschäden, Einflüsse durch die Konkurrenz o. Ä. Angesichts ihrer Art
sind unsystematische Risiken weitgehend durch Diversifikation im Rahmen des
Assetmanagements einzugrenzen. Anders verhält es sich bei systematischen Ri-
siken: Diese können nicht durch Diversifikation gemindert werden. Die Ursachen
systematischer Risiken resultieren aus den fundamentalen Eigenschaften der
Unternehmen und somit leichter zu prognostizieren als bei unsystematischen Ri-
siken. Geldanlagen in Aktien sind in besonderem Maße vom systematischen Ri-
siko in Form von Ereignissen mit Einfluss auf den Gesamtmarkt betroffen. Hierzu
können neben politischen auch wirtschaftliche Ereignisse sowie Naturkatastro-
phen gehören.77
Allgemein geben Aktien den aktienhabenden Personen ein Miteigentumsrecht an
einer Gesellschaft verbunden mit einem variablen Ertrag in Abhängigkeit vom
erzielten Gewinn. Durch die Veräußerungsmöglichkeit über die Börsen können
ebenfalls Kursgewinne realisiert werden. Dennoch birgt eine Anlage in Aktien die
beschriebenen systematischen und unsystematischen Risiken. Für Gesellschaf-
ten dienen Aktien zur Steigerung der Eigenkapitalbasis und der Kreditwürdigkeit.
Durch die Eigenkapitaleigenschaft haben die jeweiligen Anteilshabenden jedoch
ein Mitspracherecht sowie ein Anrecht auf Gewinnbeteiligung.78
3.2 Begriffsdefinition von Index
Ein Aktienindex stellt eine Kennziffer zur Beschreibung der Kursentwicklung oder
Kursperformance dar. Beim Kursindex ist die Entwicklung dieser Kennziffer von
Kursen abhängig, beim Performanceindex dahingegen von den Kursen und Di-
videndenzahlungen. Grundsätzlich ist zwischen Indizes zu unterscheiden, die ei-
nige wenige Unternehmen umfassen, und solchen, bei denen mehrere hundert
Unternehmen berücksichtigt werden. Beispiele für Indizes sind die sogenannten
Subindizes, die Teilsegmente eines Aktienindex abbilden, oder Branchenindizes,
bei denen der Fokus auf der Entwicklung bestimmter Branchen liegt. Neben der
77 Vgl. Steiner, M. et al., Wertpapiermanagement, 2017, S. 5658.
78 Vgl. Richard, W., Mühlmeyer, J., Bankbetriebslehre, 2019, S. 292.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
31
Unterscheidung nach ihrer Gestaltung können Indizes ebenfalls nach der jewei-
ligen Gewichtung differenziert werden. So existieren gleichgewichtete Indizes,
preisgewichtete Indizes und kapitalisierungsgewichtete Indizes. Bei einem
gleichgewichteten Index sind die Anteile der einzelnen Unternehmen identisch.
Jede Aktie macht den gleichen Betrag bzw. Anteil am Index aus. In einen preis-
gewichteten Index wird dagegen von jeder Aktie lediglich ein Stück einbezogen.
Somit ist der Anteil einer Aktie an der Indexentwicklung vom jeweiligen Kurswert
abhängig. Da bei diesen beiden Ausgestaltungsarten die Börsenkapitalisierung
unberücksichtigt bleibt, gibt es noch eine dritte Form, die kapitalisierungsgewich-
teten Indizes. Bei dieser Variante wird die Größe der einzelnen Unternehmen
betrachtet und die Anteile der Einzelwerte werden nach ihrer Börsenkapitalisie-
rung gewichtet.79
Um einen besseren Einblick in das Thema zu erhalten, wird nachfolgend der
DAX® vorgestellt. Die Wahl erfolgte aufgrund der Bekanntheit dieses Index so-
wohl im In- als auch im Ausland. Hierzu werden zunächst die Grundprinzipien
von Aktienindizes der Deutschen Börse AG sowie allgemeine Informationen und
die Möglichkeiten zur Indexermittlung erläutert.
Die Grundprinzipien für die Zusammenstellung und Berechnung von Aktienindi-
zes der deutschen Börse werden im Leitfaden zu den Aktienindizes der Deut-
schen Börse AG beschrieben. Sie umfassen80
die Repräsentativität in Bezug auf die Abbildung der Wertentwicklung des
Zielmarktes,
die Handelbarkeit in Bezug auf die einzelnen Indexkomponenten in Relation
zur Unternehmensgröße,
die Möglichkeit, den jeweiligen Index durch den Kauf der zugehörigen In-
dexmitglieder in einem realen Portfolio nachzubilden,
Stabilität innerhalb des jeweiligen Index durch Regulierungen von Ausnah-
men und Streichungen,
Planbarkeit durch die transparente Kommunikation von Regelanpassungen
in Bezug auf Indexänderungen- und Berechnungen sowie den Ausschluss
von nachträglichen Änderungen und
79 Vgl. Gramlich, L. et al. (Hrsg.), Gabler Banklexikon, 2020, S. 38 f.
80 Vgl. Deutsche Börse AG, Leitfaden Aktienindizes, 2017, S. 8.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
32
Transparenz in Bezug auf Entscheidungen basierend auf öffentlichen Infor-
mationen.
Neben den Kriterien für die Zusammenstellung und Berechnung der deutschen
Aktienindizes der Deutschen Börse müssen Unternehmen für die Aufnahme ent-
sprechende Basiskriterien sowie ausländische Unternehmen erweiterte Basiskri-
terien erfüllen. Diese Bedingungen können sich je nach ausgewähltem Index un-
terscheiden. Im Folgenden werden Basiskriterien dargelegt, die für eine Auf-
nahme in den DAX®, MDAX®, SDAX® und TecDAX® gelten.
Ein Unternehmen muss im Rahmen der Basiskriterien im Prime Standard gelistet
sein, einen fortlaufenden Handel in Xetra® anbieten sowie eine Mindest-Free-
Float von 10 Prozent besitzen.81 Um in den Prime Standard aufgenommen zu
werden, müssen Unternehmen in diesem Teilbereich des amtlichen Marktes und
des geregelten Marktes besonders hohe Transparenzstandards erfüllen.82 Ein
Mindest-Free-Float von 10 Prozent bedeutet, dass vom jeweiligen Unternehmen
mindestens 10 Prozent der Aktien im freien Handel handelbar sind.83 Ebenso
sollte der juristische Sitz oder das operative Hauptquartier in Deutschland ange-
siedelt sein. Ausländische Unternehmen müssen zudem die erweiterten Basis-
kriterien einhalten. Hierzu zählt, dass wahlweise der juristische Sitz oder der ope-
rative Hauptsitz in Deutschland sein muss. Alternativ müssen Unternehmen so-
wohl den Schwerpunkt des Handelsumsatzes über Xetra® als auch den Sitz in-
nerhalb der Europäischen Union oder der Europäischen Freihandelsassoziation
nachweisen.84
Im Folgenden wird der DAX® als bekanntester deutscher Aktienindex betrachtet.
Dieser umfasst die 40 größten und umsatzstärksten Unternehmen, gemessen an
der Marktkapitalisierung, der Frankfurter Wertpapierbörse.85
Die Indexermittlung des DAX® erfolgt kapitalgewichtet. Dabei werden die im Free
Float befindlichen Aktien sowie der Korrekturfaktor in Anlehnung an die Indexfor-
mel von Laspeyres berücksichtigt.86
81 Vgl. ebd., S. 22.
82 Vgl. Deutsche Börse AG, Prime Standard, o. J.
83 Vgl. Deutsche Börse AG, Freefloat, o. J.
84 Vgl. Deutsche Börse AG, Leitfaden Aktienindizes, 2017, S. 22.
85 Vgl. ebd., S. 17.
86 Vgl. Blanchard, O., Illing, G., Makroökonomie, 2012, S. 81.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
33
Formel 6: Ermittlung des Indexwerts
=×(×××)
(×)
 ×,
(6)
mit
C
it
Korrekturfaktor der Gesellschaft i zum Zeitpunkt t
K
T
indexspezifischer Verkettungsfaktor ab Zeitpunkt T
n
Anzahl der Aktienwerte im Index
ff
iT
Free-Float-Faktor der Gattung i zum Zeitpunkt T, bei marktkapi-
talisierungsgewichteten Indizes = 1
P
i0
Kurs der Aktie i zum Basiszeitpunkt
P
it
Kurs der Aktie i zum Zeitpunkt t
Q
i0
Anzahl der Aktien der Gesellschaft i zum Basiszeitpunkt
Q
iT
Anzahl der Aktien der Gesellschaft i zum Zeitpunkt T
t
Berechnungszeitpunkt
T
Zeitpunkt der letzten Verkettung
Basis
Wert des Index am Basisdatum
Quelle: Deutsche Börse AG, Leitfaden Aktienindizes, 2017, S. 38 f.
Zur Indexermittlung wird die Summe der Kurse der einzelnen Aktien zum Berech-
nungszeitpunkt mit der Summe der Anzahl der Aktien zum Zeitpunkt der letzten
Verkettung sowie dem Free Float und dem Korrekturfaktor multipliziert. Anschlie-
ßend wird das Ergebnis durch die Summe der Kurse der einzelnen Aktien zum
Basiszeitpunkt, multipliziert mit der Summe der Anzahl der Aktien zum Basiszeit-
punkt, dividiert. Anhand der fixen Gewichtung zum Basisgrundkapital (ffiT = 1)
können die Preisentwicklungen der einzelnen Werte dargestellt werden. Ebenso
wird die letzte Anpassung der Gewichtung des DAX® durch die Multiplikation mit
dem Verkettungsfaktor ab dem Zeitpunkt der letzten Verkettung berücksichtigt.
Weiter fließen in die Ermittlung des Index die gezahlten Bardividenden nach Ab-
zug der Körperschaftssteuer ein. Beim DAX® handelt es sich mathematisch um
einen Performanceindex, bei dem die etwaigen Erträge fiktiv ins Indexportfolio
reinvestiert werden. Diese fiktive Reinvestition erfolgt unter Berücksichtigung der
Korrekturfaktoren für Bardividenden, Boni und Sonderzahlungen.87
87 Vgl. Deutsche Börse AG, Leitfaden Aktienindizes, 2017, S. 51–53.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
34
Als Verkettung wird die Anpassung der Gewichtung der Mitglieder des DAX® be-
schrieben. Im Zuge der turnusmäßig erfolgenden Verkettung wird der DAX® unter
Berücksichtigung der neuen Gewichtung der Mitglieder berechnet. Neben der re-
gelmäßigen Verkettung zum dritten Freitag im März, Juni, September und De-
zember kann eine außerordentliche Anpassung der Indexzusammensetzung zu
einer außerplanmäßigen Verkettung führen.88 Am jeweiligen Verkettungstag wird
der Indexwert zunächst anhand der Formel 6 berechnet. Der neue Verkettungs-
faktor wird ermittelt, indem der Indexwert durch den Zwischenwert dividiert wird
(siehe Formel 7). Bei der Berechnung dieses Zwischenwerts werden in der For-
mel sowohl die Anzahl der Aktien als auch der Free-Float-Faktor aktualisiert.
Hierbei wird der Korrekturfaktor auf 1 gesetzt (siehe Formel 8).
Formel 7: Ermittlung des Verkettungsfaktors
  =
.
(7)
Quelle: Deutsche Börse AG, Leitfaden Aktienindizes, 2017, S. 47.
Formel 8: Zwischenwertermittlung
=(××)
 (×)
 ×.
(8)
Quelle: Deutsche Börse AG, Leitfaden Aktienindizes, 2017, S. 47.
Anhand des neuen Verkettungsfaktors kann im Folgenden der Indexstand nach
Verkettung berechnet werden.89 Die Gewichtung einzelner Indexwerte ist durch
die Kappung auf 10 Prozent begrenzt. 90
Aufgrund der hohen Bekanntheit des DAX® sowohl im In- als auch im Ausland
wird der Index oft als Performancemaß zur Bewertung von Aktienportfolios sowie
im Rahmen der Portfolio- und Kapitalmarkttheorie als Proxy des Marktrisikos her-
angezogen. Ebenso wird der DAX® für eine große Anzahl an Termingeschäften
als Underlying, auf Deutsch Basiswert, genutzt. Der Optionskontrakt auf den
DAX® gehört zu den am meisten gehandelten Indexoptionen weltweit und ist ei-
nes der Produkte mit dem höchsten Umsatz an der Eurex, die zu den größten
Terminbörsen für Finanzderivate gehört.91
88 Vgl. ebd., S. 4649.
89 Vgl. ebd., S. 47.
90 Vgl. ebd., S. 49 f.
91 Vgl. Steiner, M. et al., Wertpapiermanagement, 2017, S. 227 f.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
35
3.3 Zinsen und Zinsniveau
Die kurzfristige Entwicklung des Zinsniveaus kann mit der Theorie der Liquidi-
tspräferenz nach Keynes erklärt werden.92 Keynes untersuchte in diesem Zu-
sammenhang, welche Faktoren Einfluss auf die Höhe des Zinssatzes in einer
Volkswirtschaft nehmen. Nach der keynesianischen Theorie entwickelt sich der
Zinssatz durch die Übereinstimmung von Geldangebot und Geldnachfrage.93
Ebenso wirkt sich die Höhe des Zinssatzes nach dem Keynes-Zinssatzeffekt auf
die Investitionsausgaben sowie die Anlage von Kassenbeständen aus. 94
Für ein besseres Verständnis des Themas wird im Folgenden auf unterschiedli-
che volkswirtschaftlich relevante Zinsarten eingegangen sowie das Zusammen-
spiel von Geldangebot und Geldnachfrage nach Keynes betrachtet. Daraufhin
werden geldpolitische Maßnahmen mit Hilfe des IS-LM-Modells (Geldmarkt-Gü-
termarkt-Modells)95 erläutert sowie die Entwicklung des Zinsniveaus in Deutsch-
land dargestellt.
Aus volkswirtschaftlicher Sicht kann zwischen Real- und Nominalzinssätzen un-
terschieden werden. Während Nominalzinssätze die Inflation beinhalten, handelt
es sich bei Realzinssätzen um inflationsbereinigte Zinsen. Wird eine Inflation von
0 Prozent angenommen, sind folglich beide Zinssätze identisch. Anhand der key-
nesianischen Theorie der Liquiditätspräferenz können beide Zinssätze erklärt
werden. Hierzu wird davon ausgegangen, dass konstante Inflationsannahmen für
die kurze Frist zugrunde liegen. Dementsprechend bewegen sich beide Zinss-
ätze bei einer Änderung des Zinsniveaus in die gleiche Richtung.96
Um das Zusammenspiel von Geldangebot und Geldnachfrage sowie die jeweilige
Abhängigkeit vom Zinssatz nachvollziehen zu können, werden beide Elemente
zunächst voneinander abgegrenzt. Dadurch kann die Volkswirtschaft in der kur-
zen Frist, also die Wirtschaftsentwicklung innerhalb maximal eines Jahres be-
schrieben werden. Zu beachten ist, dass es sich hierbei um ein mögliches Modell
zur Darstellung des erwähnten Zusammenspiels handelt. In der realen Wirtschaft
kann der Zusammenhang davon abweichen.
Das Geldangebot wird in der Volkswirtschaft durch die Zentralbank gesteuert.
Dies geschieht vor allem durch die Teilnahme der EZB an Offenmarktgeschäften
92 Vgl. Keynes, J. M., Zinstheorie, 2017.
93 Vgl. Mankiw, N. G., Taylor, M. P., Volkswirtschaftslehre, 2016, S. 993.
94 Vgl. ebd., S. 992.
95 Hicks, J. R., IS-LM, 1937, S. 147.
96 Vgl. Mankiw, N. G., Taylor, M. P., Volkswirtschaftslehre, 2016, S. 993.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
36
sowie die daraus folgende Auswirkung auf die Höhe der Sichteinlagen der Ban-
ken bei der EZB: Erwirbt die EZB am Markt Wertpapiere einer Bank, wird der
entsprechende Betrag dem Konto der Bank bei der EZB zugeführt und die Bank
kann über den ausmachenden Betrag als Sichteinlage verfügen. Im Umkehr-
schluss wird das Geld von den Sichteinlagen der kaufenden Bank abgezogen,
wenn die EZB diese Wertpapiere am offenen Markt verkauft. Somit sinken die
Sichteinlagen der Bank, die Wertpapiere kauft, und gleichzeitig nimmt die Geld-
menge im Bankensystem ab. Die Änderung des Sichteinlagen-Bestands hat Aus-
wirkungen auf die operative Tätigkeit der Banken. Zu den Tätigkeiten zählt bei-
spielsweise die Geldschöpfung durch Kreditvergabe. Als weitere Maßnahmen
kann die EZB die Refinanzierungssätze ändern oder auf Mindestreserven zu-
rückgreifen. Zwar sind diese Prozesse für die Umsetzung der geldpolitischen
Leitlinien von Bedeutung, aber nur bedingt relevant in Bezug auf die Frage, in-
wiefern Geldmenge und aggregierte Nachfrage zusammenhängen. Um die The-
orie der Liquiditätspräferenz darzustellen, wird somit angenommen, dass die EZB
die Geldmenge direkt zum angestrebten Niveau steuert. Das Geldangebot ist so-
mit von anderen ökonomischen Variablen, einschließlich des Zinssatzes, unab-
hängig. Nach Durchsetzung der geldpolitischen Entscheidung über das Geldan-
gebot seitens der EZB wird diese i. d. R. nicht außerplanmäßig angepasst.97 Gra-
fisch wird das fixe Geldangebot in Abbildung 9 exemplarisch als Geldangebots-
menge der EZB dargestellt.
97 Vgl. ebd., S. 993 f.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
37
Abbildung 9: Geldmarktgleichgewicht
Quelle: in Anlehnung an: Mankiw, N. G., Taylor, M. P., Volkswirtschaftslehre,
2016, S. 994.
Neben dem Geldangebot durch die EZB gibt es die Geldnachfrage. Diese wird
gemäß der Liquiditätspräferenztheorie vor allem durch den vorherrschenden
Zinssatz bestimmt, der somit als Proxy der Opportunitätskosten der Geldhaltung
angesehen werden kann. Im Falle eines Zinsanstiegs erhöhen sich diese Oppor-
tunitätskosten, infolgedessen die Bargeldhaltung teurer wird und die Geldnach-
frage sinkt. Bei einer Zinssenkung fallen diese Kosten, was zu einem Anstieg der
Geldnachfrage führt. Grafisch ist die Geldnachfrage daher als Gerade mit nega-
tiver Steigung darzustellen.98
Nach der Liquiditätspräferenztheorie bildet sich der gleichgewichtete Zinssatz zu
dem Zinsniveau, bei dem Geldangebot und Geldnachfrage übereinstimmen. Die-
ser Zinssatz wird folglich auch Gleichgewichtszinssatz genannt. Liegt der Zins-
satz über dem Gleichgewichtszinssatz, sinken die Bargeldhaltung und die Nach-
frage nach Geld. Das Geldangebot übertrifft die Geldnachfrage. Da die Opportu-
nitätskosten der Bargeldhaltung in diesem Fall hoch sind, reduziert die Bevölke-
rung durch den Erwerb verzinslicher Anlagen oder Wertpapiere die Bargeldhal-
tung. Als Folge des Angebotsüberhangs und des Nachfragedefizits senken die
Banken ihre Zinsen, bis die Opportunitätskosten so tief sind, dass die Haltung
98 Vgl. ebd., S. 995.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
38
von Bargeld für die Menschen wieder an Relevanz gewinnt. Dies geschieht, so-
bald Geldangebot und -nachfrage sich wieder im Gleichgewicht befinden sowie
der Zinssatz auf den Gleichgewichtszinssatz gefallen ist. Bei einem zu niedrigen
Zinssatz beginnt der Prozess erneut in entgegengesetzter Richtung, sodass auch
hier der Gleichgewichtszins wieder erreicht wird.99
Im Allgemeinen lässt sich die Geldpolitik einer Volkswirtschaft anhand der Vari-
ablen Produktionsniveau, Preisniveau und Zinssatz erklären. Die dargestellte
Theorie zeigt auf, wie durch die Anpassung des Zinssatzes bei einem gegebenen
Preisniveau das Geldangebot und die Geldnachfrage ins Gleichgewicht gebracht
werden. Ebenso wirkt der Zinssatz auf die aggregierte Nachfrage und somit auf
die Produktionsmenge ein. Auch in einer langfristigen Betrachtung kann die
Volkswirtschaft durch die drei genannten Variablen beschrieben werden. Aller-
dings wird hierbei das Produktionsniveau anhand der Produktionsfaktoren Arbeit,
Technologie und Kapital bestimmt. Mit Hilfe des Zinssatzes können Angebot und
Nachfrage nach Investitionsmitteln an das vorherrschende Produktionsniveau
angepasst werden. Durch das Preisniveau folgt die Gleichgewichtsbestimmung
von Geldangebot und Geldnachfrage. Da Preisanpassungen jedoch i. d. R. lang-
fristig geschehen, ist über das Preisniveau ein kurzfristiger Ausgleich von Geld-
angebot und Geldnachfrage nicht möglich. Dies zeigt die Notwendigkeit einer
Geldpolitik. 100
Nachdem mit Hilfe der Theorie der Liquiditätspräferenz die Eingriffsmöglichkeiten
der Geldpolitik beschrieben wurden, wird im Folgenden die Wirkung einer Zins-
änderung anhand des IS-LM-Modells dargestellt. Auch hierbei handelt es sich
um vereinfachte Modellannahmen zur Darstellung eines komplexen Zusammen-
hangs.
Im IS-LM-Modell werden die Makromärkte Geld- und Gütermarkt im Gleichge-
wicht dargestellt.101 Daraus ergibt sich das allgemeine Gleichgewicht einer Volks-
wirtschaft bei einem bestimmten Zins- und Einkommensniveau. Anhand des Mo-
dells kann die Wirkung der Geld- und Fiskalpolitik erläutert sowie die Interaktion
der beiden Märkte analysiert werden.102 Dabei zeigt die IS-Kurve, bei welchen
Kombinationen von Zins- und Einkommensniveau es zu einem Gleichgewicht auf
dem Gütermarkt kommt. An der LM-Kurve lassen sich hingegen alle Kombinati-
onen von Zins- und Einkommensniveau ablesen, bei denen sich der Geldmarkt
99 Vgl. ebd.
100 Vgl. ebd., S. 996.
101 Vgl. ebd., S. 935.
102 Vgl. ebd.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
39
im Gleichgewicht befindet.103 In Abbildung 10 ist eine vereinfachte Darstellung
des Modells zu sehen.
Abbildung 10: Wirkung der Geldpolitik
Quelle: in Anlehnung an: Mankiw, N. G., Taylor, M. P., Volkswirtschaftslehre,
2016, S. 941.
Nimmt die EZB Einfluss auf die Geldmenge und entschließt sich, diese auszu-
weiten, kommt es zu einer Verschiebung der LM-Kurve nach rechts (Abbildung
10, LM LM1). Der neue Schnittpunkt der IS- und LM-Kurve zeigt einen Anstieg
des gesamtwirtschaftlichen Einkommens (Abbildung 10, Ye Y1) bei zugleich
niedrigerem Zinsniveau (Abbildung 10, ie i1).
Eine Verknappung der Geldpolitik hat hingegen eine gegensätzliche Auswirkung.
Dadurch steigt das Zinsniveau (Abbildung 10, i1 ie) und das gesamtwirtschaft-
liche Einkommen sinkt (Abbildung 10, Y1 Ye). Ebenso verschiebt sich die LM-
Kurve nach links. In der realen Wirtschaft verfolgt die EZB mit ihrer Geldpolitik
das Stabilitätsziel. Dies bedeutet, dass durch geldpolitische Maßnahmen sowohl
103 Vgl. ebd., S. 936–939.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
40
Inflation und Deflation als auch ein Anstieg oder Rückgang des vorherrschenden
Preisniveaus oder der Kaufkraft vermieden werden sollen.104
Abschließend wird die Zinsentwicklung in Deutschland anhand der Umlaufrendi-
ten inländischer Inhaberschuldverschreibungen dargestellt. Aus Abbildung 11
geht hervor, dass der langfristige Zinssatz am Kapitalmarkt i. d. R. oberhalb des
kurzfristigen Zinssatzes am Geldmarkt liegt.
Abbildung 11: Zinsentwicklung in Deutschland
Quelle: in Anlehnung an: Deutsche Bundesbank Statistiken, Umlaufsrenditen
Geldmarkt, 2022; Deutsche Bundesbank Statistiken, Umlaufsrenditen Kapital-
markt, 2022.
Die Grafik oben zeigt für den Zinssatz am Geldmarkt ein Maximum von 5,44 Pro-
zent und ein Minimum von -0,71 Prozent. Der durchschnittliche Zinssatz lag in
der Betrachtungsperiode bei 1,76 Prozent.105 Wird der langfristige Zinssatz am
Kapitalmarkt betrachtet, liegt das Maximum im genannten Zeitraum bei 5,79 Pro-
zent und das Minimum bei -0,52 Prozent. Der durchschnittliche Zinssatz betrug
in der Betrachtungsperiode 2,71 Prozent.106 Werden beide Kurven analysiert,
sind zyklische Zinsschwankungen, sogenannte Niedrig- und Hochzinsphasen, zu
erkennen. Daraus kann der Schluss gezogen werden, dass es zumindest histo-
risch ein Schema dieser Phasen gibt und dass auf eine Hochzinsphase wieder
eine Niedrigzinsphase folgt. Vor allem im Hinblick auf Darlehen mit Zinsbindung
104 Vgl. ebd., S. 940 f.
105 Vgl. Deutsche Bundesbank Statistiken, Umlaufrenditen Geldmarkt, 2022.
106 Vgl. Deutsche Bundesbank Statistiken, Umlaufrenditen Kapitalmarkt, 2022.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
41
kann es somit von Vorteil sein, zu wissen, in welcher Phase sich die aktuelle
Zinsentwicklung befindet.107
107 Vgl. Wöhe, G. et al., Betriebswirtschaftslehre, 2016, S. 614 f.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
42
4 Praxisbezug
Nachdem in den vorangegangenen Kapiteln die theoretischen Grundlagen dar-
gestellt wurden, folgt in diesem Kapitel der Praxisbezug, um die gestellten For-
schungsfragen zu beantworten. Dieses Kapitel umfasst dabei die Annahmen des
Praxisbezugs, die Datenherkunft und Datenvorverarbeitung sowie eine erste Da-
tenanalyse, um ein Verständnis für die verwendeten Daten zu schaffen.
4.1 Annahmen des Praxisbezugs
Um zu analysieren, inwieweit ein Zusammenhang zwischen dem Zinsniveau und
den jeweiligen Aktienwerten eines Index besteht, werden bereits vor der Aufstel-
lung des konkreten Modells die Annahmen dargestellt und begründet.
Die Herleitung des Zusammenhangs von Zinsniveau und Aktienkursbewegung
erfolgt anhand des Index, in dem die Aktien gelistet sind. Für die Aufstellung des
Modells gelten die folgenden Annahmen:
1. Um ein valides Modell aufstellen zu können, werden für die Analyse große
Datenmengen in Form von Zeitreihen benötigt. Da sich die Zusammenset-
zung des Index im Zeitverlauf verändert, wird die Annahme getroffen, dass
die Unternehmen, die zum Zeitpunkt der Analyse Mitglied des DAX® waren,
es über den gesamten Untersuchungszeitraum waren. Dies hat den Hinter-
grund, dass eine Rückrechnung des DAX® anhand der historischen Aktien-
kurse der heutigen Unternehmen aufgrund der unterschiedlichen Einflussfak-
toren fachlich nicht vertretbar ist.
2. Große Datenmengen können mit Multikollinearität einhergehen. Dies bedeu-
tet, dass zwei unterschiedliche Variablen ggf. einander selbst erklären. Ver-
einfacht kann dies als Korrelation zweier unabhängiger Variablen untereinan-
der erklärt werden. Um dies auszuschließen und lediglich die für das Modell
wesentlichen Variablen auszuwählen, wird im Vorfeld eine Hauptkomponen-
tenanalyse durchgeführt (siehe Abschnitt 4.3). Somit werden die wesentli-
chen Treiber der 40 Unternehmen in Hinblick auf deren Anteil an der Ge-
samtvarianz herausgestellt und folglich für die weitere Analyse verwendet.
Zum Backtesting werden bei der Implementierung jedoch eine Analyse mit
und eine ohne Hauptkomponenten durchgeführt (siehe Abschnitt 5.3). Somit
soll ausgeschlossen werden, dass durch die Datenreduktion im Rahmen der
Hauptkomponentenanalyse wesentliche erklärende Variablen unbeachtet
bleiben. Sofern beide Modelle eine ähnliche Modellgüte aufweisen, kann der
reduzierte Datensatz weiterverwendet werden.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
43
3. Für die Darstellung des Zinsniveaus werden die Umlaufrenditen deutscher
Inhaberschuldverschreibungen betrachtet. Um sowohl den Geld- als auch
den Kapitalmarkt darzustellen, werden die Umlaufrenditen zu den Restlauf-
zeiten von einem bis zwei Jahren sowie zu den Restlaufzeiten von neun bis
zehn Jahren betrachtet. Die untersuchten Werte sind Tageswerte. Der be-
trachtete Zeitraum vor der Datenaufbereitung umfasst die Tagesdaten von
Januar 1997 bis Oktober 2022. In diesem Zeitraum sind somit auch negative
Umlaufrenditen enthalten. Im Rahmen der weiteren Datenanalyse werden
die Renditen nach der Vorverarbeitung als relative Renditen dargestellt.
4.2 Ablauf des Praxisbezugs
Der Praxisbezug lässt sich in vier Phasen untergliedern.
1. Datensuche und Datenvorverarbeitung
In der ersten Phase werden die Datenherkunft und auswahl erläutert.
Ebenso werden die Daten aufbereitet. Dieser Schritt umfasst das Entfernen
der Not-a-Number(NaN)-Werte sowie die notwendige Datentransformatio-
nen (Abschnitt 4.3).
2. Erste Datenanalyse
In der nächsten Phase folgt eine erste Datenanalyse. Hierzu wird in Abschnitt
4.4 auf die Korrelationen der einzelnen Variablen sowie den Bezug zur Kau-
salität eingegangen. Daraufhin wird in Abschnitt 4.5 der Grundstein für die
spätere Modellwahl gelegt.
3. Modellwahl
Die Modellwahl wird in Kapitel 5 beschrieben. Neben dem Fokus der Arbeit
der Analyse mittels NN wird auch eine mögliche Alternative zu den NN
dargestellt. In diesem Zusammenhang ist der Exkurs zu Entscheidungsbäu-
men zu nennen.
4. Validierung
Im darauffolgenden Kapitel 6 folgt mit der Validierung der aufgestellten Mo-
delle die letzte Phase des Praxisbezugs. Dabei werden die in Phase 3 dar-
gestellten Modelle hinsichtlich der jeweiligen Modellgüte untersucht und ver-
glichen.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
44
4.3 Datenherkunft und Datenvorverarbeitung
Zur Klärung des Zusammenhangs von Zinsniveau und Aktien- bzw. Indexwerten
wurden im Rohdatensatz die Aktienkursinformationen der 40 Unternehmen des
DAX® sowie die durchschnittlichen Umlaufrenditen deutscher Unternehmensan-
leihen vorverarbeitet.
Das untersuchte Material besteht aus historischen Kursdaten der 40 DAX®-Un-
ternehmen, dem DAX®-Kurs und aus historischen Informationen zu den Umlauf-
renditen. Die historischen Kursdaten wurden über das Python-Paket yfinance ab-
gerufen. Dabei handelt es sich um ein Open-Source-Paket, das auf die öffentli-
chen APIs von Yahoo! Finance, einer Marke der Yahoo Inc., zugreift. Die Daten
sind sowohl für Forschungs- als auch für Bildungszwecke zugänglich.108 Die In-
formationen zu den Umlaufrenditen inländischer Schuldverschreibungen wurden
aus den Statistiken der Deutschen Bundesbank entnommen. Bei der Darstellung
des Geld- und des Kapitalmarktes wurden unterschiedliche Restlaufzeiten be-
rücksichtigt. Für die Abbildung des Geldmarkts d. h. der kurzen Frist wurde
eine Restlaufzeit von einem Jahr bis zwei Jahren gewählt.109 Die Abbildung des
Kapitalmarkts der langen Frist basiert auf einer Restlaufzeit von neun bis
zehn Jahren.110 Die Beobachtung erstreckte sich über den Zeitraum vom
07.01.1997 bis zum 30.09.2022. Somit wurden insgesamt 5675 Handelstage be-
trachtet. Sofern Datenpunkte innerhalb dieses Zeitraums unvollständig waren,
wurden diese durch den Wert null ergänzt. Bei den täglichen Renditen der 40
Aktienwerte traf das auf knapp 20 Prozent der Daten zu. Dies liegt in der formu-
lierten Annahme begründet, dass alle zum Zeitpunkt der Analyse gelisteten
DAX®-Mitglieder über den gesamten Untersuchungszeitraum in diesem Index ge-
listet waren. Im gewählten Zeitraum können somit neue DAX®-Mitglieder hinzu-
gekommen sein, die zu Beginn des Untersuchungszeitraums nicht börsennotiert
gewesen waren.
In einem ersten Schritt wurden die 40 Kurswerte der DAX®-Aktien dupliziert, so-
dass zwei identische Datensätze entstanden. Dem ersten Datensatz wurden an-
schließend die Kursinformationen des DAX® sowie die Informationen der Umlauf-
renditen beigefügt. Bei den dargestellten Umlaufrenditen der Bundesbank han-
delt es sich um relative Renditen. Demzufolge wurden die täglichen relativen
Renditen ebenfalls für die Aktienkurse und Indexwerte auf Basis der adjustierten
Kurse berechnet. Die tägliche relative Aktien- oder Indexrendite entspricht der
108 Vgl. Aroussi, R., yfinance, o. J.
109 Vgl. Deutsche Bundesbank Statistiken, Umlaufrenditen Geldmarkt, 2022.
110 Vgl. Deutsche Bundesbank Statistiken, Umlaufrenditen Kapitalmarkt, 2022.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
45
prozentualen Wertänderung im Vergleich zum Vortag. Bei den verwendeten ad-
justierten Kursen wurden diese um den Einfluss von Maßnahmen wie Kapitaler-
höhungen oder Dividendenzahlungen korrigiert. Die Kurse der einzelnen Aktien
sind somit vergleichbar. Der Datensatz basiert auf relativen Aktienrenditen und
Umlaufrenditen. Durch die Ausführung des Python-Notebooks zur Datenvorver-
arbeitung111 wird ein neuer Datensatz als Basis für die spätere Analyse erstellt. 112
Der Datensatz besteht aus der Datumsangabe sowie 43 numerischen Variablen
des Typs float64 bei insgesamt 5675 Beobachtungen. Durch die im vorherigen
Abschnitt genannte Ergänzung sind keine NaN-Werte mehr vorhanden.113
111 Die Durchführung der Analyse und Datenvorverarbeitung erfolgt mit Python. Die zu-
gehörigen Dateien sind in einem Gitlab-Verzeichnis gespeichert. In diesem Gitlab-
Verzeichnis finden sich alle für die Analyse relevanten Dateien. Bei den Links handelt
es sich um Permalinks, die den permanenten Abruf der Dateien ermöglichen (vgl.
Röser, A. M., Datenvorverarbeitung, 2023).
112 Vgl. Röser, A. M., Dataset nach DVV, 2023a.
113 Vgl. Röser, A. M., Explorative Datenanalyse, 2023.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
46
Abbildung 12: Übersicht über den Datensatz vor Durchführung der Hauptkom-
ponentenanalyse
Quelle: Röser, A. M., Explorative Datenanalyse, 2023.
In einem zweiten Schritt wird der andere Datensatz mit den 40 Kurswerten der
DAX®-Aktien untersucht. Bevor bei diesem Datensatz jedoch die
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
47
Datentransformation in relative Renditen sowie die Zusammenführung mit Index-
werten und Umlaufrenditen erfolgten, wird zunächst eine Hauptkomponen-
tenanalyse, auf Englisch Principal Component Analysis (PCA), durchgeführt.
Diese basiert auf den logarithmischen Renditen der 40 Aktienwerte. Für ein bes-
seres Verständnis der nächsten Schritte im Rahmen der PCA wird diese im Fol-
genden vereinfacht beschrieben. Die PCA dient der unüberwachten Datenkom-
primierung.114 Das bedeutet, dass versucht wird, den Informationsgehalt der ge-
gebenen Daten durch die Transformation in eine niedrigere Dimensionalität zu-
sammenzufassen. Somit kann die Dimensionsreduktion als Ansatz einer Daten-
komprimierung verstanden werden, deren Ziel es ist, den Großteil der wesentli-
chen Informationen des ursprünglichen Datensatzes beizubehalten und gleich-
zeitig den Gesamtdatensatz zu reduzieren. Durch diese Dimensionsreduktion
können sowohl die Effizienz der Berechnungen als auch die Vorhersagekraft ver-
bessert werden.115 Bei Anwendung der PCA lassen sich basierend auf den Kor-
relationen zwischen den verschiedenen Variablen Muster in den Daten erkennen.
Es wird versucht, innerhalb von hochdimensionalen Daten die Richtungen der
maximalen Varianz zu finden. Dabei werden die Komponenten gesucht, die einen
Großteil der Gesamtvarianz erklären. Anschließend werden sie in einen neuen
Unterraum projiziert. Dabei darf der neue Unterraum höchstens der Anzahl der
Dimensionen in dem ursprünglichen Raum entsprechen. Nach der Transforma-
tion der ursprünglich d-dimensionalen Daten in einen k-dimensionalen Unterraum
werden im Ergebnis die Hauptkomponenten gemäß ihrem Anteil der erklärten
Varianz dargestellt. Das bedeutet, dass die erste dargestellte Hauptkomponente
den größten Teil der zugrunde liegenden Gesamtvarianz erklärt. Da die nachfol-
genden Hauptkomponenten mit den anderen Hauptkomponenten nicht korreliert
sind, besitzen diese ebenfalls die größtmögliche Varianz im Vergleich zu den
nachfolgenden Hauptkomponenten.116 Die einzelnen Hauptkomponenten sind im
Ergebnis absteigend nach dem jeweiligen Anteil der durch sie erklärten Varianz
geordnet. Damit den vorhandenen Variablen aufgrund der verschiedenen Grö-
ßenordnungen des Aktienkurses nicht eine unterschiedliche Relevanz beigemes-
sen wird, sind sie vor Anwendung der PCA zu standardisieren.117 Im zugrunde
liegenden Datensatz erfolgte die Standardisierung der für die PCA relevanten
Daten durch die Umwandlung in logarithmische Renditen. Standardisierung be-
deutet in diesem Kontext, dass die vorliegenden Daten durch die Umwandlung
114 Vgl. Raschka, S., Mirjalili, V., Machine Learning, 2021, S. 169.
115 Vgl. ebd., S. 169 f.
116 Vgl. ebd., S. 170 f.
117 Vgl. ebd., S. 171.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
48
einer einheitlichen Größenordnung entsprechen. Die PCA umfasst für die Dimen-
sionsreduktion der Datenbasis folgende Schritte:
1. Standardisierung der ursprünglichen Daten in eine einheitliche Größenord-
nung mittels logarithmischer Renditen der Aktienkurse
2. Konstruktion einer Kovarianzmatrix
3. Darstellung von Eigenvektoren sowie Eigenwerten in der Kovarianzmatrix
4. Sortierung der Eingabewerte in absteigender Reihenfolge
5. Auswahl der wesentlichen Varianztreiber und somit weniger Dimensionen in
den Daten
Nach der Ermittlung der wesentlichen Treiber innerhalb der 40 Aktienwerte durch
die PCA, wird ein weiterer Datensatz erstellt. Dieser enthält lediglich die wesent-
lichen Werte, die durch die PCA identifiziert wurden. Daraufhin werden auch bei
diesem Datensatz die Aktienkurse in relative Renditen umgewandelt. Ebenso
werden sowohl die relativen Indexwerte als auch die relativen Umlaufrenditen
dem Datensatz beigefügt. Durch die Ausführung des Python-Notebooks zur Da-
tenvorverarbeitung118 wird ein weiter Datensatz zur weiteren Analyse erstellt.119
Dieser umfasst im Vergleich zum vorangegangenen Datensatz lediglich den um
die Dimensionen reduzierten Datensatz. Der Datensatz besteht aus der Da-
tumsangabe sowie 31 numerischen Variablen des Typs float64 bei insgesamt
5675 Beobachtungen. Dabei sind keine NaN-Werte vorhanden.
Im Ergebnis bilden somit zwei Datensätze die Datenbasis für die Zusammen-
hangsanalyse. Der erste Datensatz wird für die nachfolgende Analyse als Daten-
satz 1: without_pca.csv120 bezeichnet (Abbildung 12) und der zweite Datensatz
als Datensatz 2: pca.csv121 (Abbildung 13).
118 Vgl. Röser, A. M., Datenvorverarbeitung, 2023.
119 Vgl. Röser, A. M., Dataset nach DVV, 2023b.
120 Vgl. Röser, A. M., Dataset nach DVV, 2023a.
121 Vgl. Röser, A. M., Dataset nach DVV, 2023b.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
49
Abbildung 13: Übersicht über die wesentlichen Varianztreiber nach der Haupt-
komponentenanalyse
Quelle: Röser, A. M., Explorative Datenanalyse, 2023.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
50
4.4 Korrelation und Kausalität
Im Rahmen der explorativen Datenanalyse werden beide Datensätze untersucht.
Hierzu werden die Korrelationen der einzelnen Werte untereinander ermittelt.
Grafisch sind Variablen mit einer hohen positiven Korrelation hell und solche mit
einer Korrelation nahe null dunkel dargestellt. Dass zwischen den Einzelwerten
und den Werten des DAX® ein Zusammenhang besteht, ist nachvollziehbar, da
in der Grafik die 40 Werte des DAX® dargestellt wurden. Die Korrelation nahe null
zwischen den Umlaufrenditen und den anderen Variablen lässt zunächst keinen
Zusammenhang zwischen Zinsniveau und Kovariablen vermuten. Ebenso ist auf-
fällig, dass die Aktie des Industriekonzerns Linde mit keiner anderen Variable
korreliert.
Abbildung 14: Korrelationsübersicht
Quelle: Röser, A. M., Explorative Datenanalyse, 2023.
Obgleich die Darstellung in Abbildung 14 erste mögliche Zusammenhänge impli-
ziert, wird durch einen Korrelationszusammenhang keine Kausalität bewiesen.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
51
Demzufolge kann es sein, dass zwei Variablen zwar eine hohe Korrelation auf-
weisen aber kein Ursache-Wirkungs-Zusammenhang bzw. kein kausaler Zusam-
menhang besteht. Gründe dafür können weitere, ggf. unberücksichtigte Kovari-
ablen sowie die vorherrschende Unsicherheit sein.
4.5 Erste Vorüberlegungen
Um zu prüfen, inwiefern die Daten für die gewählte Analyse sinnvoll sind, wird als
erste Vorüberlegung eine weitere PCA durchgeführt. Deren Ziel besteht darin,
herauszufinden, ob die Faktoren kurzfristige und langfristige Umlaufrendite einen
wesentlichen Anteil an der Gesamtvarianz der Aktienwerte haben. Dabei wird
analog zum Abschnitt Datenherkunft und Datenvorverarbeitung vorgegangen.
Anders als bei der oben dargestellten PCA werden die Werte jedoch standard-
skaliert, da logarithmische Renditen im Falle von negativen Zinsen nicht abbild-
bar wären. Das Ergebnis der PCA zeigt, dass sowohl die kurzfristige als auch die
langfristige Umlaufrendite wesentliche Treiber der Gesamtvarianz sind.122 Dies
wird ebenfalls aus der Abbildung 15 deutlich. In dieser werden die 23 Variablen
dargestellt, die insgesamt 70 Prozent der Gesamtvarianz der standardisierten re-
lativen Aktienkursrenditen erklären.
122 Vgl. Röser, A. M., Einführende Analyse, 2023.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
52
Abbildung 15: Darstellung der Ergebnisse der Hauptkomponentenanalyse
Quelle: Röser, A. M., Einführende Analyse, 2023.
Nachdem die Umlaufrenditen somit als wesentlicher Faktor der Gesamtvarianz
identifiziert wurden, kann nachfolgend mit der Analyse des Zusammenhangs be-
gonnen werden.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
53
5 Implementierung der Neuronalen Netze
In diesem Kapitel folgt die Beschreibung der Implementierung der NN. In Ab-
schnitt 5.1 wird zuerst auf die Limitationen von stetigen Vorhersagen eingegan-
gen. Anhand der Umsetzung eines ersten NNs wird geprüft, ob die Daten eine
stetige Vorhersage ermöglichen oder ob sie mittels Data-Labeling angepasst
werden müssen. Im darauffolgenden Abschnitt 5.2 wird die Notwendigkeit des
Data-Labeling im Kontext der diskreten Modellierung dargestellt. Nachdem die
Vorgehensweise des Data-Labeling beispielhaft erläutert wurde, wird die Anwen-
dung auf den vorverarbeiteten Datensatz dargestellt. Abschnitt 5.3 umfasst die
Entwicklung unterschiedlicher NN zur Beantwortung der Fragestellung. Der Op-
timierungsbedarf der entwickelten Modelle wird in Abschnitt 5.4 mittels Hyperpa-
rameteroptimierung geprüft.
5.1 Limitationen stetiger Vorhersagen
Nachdem die Datenvorverarbeitung abgeschlossen wurde, folgt die Implemen-
tierung der NN. Der angenommene Zusammenhang zwischen Zinsniveau und
Aktien- bzw. Indexwerten kann mit der Formel 9 vereinfacht dargestellt werden.
Formel 9: Formaler Aufbau der Zusammenhangsbestimmung
ä= ä + (9)
ä  
Demnach stellt die Indexwertveränderung die zu erklärende Variable des NN dar.
Die erklärenden Variablen sind die gewichteten Wertveränderungen der einzel-
nen Aktienwerte sowie der Umlaufrenditen. Somit wird das NN verwendet, um
die Veränderungen des Indexwertes anhand der Veränderungen von Aktienwer-
ten und Umlaufrenditen zu begründen. Hierzu ist es zuerst notwendig, ein Modell
zu erstellen, das einen Großteil der Indexwertveränderungen erklärt. Im An-
schluss an die Modellierung des Zusammenhangs kann der Einfluss des Zinsni-
veaus interpretiert werden. Für alle Modellierungen wird der Datensatz in Trai-
nings- und Testdaten untergliedert. Das Training der NN erfolgt bei jedem Durch-
lauf anhand der Trainingsdaten (X_train und y_train). Hierbei beschreibt X_train
die X-Variablen, d. h. die jeweiligen Veränderungen der Aktienkurse sowie der
Umlaufrendite. Die Variable y_train steht für die Indexwertveränderung. Die Vali-
dierung erfolgt anhand des erstellten Testdatensatzes, d. h. der Restmenge des
ursprünglichen Datensatzes abzüglich des Trainingsdatensatzes (X_test und
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
54
y_test). Mit Hilfe der Testdatenmenge kann somit geprüft werden, inwiefern das
aufgestellte Modell auch bei neuen Daten adäquate Ergebnisse liefert.123
Hinsichtlich der Modellierung der NN gibt es zwei Möglichkeiten: Die erste davon
ist die Vorhersage von Indexwertveränderungen anhand der Veränderungen bei
den Aktienwerten sowie den Umlaufrenditen. Hierbei handelt es sich somit um
eine stetige Vorhersage. Bei dieser können die Werte der Variablen in einem
bestimmten Bereich schwanken. Dahingegen sind die Merkmalsausprägungen
bei diskreten Vorhersagen begrenzt. Das stetige Modell erkennt den Zusammen-
hang, wenn es einen Großteil der Indexwertveränderungen anhand der gegebe-
nen Input-Variablen genau erklären kann. Um bei einer stetigen Vorhersage adä-
quate Ergebnisse zu erzielen, ist in der Regel eine Vielzahl an Daten sowie In-
formationen notwendig. Bei stetigen Vorhersagen ist es somit entscheidend, so
viele Kovariablen wie möglich und nötig in das Modell aufzunehmen. Ein weiterer
Nachteil stetiger Modelle besteht darin, dass sie in der Regel komplexere Funk-
tionen benötigen, um die Daten gut abzubilden. Dies kann dazu führen, dass sie
anfälliger für Overfitting sind und daher schlechter auf neue Daten generalisieren
können. Overfitting bedeutet, dass die NN die Daten auswendig lernen, anstatt
die jeweiligen Zusammenhänge zu erkennen.124 Insgesamt sind stetige Modelle
zwar in der Lage, genaue Vorhersagen zu treffen, aber es sind auch einige Ein-
schränkungen zu berücksichtigen. Die zweite Möglichkeit stellen diskrete Vorher-
sagen dar. Diese Art von Vorhersage zeichnet sich durch eine begrenzte Anzahl
an Merkmalseigenschaften der jeweiligen Variablen aus. Diese Eigenschaften
können durch sogenanntes Data-Labeling auf Basis der vorverarbeiteten Daten
generiert werden.
Um zu prüfen, ob eine stetige Vorhersage adäquate Ergebnisse liefert, wird ein
erstes NN erstellt.125 Dieses basiert auf den Daten der Datenvorverarbeitung und
basiert auf dem erstellten Datensatz, für den keine PCA zur Reduktion der Di-
mensionen durchgeführt wurde.126
Das NN wird als sequenzielles TensorFlow-Modell mit der Keras-API erzeugt.
TensorFlow kann als Framework des maschinellen Lernens in unterschiedlichen
Umgebungen angewandt werden.127 Es handelt sich um ein Open-Source-Pro-
jekt, das vor allem in der Forschung auf dem Gebiet des maschinellen Lernens
123 Vgl. Raschka, S., Mirjalili, V., Machine Learning, 2021, S. 41.
124 Vgl. Sonnet, D., NN kompakt, 2022, S. 96.
125 Vgl. Röser, A. M., stetiges Modell, 2023a.
126 Vgl. Röser, A. M., Dataset nach DVV, 2023a.
127 Vgl. Keeton, K., TensorFlow, 2016, S. 265.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
55
eingesetzt wird. Der Schwerpunkt von TensorFlow liegt auf dem Training und der
Interpretation tiefer NN. TensorFlow wird beispielsweise zur Weiterentwicklung
von Google-Diensten verwendet.128 Beim angewandten sequenziellen Ten-
sorFlow-Modell handelt es sich um ein NN mit unterschiedlichen Schichten, die
in einer vorbestimmten Reihenfolge angeordnet sind. Dabei wird die Ausgabe
jeder Schicht als Eingabe der darauffolgenden Schicht verwendet.129 Es handelt
sich somit um einen linearen Stapel unterschiedlicher Schichten im NN. Das Mo-
dell hat insgesamt 42 Inputvariablen, die in der ersten Dense-Schicht mit insge-
samt 256 Neuronen verarbeitet werden.130 Eine Dense-Schicht beschreibt eine
vollständig verbundene Schicht in einem NN. Dies bedeutet, dass alle Neuronen
einer vorherigen Schicht mit denen der nachgelagerten Schicht verbunden
sind.131 Es wird die Rectified-Linear-Activation-Unit(ReLU)-Funktion genutzt. 132
Da laut den Annahmen der Zusammenhang zwischen Zinsniveau und Aktien-
bzw. Indexwerten keinen linearen Charakter hat, wird diese nichtlineare Aktivie-
rungsfunktion verwendet. Sie ist vor allem für das Lernen von komplexen Funkti-
onen innerhalb der NN geeignet und somit auch für den vorliegenden Fall.133
Nach der ersten Dense-Schicht folgt eine Drop-Schicht mit dem Wert 0,2. 134
Diese soll Overfitting verhindern, indem nach dem Zufallsprinzip 20 Prozent der
Neuronen während des Trainings deaktiviert werden. Hierzu wird der Output die-
ser Neuronen auf den Wert null gesetzt und das NN auf diese Weise ‚gezwun-
gen‘, über die verbleibenden Neuronen ein adäquates Ergebnis zu liefern.135 Auf
die Dropout-Schicht folgen weitere, vollständig verbundene Dense-Schichten mit
jeweils 126, 64 und 32 Neuronen. Auch diese Schichten verwenden die ReLU-
Aktivierungsfunktion und werden von Dropout-Schichten gefolgt. Den Abschluss
bildet eine Dense-Schicht mit lediglich einem Neuron und einer Sigmoid-Aktivie-
rungsfunktion.136 Diese Schicht liefert den Output des NN. Das NN wird mit dem
Adam-Optimierer und der MSE-Fehlerfunktion kompiliert.137 Optimierer werden
verwendet, um die Gewichtungen des NN während des Trainingsprozesses an-
zupassen und den Fehler des Modells, d. h. die Abweichung vom geschätzten
zum tatsächlichen Wert, zu minimieren. Der Adam-Optimierer ist ein sogenannter
128 Vgl. ebd.
129 Vgl. Chollet, F., sequenzielle Modelle, o. J.
130 Vgl. Röser, A. M., stetiges Modell, 2023a.
131 Vgl. Raschka, S., Mirjalili, V., Machine Learning, 2021, S. 487.
132 Vgl. Röser, A. M., stetiges Modell, 2023a.
133 Vgl. Raschka, S., Mirjalili, V., Machine Learning, 2021, S. 498.
134 Vgl. Röser, A. M., stetiges Modell, 2023a.
135 Vgl. Raschka, S., Mirjalili, V., Machine Learning, 2021, S. 568.
136 Vgl. Röser, A. M., stetiges Modell, 2023a.
137 Vgl. ebd.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
56
stochastischer Gradientenabstiegs-Optimierungsalgorithmus und stellt die Wei-
terentwicklung des klassischen Gradientenabstiegsverfahrens dar. Bei diesem
Optimierungsalgorithmus wird die Lernrate auf Basis der vergangenen Gradien-
ten kontinuierlich angepasst.138 Als Verlustfunktion wird die Mean-Squared-Er-
ror(MSE)-Funktion verwendet. Diese misst den Durchschnitt der quadratischen
Abweichungen zwischen den vorhergesagten und den tatsächlichen Werten.139
Die Formel unten zeigt die Berechnung der Fehlerfunktion.
Formel 10: Fehlerfunktion MSE
=
(yy)
 (10)
Quelle: Schröder, M. (Hrsg.), Finanzmarkt-Ökonometrie, 2012, S. 386.
Bei dieser Fehlerfunktion beschreibt die Anzahl der Datenpunkte, den tat-
sächlichen Wert des -ten Beispiels und den vorhergesagten Wert des Bei-
spiels. Ein niedriger MSE-Wert ist so zu interpretieren, dass die vorhergesagten
Werte dem tatsächlichen Wert sehr ähnlich sind.
Das Training erfolgt in zwanzig Epochen mit einer Batch-Größe von 25.140 Diese
beschreibt die Anzahl der Datenpunkte, die in einem Durchlauf durch das NN
verarbeitet werden. Eine geringe Batch-Größe kann zu einem schnellen Durch-
lauf bei ggf. geringerer Genauigkeit führen. Bei einer hohen Batch-Größe verhält
es sich andersherum. Die Epochen sind die Anzahl der Durchläufe eines NN
während des Trainings. Wenn das NN alle Datensätze einmal verarbeitet hat,
endet die jeweilige Epoche und eine neue beginnt. Nachdem das Modell kompi-
liert und mittels der X_train- sowie der y_train-Daten trainiert wurde, kann es an-
hand unterschiedlicher Fehlerwerte validiert werden. Da es sich bei der Imple-
mentierung dieses Modells um die Modellierung einer stetigen Vorhersage han-
delt, wird zur Beurteilung des Modells der Anteil an richtigen und falschen Vor-
hersagen auf Basis der Testdaten (X_test und y_test) ermittelt. Im Ergebnis er-
zielt das Modell lediglich 38,24 Prozent richtige Vorhersagen und hat somit einen
Fehleranteil von 61,76 Prozent. Die mittlere quadratische Abweichung (MSE)
liegt bei 0,0001.141 Um diese Werte interpretieren zu können und zu prüfen, in-
wiefern eine stetige Vorhersage im Vergleich zur diskreten Vorhersage
138 Vgl. Kingma, D. P., Ba, J., Adam-Optimierer, 2014, o. S.
139 Vgl. Schröder, M. (Hrsg.), Finanzmarkt-Ökonometrie, 2012, S. 386 f.
140 Vgl. Röser, A. M., stetiges Modell, 2023a.
141 Vgl. ebd.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
57
zielführend ist, wird im nächsten Abschnitt die Notwendigkeit von Data-Labeling
zur diskreten Modellierung dargestellt.
5.2 Notwendigkeit von Data-Labeling zur diskreten Modellierung
Um eine diskrete Vorhersage durchführen zu können, sind die bereits vorverar-
beiteten Daten in einen diskreten Kontext zu überführen. Dieser Prozess kann
als Data-Labeling beschrieben werden.
Data-Labeling gilt als Teilbereich des überwachten Lernens. Sein Hauptziel be-
steht darin, mit gelabelten Daten ein Modell zu trainieren, das anschließend Vo-
raussagen trifft. Dabei bezieht sich das Wort ‚überwacht‘ nicht auf das Modell,
sondern auf die Eingabedaten, die zur Modellierung mit Labeln versehen wur-
den.142 Exemplarisch kann Data-Labeling wie folgt erklärt werden:
Es ist eine große Datenmenge an Bildern mit unterschiedlichen Tieren vorhan-
den. Dafür soll ein Algorithmus entwickelt werden, der in der Lage ist, die Tiere
anhand von Merkmalen zu erkennen. Da die Ursprungsdaten lediglich die Bildin-
formationen enthalten, hat der Algorithmus keine Möglichkeit, die Tiere zu unter-
scheiden. Durch Data-Labeling werden jedem Datensatz bestimmte Merkmals-
ausprägungen zugewiesen, sodass der Algorithmus beispielsweise eine Klassi-
fizierung in die unterschiedlichen Tierarten vornehmen kann.
Analog zum Beispiel wird auch bei den vorverarbeiteten Daten der vorliegenden
Untersuchung vorgegangen. Hierzu werden die vorhandenen Datensätze143 wie
folgt angepasst:
Handelt es sich bei den x-Variablen um eine Aktienkursänderung, wird diese
mit Hilfe einer lambda-Funktion in den Wert 1 umgewandelt, sofern es um
eine relative Kurssteigerung geht. Bei fallenden Kursen wird der Wert mit 0
überschrieben.144
Handelt es sich bei den x-Variablen um die tägliche Umlaufrendite, wird diese
mit Hilfe einer Funktion mit Labels versehen. Hierzu werden, anders als bei
den Aktienwertveränderungen, drei Labels verwendet. Liegt die Änderung
der Umlaufrendite zwischen dem Minimum und dem 25 Prozent-Quantil, wird
diese mit dem Wert -1 überschrieben und steht für ein abfallendes
142 Vgl. Raschka, S., Mirjalili, V., Machine Learning, 2021, S. 30 f.
143 Vgl. Röser, A. M., Dataset nach DVV, 2023b; Vgl. Röser, A. M., Dataset nach DVV,
2023a.
144 Vgl. Röser, A. M., Labeling PCA, 2023; Vgl. Röser, A. M., Labeling ohne PCA, 2023.
Arbeitspapiere der FOM, Nr. 89, Röser: Neuronale Netze, Aktien und Zinsniveau
58
Zinsniveau. Befindet sich die tägliche Umlaufrendite zwischen dem 25 Pro-
zent-Quantil und dem 75 Prozent-Quantil, wird sie mit dem Wert 0 über-
schrieben. Das bedeutet ein gleichbleibendes Zinsniveau. Bei Umlaufrendi-
ten zwischen dem 75 Prozent-Quantil und dem Maximum wird von einer Stei-
gerung des Zinsniveaus ausgegangen und der Wert 1 eingesetzt.145
Handelt es sich um die y-Variable, wird zwischen einem Indexwertanstieg
und einem sinkenden Indexwert unterschieden. Auch dies geschieht mit Hilfe
einer Funktion. Dabei werden Indexwerte zwischen dem Minimum und dem
50 Prozent-Quantil als Abstieg gewertet und mit dem Wert 1 überschrieben.
Werte zwischen dem 50 Prozent-Quantil und dem Maximum werden als In-
dexwertanstieg interpretiert. Dementsprechend wird in diesen Fällen der
Wert 1 eingesetzt.146
Beim dargestellten Verfahren handelt es sich um eine Art des algorithmischen
Labeling. Durch die dynamische Programmierung können die Funktionen ohne
manuelles Eingreifen auf neue Datensätze angewandt werden.
Durch die Umsetzung des Labeling können im nachfolgenden Abschnitt NN zur
diskreten Vorhersage modelliert werden. Dabei ist anzunehmen, dass die Güte
des Modells im Vergleich zum dargestellten stetigen Modell ansteigt.
5.3 Entwicklung unterschiedlicher Neuronaler Netze
Nachdem in Abschnitt 5.1 bereits ein NN zur stetigen Vorhersage implementiert
wurde, wird der Vorgang nun mit einem NN zur diskreten Vorhersage wieder-
holt.147 Dementsprechend werden die aufgestellten Modelle erläutert und die da-
zugehörigen Kennzahlen interpretiert. Analog zum ersten NN wird auch in die-
sem Fall das Framework TensorFlow mit der Keras-API angewandt. Zunächst
wird ein NN mit gleicher Topologie wie bei der stetigen Vorhersage entwickelt,
um den Vergleich von ungelabelten und gelabelten Daten darzustellen. Das Trai-
ning erfolgt ebenfalls in zwanzig Epochen mit einer Batch-Größe von 25. Im Ver-
gleich zur stetigen Vorhersage wird bei der diskreten Vorhersage hinsichtlich der
Modellgüte ein wesentlich besseres Ergebnis erzielt. Das diskrete Modell sagt
ca. 88,81 Prozent der Testdaten richtig voraus.148 Das sind 50 Prozent mehr als
beim stetigen NN. Wenn es um diskrete Modelle geht, kann diese Art der
145 Vgl. Röser, A. M., Labeling PCA, 2023; vgl. Röser, A. M., Labeling ohne PCA, 2023.
146 Vgl. Röser, A. M., Labeling PCA, 2023; vgl. Röser, A. M., Labeling ohne PCA, 2023.
147 Vgl. Röser, A. M., klassisches NN, 2023a.
148 Vgl. ebd.
Arbeitspapiere der FOM, Nr. 89, Röser: NN-Analyse von Aktien & Zinsniveau
59
Überprüfung der falsch vorhergesagten Anteile als Zero-One-Loss beschrieben
werden. Der MSE, d. h. die Varianz der Vorhersagefehler, liegt bei 0,0889 im
Vergleich zu 0,0001 bei der stetigen Vorhersage.149 Dieser verhältnismäßig hohe
Wert kann beispielsweise auf der formelbedingten starken Gewichtung von Aus-
reißern basieren. Durch die quadrierten Terme der Formel (siehe Formel 10) wer-
den große Fehlerwerte stärker gewichtet als geringe Fehlerwerte. Das kann auch
im vorliegenden Fall ursächlich für die hohen Abweichungen sein.
Insgesamt kann auf Basis dieses ersten Vergleichs der Ergebnisse zwischen der
stetigen und der diskreten Vorhersage der Schluss gezogen werden, dass die
gegebenen Daten keine stetige Vorhersage ermöglichen. Nachdem festgestellt
wurde, dass das erste Modell mit den ungelabelten Daten nicht in der Lage ist,
exakte Werte vorherzusagen, wird im Folgenden nach den Ursachen dafür ge-
sucht. Hierzu werden die X- und die y-Werte anhand ihrer Häufigkeiten vergli-
chen. Die Analyse zeigt, dass der Datensatz zu 99,79 Prozent aus unterschiedli-
chen Werten besteht.150 Das bedeutet, dass im gesamten Datensatz lediglich
0,21 Prozent der Werte identisch sind. Aufgrund der hohen Ungleichheit ist es
somit nicht möglich, durch das NN stetige Vorhersagen durchzuführen. Es gibt
zu wenige Datenpunkte mit ähnlichen Werten, um Muster zu erkennen. Somit
muss eine diskrete Vorhersage erfolgen.
Weitere Modelle werden somit lediglich auf Basis der gelabelten Daten entwi-
ckelt.151 Nachdem das zuvor genannte Modell mit den gelabelten Daten ohne
Anwendung der PCA trainiert und validiert wurde, wird der Vorgang nun mit dem
reduzierten Datensatz nach Durchführung der PCA wiederholt.152 Zur Validie-
rung, inwiefern die Ergebnisse des Datensatzes vor und nach der Durchführung
der PCA passende Ergebnisse liefern, wird auch das erste Modell mit Daten nach
der Durchführung der PCA trainiert und validiert.
149 Vgl. ebd.; Vgl. Röser, A. M., stetiges Modell, 2023a.
150 Vgl. Röser, A. M., stetiges Modell, 2023b.
151 Vgl. Röser, A. M., Datenbasis nach Labeling & PCA, 2023; Vgl. Röser, A. M., Daten-
basis nach Labeling, 2023.
152 Vgl. Röser, A. M., klassisches NN nach PCA, 2023.
Arbeitspapiere der FOM, Nr.