Free Essay

Mathematical and Statistical Aspects of Analysing Stocks

In:

Submitted By risc9558
Words 18834
Pages 76
Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 1

1
1.1

Einführung
Ziel der Arbeit

Ziel dieser Arbeit ist die Einordnung, Darstellung, Erläuterung und Bewertung mathematisch-statistischer Verfahren zur Aktienkursprognose. In diesem Zusammenhang werden hierzu neben dem Fokus auf die Prognose von Aktienkursen bzw. -renditen auch die methodologischen Rahmenbedingungen der zugehörigen Finanzmarkttheorie sowie die grundsätzlichen Probleme bei der Anwendung von Prognoseverfahren auf Aktienkurszeitreihen angesprochen.

1.2

Einordnung der Thematik in den aktuellen Forschungsstand

Verfahren zur Prognose von Aktienkursen werden schon seit Bestehen von Börsen und anderen Handelsplätzen diskutiert. Somit hat das Thema dieser Arbeit seine ideellen Wurzeln in der von Charles H. Dow begründeten Lable Dow Theorie, die die Technische Aktienanalyse um 1900 begründete. Durch die ab 1965 von Eugene F. Fama proklamierten Thesen informationseffizienter Kapitalmärkte, nach der technische Aktienanalysen wirkungslos sind, erlebte die Kursprognose einen ersten Rückschlag. Die Thematik dieser Arbeit ist der Technischen Aktienanalyse zuzuordnen – nicht zuletzt wurde aber genauso Kritik an den Thesen informationseffizienter Kapitalmärkte geübt, sodass sich diese Antithese in neuerer Zeit verweichlicht hat. Die empirische Kapitalmarktforschung bemüht in letzter Zeit Ansätze des Forschungsgebietes der Behavioral Finance, die versuchen, diese Thesen und real beobachtbare Sachverhalte zusammenzuführen. Aktuelle Forschungen auf dem Gebiet der Aktienkursprognose versuchen, moderne statistische Verfahren zu entwickeln, die den Zufallscharakter und die teilweise hohe Volatilität der Aktienkurse bestmöglich modellieren können. Seit Mitte der 90er-Jahre des vergangenen Jahrhunderts wurde mehr und mehr innovativen quantitativen Verfahren der Neuroinformatik Aufmerksamkeit geschenkt. Diese Forschungen haben künstliche neuronale Netze als Gegenstand, an denen aktuell die Herausforderung nach Optimierung und besserer Prognosegüte besteht.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 2

1.3

Gang der Arbeit

Im Folgenden zweiten Kapitel werden zunächst die Thesen informationseffizienter Kapitalmärkte erläutert sowie die empirischen Erkenntnisse zu ihrer Gültigkeit dargelegt. Weiterhin werden die unterschiedlichen Finanzanalysemethoden erläutert und die im Weiteren zu betrachtenden mathematisch-statistischen Methoden von anderen Prognoseverfahren abgegrenzt. Im dritten Kapitel werden zunächst die Grundlagen und Eigenschaften von FinanzmarktZeitreihen erklärt und daraufhin einige einschlägige Prognoseverfahren – z. B. Regressionsanalyse, stochastische Prozesse und künstliche neuronale Netze – dargestellt und erläutert. Das vierte Kapitel stellt die grundlegenden Problematiken vor, welche bei der Anwendung der Prognoseverfahren auftreten können und berücksichtigt werden müssen. Die individuelle praktische Eignung der mathematisch-statistischen Prognoseverfahren wird im fünften Kapitel thematisiert und anhand einschlägiger wissenschaftlicher Fachliteratur und empirischer Studien bewertet. Das sechste Kapitel fasst die wesentlichen Aspekte zusammen und gibt einen Ausblick auf künftige Entwicklungen.

2

Methodologische Rahmenbedingungen der mathematischstatistischen Aktienkursprognose

Bevor die einschlägigen mathematisch-statistischen Verfahren zur Aktienkursprognose im Einzelnen dargestellt und erläutert werden, soll ein kurzer Einblick in die Theorie des Kapitalmarktes, genauer der Theorie der informationseffizienten Märkte und deren Hypothesen, gegeben werden, um das Verständnis für die Informationsverarbeitung auf diesen Märkten zu schärfen. Danach werden die Finanzanalyseverfahren1 voneinander abgegrenzt.

1

Zusätzlich zu den verschiedenen Finanzanalyseformen werden die quantitativen von qualitativen Verfahren abgegrenzt, siehe hierzu Abschnitt 2.2.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 3

2.1

Die Thesen des informationseffizienten Kapitalmarktes
„A market in which prices always „fully reflect“ available information is called „efficient“. “2 (Eugene F. Fama)

Nach diesem Zitat des Begründers der Theorie informationseffizienter Märkte, dem USamerikanischen Ökonomen Eugene F. Fama, ist ein Markt effizient, wenn sich jederzeit alle am Markt verfügbaren und relevanten Informationen korrekt in den Preisen der gehandelten Titel wiederspiegeln3. Eine wichtige Implikation auf diesem idealtypischen Markt ist der Sachverhalt, dass „ … sich die Preise bei einer neu zugehenden Information ohne zeitliche Verzögerung auf das der aktuellen Informationsmenge entsprechende Niveau einstellen.“4 Folglich ist in einem solchen (Kapital-)markt also kein Anleger in der Lage, auf Dauer Gewinne in Form von systematischen Überrenditen zu erzielen, die über der „normalen“ Marktrendite liegen. Der Erwartungswert der Überrendite beträgt also für jeden Marktteilnehmer nach dieser Theorie null Prozent. Die These von Fama sowie deren Weiterentwicklungen treffen folgende Annahmen:   die Erwartungen aller Marktteilnehmer und deren Implikationen der Informationen für den gegenwärtigen Kurs und die zukünftigen Kurse sind homogen5; die Marktteilnehmer unterliegen gleichen Zeitbeschränkungen, handeln rational und sind Preisnehmer, da der Markt zumindest auf Seite der Nachfrager eine atomistische Struktur aufweist;  es herrschen die Bedingungen eines friktionslosen Marktes, da weder Informationsnoch Transaktionskosten existieren6. Gleichzeitig ist noch die unendlich schnelle Anpassungsgeschwindigkeit der Kurse 7 auf Informationsveränderungen nötig, ein Fakt, der in der Realität aufgrund seiner Natur nicht eintreten kann. Wird von diesem Aspekt Abstand genommen, ist immer noch nicht mit einer unendlichen Anpassungsgeschwindigkeit zu rechnen, wenn das Sammeln und Auswerten Kosten verursacht; damit müsste die Annahme eines friktionslosen Marktes ver-

2 3

Eugene F. Fama (1970), S. 383 Vgl. Schnittke (1989), S.10; Schmid/Trede (2005), S. 151; Spremann (2008), S. 44 4 Drukarczyk (1993), S. 84 5 Vgl. Schmid/Trede (2005), S. 151 6 Vgl. Fama (1970), S. 387 f. 7 Durch Angebot- und Nachfrageabgleich in Form von Kauf- und Verkaufsaufträgen (Orders) der Marktteilnehmer an der Börse kommen die Kurse zustande.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 4

worfen werden8 – in der Realität kann davon klar ausgegangen werden. Außerdem spielen in der Realität auch die faktische Irrationalität der Anleger sowie ihre Emotionen eine sehr wichtige Rolle; dies sind Sachverhalte, welche vor allem in der Markttechnischen Analyse9 untersucht werden. Um nun Märkte bezüglich ihrem Grad der Informationseffizienz einordnen zu können, hat Fama seine These nach der betreffenden Informationsmenge in drei Teilthesen unterteilt: die schwache, mittelstarke und starke Form der Informationseffizienz. Von schwacher über mittelstarker bis hin zur starken Form nimmt hierbei jeweils die Menge der zu verarbeitenden bzw. schon im Kurs enthaltenen Informationen zu. Die drei Teilthesen „ … schließen sich somit nicht gegenseitig aus, sondern bauen vielmehr aufeinander auf“10. Im Folgenden werden diese Teilthesen nun genauer betrachtet.

2.1.1 Die schwache Form der Informationseffizienz Diese Teilthese besagt, dass der Markt bezüglich historischer Aktienkurs- und Umsatzzeitreihen effizient ist. Konkret bedeutet dies, dass die Preise der auf dem Kapitalmarkt gehandelten Titel zu jedem Zeitpunkt dem Stand der Informationen über das bisherige Marktgeschehen und der auf deren Grundlage möglichen Prognosen11 entsprechen. Eine Annahme insbesondere der Chartanalyse12 ist, dass Marktvorgänge der Vergangenheit Schlüsse auf die Zukunft in Form von wiederkehrenden Verlaufsmustern zulassen – Falls nun die aufgrund der o. g. Informationsmenge prognostizierbare Kursentwicklung13 vom Markt automatisch und unverzüglich vorgenommen wird, so ist der Kapitalmarkt informationseffizient im schwachen Sinne. Folglich kann kein Marktteilnehmer allein durch Kenntnis dieser Informationen langfristig eine systematische Überrendite erzielen – die Chartanalyse, welche eben diese Informationen verarbeitet, ist nach dieser Teilthese also wirkungslos.
8 9

Vgl. Franke/Hax (2009), S. 437 Näheres hierzu in Abschnitt 2.2. 10 Schnittke (1989), S. 13 11 Hier wird insbesondere eine weitere wichtige Eigenschaft des informationseffizienten Marktes angesprochen: Marktteilnehmer antizipieren im Idealfall alle richtig, d. h. sie treffen auf Basis der ihnen zur Verfügung stehenden Informationen immer die richtigen Prognosen – mehrere isolierte Informationen lassen im Zusammenspiel gegebenenfalls auch zusätzliche Implikationen zu. 12 Genaueres zur Chartanalyse siehe Abschnitt 2.2. 13 Es sind ja auch in den Verlaufsmustern des Aktienkurses die für die Prognose künftiger Kurse relevanten Informationen eingepreist – Näheres hierzu siehe Drukarczyk (1993), S. 85 sowie Franke/Hax (2009), S. 436.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 5

Die Grundaussage der schwachen Form der Informationseffizienz in Anbetracht der Aktienkursprognose lässt sich so wie folgt zusammenfassen: Es ist nicht möglich, mit vergangenen Aktienkurs- und Umsatzzeitreihen (sog. Charts) zukünftige Kurse gut zu prognostizieren14 – der beste Schätzer für den folgenden Kurs ist der aktuelle Kurs15. An dieser Stelle sei auch noch einmal auf die sog. Random-Walk-Hypothese verwiesen, welche besagt, dass Aktienkurse nicht prognostizierbar sind. Diese Hypothese setzt einen informationseffizienten Kapitalmarkt voraus und beschreibt die mathematisch-statistische Kursbewegung von Aktien, welche einem Zufallspfad folgen. Die mathematischstatistische Formulierung eines Random-Walks gestaltet sich wie folgt:
K n   t t 1 n

mit  t ~ i.i.d . 0, 2





Dabei entspricht K n dem Kurs zum Zeitpunkt n und  t einem Zufallsschock, wobei dieser als unabhängige und identisch verteilte Zufallsvariable angesehen wird16. Bezieht man den stochastischen Prozess17 eines Random-Walks auf die Ausprägungen eines Aktienkurses, so gelangt man zum einfachen Random-Walk-Modell:
K n  K n1   t mit  t ~ i.i.d . 0, 2





Hierzu wird der Startwert K0  0 gesetzt18. Dieses Modell kann man auch noch um einen Trend erweitern – der sog. Random-Walk mit Drift19:
K n  µ  K n1   t mit  t ~ i.i.d . 0, 2





Zusammenfassend kann man sagen, dass die Random-Walk-Hypothese die schwache Form der Informationseffizienzhypothese impliziert. Sollten nämlich die Aktienkurse einem durch die Random-Walk-Theorie beschriebenen Zufallspfad folgen, so ist es nicht möglich, Prognosen über die Zukunft auf Basis vergangenheitsbezogener Informationen zu

14 15

i. S. e. Erzielens einer langfristigen systematischen Überrendite – vgl. Schröder (2012), S. 22 Vgl. Schnittke (1989), S. 14 16 Diesen Sachverhalt bezeichnet man in der Wissenschaft als sog. White-Noise-Prozess. 17 Zur Definition eines stochastischen Prozesses siehe Abschnitt 3.1. 18 Vgl. Schmid/Trede (2005), S. 122 19 In der Literatur gibt es eine Reihe von statistischen Tests, mit denen man die Gültigkeit der Nullhypothese „Kn ist ein Random-Walk“ überprüfen kann – siehe hierzu Schmid/Trede (2005), S. 153 ff.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 6

machen, da die Aktienkursänderungen stets unabhängig von Marktereignissen der Vergangenheit sind20.

2.1.2 Die mittelstarke Form der Informationseffizienz Diese Teilthese vergrößert nun im Vergleich zu ihrem schwachen Pendant die Menge der eingepreisten Informationen. Zusätzlich zu den historischen Kurs- bzw. Umsatzzeitreihendaten sind nach der mittelstarken Form der Informationseffizienzhypothese nun auch noch sämtliche öffentlich verfügbaren Informationen in den Aktienkursen eskomptiert. Hier werden also auch Fundamentaldaten der Unternehmen, wie z. B. Jahresabschlussdaten in Form von Bilanzkennziffern, Daten und Verhältniskennzahlen der Gewinn- und Verlustrechnung, sowie makroökonomische Daten21 und Branchen- und Wirtschaftsberichte berücksichtigt. Ebenfalls berücksichtigt werden auch Informationen aufgrund der Ad-HocPublizitätspflicht großer Kapitalgesellschaften, wie z. B. Gewinnwarnungen, Kapitalerhöhungen oder Meldungen über Dividendenhöhen und Aktiensplitts22. Nach der mittelstarken Form der Informationseffizienz eignen sich somit auch alle öffentlich verfügbaren Informationen nicht dazu, Zwecken der Identifikation über- bzw. unterbewerteter Aktien zu dienen und daraufhin durch geeignete Kauf- bzw. Verkaufsaktionen langfristig systematische Überrenditen zu erzielen, da sich ja die Aktienkurse nach Bekanntwerden neuer relevanter Informationen mit unendlicher Geschwindigkeit 23 auf das neue Niveau ändern. Um die Aussagen auf die Prognose von Aktienkursen zu beziehen: Informationen der mittelstarken Form der Informationseffizienz haben also keine Prognosekraft für zukünftige Aktienkurse – hiermit wird die Finanzanalyse und -prognose auf Basis der Fundamentalanalyse24 hinfällig und zwecklos. Im Sinne der mittelstarken Form bestünde nur noch durch Ausnutzen von Insiderinformationen die Möglichkeit, mit ihnen durch geeignetes

20

Dieser Sachverhalt wird durch die Einbeziehung der unabhängig und identisch verteilten Zufallsvariable ε begründet. 21 Beispiele hierfür sind etwa Zinsentwicklungen, Wechselkursentwicklungen, Daten über die Entwicklung des Bruttoinlandsproduktes und Import/Export-Quoten u. a. 22 Vgl. Schnittke (1989), S. 15 23 Eine unendlich hohe Anpassungsgeschwindigkeit der Aktienkurse auf neue Informationen ist, wie in Abschnitt 2.1 beschrieben, Grundannahme der Thesen informationseffizienter Kapitalmärkte. 24 Genaueres zur Fundamentalanalyse siehe Abschnitt 2.2.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 7

Handeln an der Börse wirklich Überrenditen zu erzielen – Genaueres hierzu liefert der folgende Abschnitt.

2.1.3 Die starke Form der Informationseffizienz „The market is efficient if even a skilled investor has no sure advantage.“25 Dieses Zitat von Gourieroux/Jasiak erklärt sich durch die dritte Teilthese der Informationseffizienz – sie umschreibt das höchste Effizienzniveau. Demnach ist der Kapitalmarkt bezüglich aller überhaupt verfügbaren Informationen effizient. Hier entspricht der Wert eines Wertpapieres exakt seinem Preis. Zusätzlich zu der Informationsmenge aus der mittelstarken Form fallen hierunter nun auch noch Insiderinformationen, wie z. B. Informationen über Vorstandswechsel, Änderungen in der Struktur von Geschäftsfeldern des Unternehmens, Fusionen und Übernahmen – kurzum eben alle wichtigen Sachverhalte, welche die strategische Ausrichtung eines Unternehmens und damit die Gewinn- und Dividendenerwartungen betreffen. Dieser Informationsstand muss im Gegensatz zu Informationen der schwachen und mittelstarken Form nicht jedem Marktteilnehmer allgemein öffentlich zugänglich sein26. Insider sind Personen, welche um monopolistische Informationen verfügen: das können z. B. Aufsichtsräte, Vorstände und Mitarbeiter des Unternehmens, Unternehmensberater und Wirtschaftsprüfer sein. Diese Teilthese besagt, dass es auch durch das Wissen dieser monopolistischen Informationen nicht möglich ist, langfristig systematische Überrenditeeffekte zu erzielen. In Anbetracht der Prognose von Aktienkursen ist somit jede Prognosemethode sinnlos, da ja hier alle nur erdenklichen, relevanten und den Aktienkurs bestimmenden Informationen unendlich schnell eingepreist werden. Ist ein Kapitalmarkt also stark informationseffizient, so schützt dieser Idealmarkt alle Anleger vor Überbevorteilung, d. h. vor „Ausbeutung“ durch andere Marktteilnehmer, wie z. B. o. g. Insider27. Meinungen in der wirtschaftswissenschaftlichen Literatur räumen teilweise die Möglichkeit ein, auf kurze Sicht Überrenditen zu erzielen. Dies können Insider z. B. dadurch erreichen, indem sie aufgrund ihres Informationsvorsprungs am Markt vor-

25 26

Gourieroux/Jasiak (2001), S. 41 Vgl. Franke/Hax (2009), S. 435 27 Vgl. Drukarczyk (1993), S. 86

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 8

sichtig agieren, d. h. kleine Volumina handeln, um so eine schnelle Anpassung der Kurse aufgrund des Angebot- und Nachfrage-Mechanismus zu verhindern28.

Abbildung 1: Darstellung der verschiedenen Informationsmengen zu den drei Teilthesen

2.1.4 Empirische Erkenntnisse zur Gültigkeit der Informationseffizienzhypothese Im Rahmen der empirischen Kapitalmarktforschung ist es von großem praktischem Interesse, wie effizient ein Kapitalmarkt ist, d. h. welcher Grad an Informationseffizienz ihm zugeschrieben werden kann. Grundlagen der empirischen Untersuchungen sind Modelle informationseffizienter Kapitalmärkte, wie z. B. das Fair-Game-Modell, das Martingal/Submartingal-Modell sowie die Random-Walk-Hypothese und das Capital Asset Pricing Model (CAPM). Viele Tests zur empirischen Überprüfung der Informationseffizienz sind wie folgt aufgebaut: „Prüfe, ob es mit der einen oder anderen Taktik möglich ist, mehr

28

Einen guten Einblick in dieses Szenario geben Franke/Hax (2009), S. 435 f.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 9

Rendite zu erhalten als man (mit Buy-and-Hold) erwarten kann29.“ Dies führt zum eigentlichen Testen zweier Hypothesen, nämlich erstens der Überprüfung der These informationseffizienter Kapitalmärkte und zweitens des Modells, mit dem die zu vergleichende Benchmarkrendite ermittelt wird30 – in praxi wird dies mit dem Problem der Verbundhypothese (engl.: joint hypothesis) thematisiert. Man testet folglich die Verbundhypothese, die aber keine eindeutige Aussage über die Gültigkeit der Informationseffizienz treffen lässt. Widersprechen nun beobachtete Aktienkurse den Kursprognosen des unterstellten Preisbildungsmodells, so lässt dies nämlich drei Interpretationen zu31:    entweder bewahrheitet sich das zugrunde gelegte Preisbildungsmodell und der beobachtete Kapitalmarkt ist nicht informationseffizient, oder der beobachtete Kapitalmarkt ist informationseffizient und das zugrunde gelegte Preisbildungsmodell erweist sich als falsch, oder weder ist der beobachtete Kapitalmarkt informationseffizient noch trifft das unterstellte Preisbildungsmodell zu. Dieses Problem der Verbundhypothese kann nicht eindeutig gelöst werden – vielmehr muss man die Richtigkeit des gewählten Preisbildungsmodells, wie z. B. des CAPM, als Annahme voraussetzen. Viele empirische Studien gelangen dadurch auch zu unterschiedlichen Ergebnissen. Man kann folglich einige Pro- und Kontra-Argumente bezüglich des Vorliegens von Informationseffizienz auf Kapitalmärkten gegenüberstellen. Für das Vorliegen sprechen zum einen die durch Solnik (1973) nachgewiesene, sehr geringe positive serielle Korrelation deutscher Aktienrenditen, was zumindest auf einen schwach informationseffizienten Markt schließen lässt32. Weiterhin bestätigen die von Fama et al. (1969) angestellten Untersuchungen der Effekte von Aktiensplits das Vorliegen von mittelstarker Informationseffizienz33. Zum selben Ergebnis kommen Elton et al. (1993), die Sachverhalte in Fonds untersuchten – so besitzen die Fondsmanager i. A. ja auch „nur“ öffentlich zugängliche Informationen34. Dem können aber auch empirische Fakten gegenüber gestellt werden, die gegen Informationseffizienz sprechen. Gegenargumente bestehen z. B. in den in der Realität
29 30

Spremann (2008), S. 162 Meistens wird hierzu das CAPM verwendet. 31 Vgl. Kopp (1995), S. 104 f. 32 Vgl. Solnik (1973) 33 Vgl. Fama et al. (1969) 34 Vgl. Elton et al. (1993)

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 10

vorkommenden Marktanomalien, wie bestimmten Renditesaisonalitäten oder bestätigten Trend- und Sentimentindikatoren35. Zu den Renditesaisonalitäten gehören bspw. der Januar- und der Kleinfirmeneffekt, welche u. a. in den Studien von Schnittke (1989) und Banz (1981) nachgewiesen wurden36. Gewiss zeugen Untersuchungen derartiger Studien zwar von stochastischer Persistenz und weisen damit eine geringe Verlässlichkeit auf, trotzdem ist hiermit aber die Gültigkeit informationseffizienter Kapitalmärkte – nach der solche Effekte ja eigentlich eingepreist sein müssten – zu hinterfragen. Weitere Untersuchungen beobachten Effekte während und nach Börsencrashs, die auf irrationale Marktteilnehmer schließen lassen und sich folglich gegen Vorliegen von Informationseffizienz aussprechen37. Schlussendlich konnten bisher keine eindeutigen und endgültigen Aussagen getroffen werden. So wird die Informationseffizienzhypothese an sich z. B. von Schredelseker (1984) klar verworfen38. Andere Meinungen und Ergebnisse von Studien kommen zu dem Ergebnis, dass der deutsche und amerikanische Aktienmarkt zumindest mittelstark informationseffizient sind39 – das Ideal eines stark informationseffizienten Kapitalmarktes würde lediglich ein „gedankliches Konstrukt40“ darstellen und in der Realität nicht existieren41: „Since there are surely positive information and trading costs, the extreme version of the market efficiency hypothesis is surely false.”42 Auch würde bei starker Informationseffizienz ein Informationsparadoxon43 auftreten – da bereits alle relevanten Informationen eingepreist wären, würde die Motivation, Informationen – auch durch der mit Kosten verbundenen Sammlung derselben – zu sammeln, entfallen. Auf jeden Fall muss man aufgrund der Negation von Pauschalaussagen bei Einordnung eines Marktes in dessen jeweilige Informationseffizienzstufe immer u. a. den spezifischen
35

Einen guten Einblick bzgl. empirischer Argumente für und gegen das Vorliegen von Informationseffizienz auf Kapitalmärkten gibt u. a. Sattler (1999), S. 129 ff. 36 Vgl. Schnittke (1989), S. 178 ff. sowie Banz (1980). 37 Derartige Studien werden insbesondere im Bereich der Behavioral Finance angestellt. 38 Vgl. Schredelseker (1984), S. 44 39 Im Gegensatz dazu die Studie von Kopp (1996), S. 105 f. und S. 135, die den deutschen Aktienmarkt aufgrund mangelnder Vollständigkeit und unverzüglicher Einpreisung von Informationen in Preise sogar nur als schwach informationseffizient beschreibt. Die herrschende Meinung geht jedoch von einer mittelstarken Effizienz aus. 40 Vgl. Schnelle (2009), S. 76 41 Vgl. Möller (1985), S. 500-516 42 Eugene F. Fama (1991), S. 1575 43 Vgl. Grossman/Stieglitz (1980)

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 11

Markt, das Marktsegment, die geographischen Gegebenheiten und die vorherrschenden institutionellen und administrativen Marktrahmenbedingungen berücksichtigen. Alles in allem werden Aktienmärkte nach herrschender Meinung als mittelstark informationseffizient eingestuft, da ihre Hypothese nur in manchen Fällen mit niedriger Signifikanz verworfen werden kann44. Folglich lässt sich Insiderwissen zumindest kurzfristig nutzen45, um systematische Überrenditen zu erzielen. Aktienmärkte sind vor allem in heutigen Zeiten hocheffizient, jedoch auch von Emotionen geprägt, die die Grundannahmen der Informationseffizienzhypothese in praxi zu restriktiv erscheinen lassen.

2.2

Abgrenzung der mathematisch-statistischen Prognoseverfahren von anderen Prognosemethoden

Der prinzipielle Unterschied der im folgenden Kapitel dargestellten mathematischstatistischen Verfahren zur Aktienkursprognose im Vergleich zu den restlichen Methoden besteht darin, dass diese quantitativer Natur sind und sich auf vergangene Ausprägungen (Zeitreihen, Tabellen, Daten etc.) stützen, um so geeignete Prognosen zu erstellen versuchen. Allen Verfahren ist jedoch gemeinsam, durch Informationssammlung, -aufbereitung und auswertung unter bzw. überbewertete Wertpapiere ausfindig zu machen und durch darauffolgende Kauf- bzw. Verkaufshandlungen Überrenditen zu erzielen, welche i. A. größer sind als sog. Benchmarkrenditen46.

44 45

Vgl. Spremann (2008), S. 160 sowie S. 163 Wenngleich dieser Insiderhandel auch gesetzlich geregelt wird. 46 Zur Erklärung und den Problemen der Benchmarkrendite siehe Abschnitt 4.3.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 12

Abbildung 2: Die beiden Grundformen der Finanzanalyse sowie der in ihnen verarbeiteten Informationsmengen47 Die Finanzanalyseformen kann man allgemein in Technische Analyse und Fundamentalanalyse unterteilen, wobei sich die Technische Analyse noch weiter untergliedern lässt. Wie aus Abbildung 2 hervorgeht, kann man diese grundlegenden Finanzanalyseformen nach Art der verwendeten Informationsmenge unterscheiden48. Im Folgenden werden die einzelnen Analyseformen kurz vorgestellt. Die Chartanalyse, auch als praktische Finanzanalyse bezeichnet, untersucht und beurteilt hauptsächlich Wertpapierkursverläufe oder Börsenindizes. Ihr Untersuchungsgegenstand sind die (Börsen-)Charts, d. h. Diagramme49, die den Kursverlauf eines Wertpapiers oder eines Börsenindex über einen bestimmten Zeitraum darstellen. Dabei trifft sie die Annahme, dass in Börsenkursen wiederkehrende, beobachtbare Ereignisse (Muster) existieren50,

47 48

Vgl. hierzu Abschnitt 2.1. Vgl. Poddig/Brinkmann/Seiler (2009), S. 18 49 Auf der Abszisse eines Charts wird die Zeit, auf der Ordinate der Kursbetrag abgetragen. Am gebräuchlichsten sind die sog. Balken- bzw. Liniencharts (klassische Charts), seltener werde auch neuere Formen, wie z. B. die aus Japan bekannten Candlestick-Charts oder die amerikanischen Point&Figure-Charts verwendet – vgl. hierzu Vieker (1993), S. 9 f. 50 Sog. Formationen und andere Indikatoren.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 13

die sich über die Zeit gesehen wiederholen und so, wenn sie einmal erkannt wurden, Prognosen voraussichtlicher Kursentwicklungen zulassen und geeignete Kauf- bzw. Verkaufszeitpunkte festzulegen versuchen51. Das Credo der Chartanalyse ist also, dass sämtliche entscheidungsrelevante Informationen über die Vergangenheit und die Zukunft bereits in den historischen Charts enthalten sind – sie müssen demnach nur erkannt und richtig interpretiert werden. Zu den klassischen Analysemethoden der Chartanalyse gehören u. a. die Trendanalyse52, die gleitenden Durchschnitte, die Formationsanalyse sowie der AdvanceDecline-Index und die Candlestick-Analyse53. Im Weiteren werden auch Kurs-UmsatzAnalysen durchgeführt, zumal einige Charts nicht nur die Kurse, sondern auch die Umsatzverläufe (Handelsvolumina) darstellen. Die Markttechnische Analyse versucht, im Gegensatz zur Chartanalyse, die Kursverläufe nicht auf Basis verschiedener Muster in historischen Charts, sondern vielmehr aufgrund des unterschiedlichen Verhaltens der verschiedenen Marktteilnehmergruppen mit ihren teilweise divergierenden Handelsstrategien zu erklären. Ihr Ziel ist die Ermittlung potentieller Kaufkraft für Aktien bzw. die Messung des Angebotsdrucks 54. Sie betrachtet also direkt das Marktgeschehen und geht davon aus, dass sich beobachtbare Kursverläufe aus eben diesen (o. g.) unterschiedlichen Verhaltensweisen ergeben. Für die Markttechnische Analyse spielen folglich auch noch emotionale Faktoren eine Rolle – ein eigenes Forschungsgebiet hierfür bildet die Verhaltensökonomik oder auch „Behavioral Finance“. Zu den typischen Indikatoren der Markttechnischen Analyse zählen u. a. der Umsatzverlauf, die Kursvolatilität und geeignete Stimmungsindikatoren, wie z. B. die Put/Call-Ratio oder Umfragen55. Die Technische Analyse ist der Oberbegriff für die Chart-, Markttechnische und moderne Zeitreihenanalyse. Sie versucht, Prognosen über zukünftige Kursverläufe von Aktien, Indizes oder anderen Finanzinstrumenten durch Untersuchung von Börsenkursen und verschiedenen abgeleiteten Kennzahlen herzuleiten. Zu den Analyseobjekten der Technischen Analyse gehören hauptsächlich Aktiencharts und Tabellen. Im Gegensatz zur Fundamentalanalyse berücksichtigt die Technische Analyse damit keine betriebswirtschaftlichen
51

Umfassende Theorien hierzu wurden u. a. von den US-Amerikanern Charles H. Dow und Ralph N. Elliott entwickelt. 52 Eine weitere Aussage der Chartanalyse ist, dass sich Kurse in Trends bewegen, und zwar solange, bis die Trendumkehr definitiv signalisiert wurde – vgl. hierzu Vieker (1993), S. 10 53 Einen umfassenden Einblick in die Chartanalyseformen gibt Welcker (1994). 54 Vgl. Vieker (1993), S. 14 55 An dieser Stelle kann auf das Gebiet der Sentimentalanalyse verwiesen werden – einen tieferen Einblick hierzu gibt Vieker (1993), S. 14 ff.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 14

Kennzahlen oder Makrodaten. Somit basieren ihre Analysen „ … also rein auf Daten, die aus dem Börsengeschehen selbst gewonnen werden.56“ Wie bereits in Abschnitt 2.1 erläutert, hat schon bei Gültigkeit der schwachen Form der Informationseffizienz die Technische Analyse keine Daseinsberechtigung – vielmehr setzt sie Informationsdiffusion57 voraus, da es ja ansonsten nicht möglich wäre, durch vergangenheitsbezogene Kursdaten zukünftige Verläufe zu prognostizieren und auf dieser Basis Überrenditen zu erzielen. Die Fundamentalanalyse, welche durch den US-Amerikaner Benjamin Graham begründet wurde58, bezieht unternehmensspezifische Kennzahlen und gesamtwirtschaftliche Daten mit ein. Dem Ziel, Kaufs- bzw. Verkaufssignale zu ermitteln, geht die Ermittlung des sog. inneren Wertes einer Aktie voraus. Darunter versteht man den fairen oder angemessenen Preis eines Titels, der nicht unbedingt seinem tatsächlichen Marktwert entsprechen muss – er soll also aufgrund o. g. Informationsbasis das langfristige Erfolgspotential eines Unternehmens wiederspiegeln. Dazu wenden Fundamentalisten Methoden der Bilanzanalyse59 an und bilden aktienkursbezogene Verhältniszahlen, wie z. B. das Kurs-Gewinn-, das Kurs-Buchwert- und das Kurs-Cashflow-Verhältnis, die Gesamtkapitalrentabilität, die Eigenkapitalquote sowie die Dividenden- und Umsatzrendite60, welche dann individuell gewichtet und weiterverrechnet werden. Ist der innere Wert ermittelt, wird er mit dem tatsächlichen Marktwert verglichen: notiert der aktuelle Börsenkurs unter dem errechneten inneren Wert des Titels, so wird dies als Kaufsignal interpretiert – übertrifft er den inneren Wert, so ist dies als Verkaufssignal anzusehen. Schlussendlich lassen sich Prognoseverfahren neben der Art der verwendeten Informationen auch noch nach der Art der verwendeten Analysetechnik unterscheiden61. Demnach kann man in qualitative und quantitative Prognosemethoden differenzieren. Zu den qualitativen Verfahren gehören u. a. die Delphi-Methode, die Szenario-Technik, sowie das PanelKonsens-Verfahren und die Historische Analogie. Wichtige quantitative Verfahren stellen die im Rahmen der Abbildung 2 eingeordneten modernen zeitreihenanalytischen Verfah-

56 57

Vieker (1993), S. 7 Informationsdiffusion ist hier gleichzusetzen mit Informationsineffizienz. Informationen, welche Aktienkurse beeinflussen können, dürfen demnach also erst mit einem bestimmten zeitlichen Verzug eskomptiert werden – Testverfahren hierzu sind z. B. sog. Event-Studies. 58 Vgl. Spremann (2008), S. 59 59 Die zwei wesentlichen Methoden sind Ertragswert- und Substanzwertmethode – Nähere Beschreibungen hierzu siehe Welcker (1994), S. 17 f. 60 Dies sind nur einige bekannte Kennzahlen – Franke/Hax (2009) geben auf S. 439 weitere Indikatoren an. 61 Einen guten Überblick zur Einteilung finanzanalytischer Verfahren (dies würde den Rahmen dieser Arbeit sprengen) liefern Poddig/Brinkmann/Seiler (2009), S. 20.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 15

ren, wie z. B. die exponentielle Glättung, die Regressionsanalyse und die Modellierung mit Hilfe stochastischer Prozesse dar. Weiterhin gehören zu den quantitativen Verfahren die Monte-Carlo-Simulation, die modernen Ansätze der Neuroinformatik mittels künstlicher neuronaler Netze (KNN) sowie weitere ökonometrische Verfahren. Einige der o. g. Prognoseverfahren werden nun im Folgenden dritten Kapitel dargestellt.

3

Verfahren zur Aktienkursprognose62

Vorab soll kurz auf den Unterschied von Analyse und Prognose eingegangen werden. Unter Analyse versteht man eine systematische Untersuchung eines Sachverhaltes, bei welcher das zu analysierende Objekt zunächst in seine Bestandteile zerlegt wird und daraufhin diese Bestandteile geordnet, untersucht und ausgewertet werden. Das Ziel der Analyse ist die Feststellung eines Ist-Zustandes und dessen Eigenschaften, das Festmachen herausragender Merkmale63 und weiterhin die Feststellung von Fakten oder Einflussfaktoren, welche – vor allem im betriebswirtschaftlichen Sinne – zu einer Optimierung des IstZustandes beitragen. Dazu bedient sich die Analyse im Rahmen der Aktienanalyse vorwiegend statistischer Methoden. Man spricht dann von Datenanalyse, welche sich grundsätzlich in die Auswertung und die Interpretation der Daten aufteilen lässt. Im Gegensatz dazu liefert die Prognose Aussagen über die voraussichtliche Entwicklung von Zuständen in der Zukunft. Ihre Grundlage sind die mittels der Analyse entschlüsselten Fakten, deren Interdependenzen im Voraus berücksichtigt werden müssen. Sodann können mit Hilfe von Prognosemethoden mit einer gewissen Wahrscheinlichkeit Aussagen über o. g. zukünftige Entwicklungen getroffen werden. Im Folgenden werden nun die wichtigsten Eigenschaften von Finanzmarkt-Zeitreihen erläutert, da diese für die Modellierung eine wichtige Rolle spielen, und die Prognoseverfahren dargestellt.

3.1

Grundlagen und statistische Eigenschaften von Finanzmarkt-Zeitreihen

Im Rahmen der Aktienkursprognose werden Zeitreihen von Finanztiteln analysiert bzw. prognostiziert. Eine Zeitreihe ist eine zeitabhängige Folge
62

 X t t

von Beobachtungen

Im Rahmen dieser Arbeit können nicht alle ökonometrischen Prognosemethoden berücksichtigt werden – der Verfasser hat sich folglich auf die wichtigsten konzentriert. 63 Vgl. Harvey (1995), S. 1

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 16

einer Größe X 64, die zu regelmäßigen Zeitpunkten erhoben werden. Dies impliziert diskrete Zeitreihen, d. h. die Daten werden also nur zu bestimmten, vorher festgelegten Zeitpunkten erhoben bzw. errechnet, was bei Finanztiteln durchaus unterstellt werden kann65,66. Für die Modellbildung wird eine Zeitreihe als datengenerierender Prozess angesehen – diese Folgen von Zufallsvariablen spielen dabei in Form stochastischer Prozesse eine wichtige Rolle. Ein stochastischer Prozess ist eine Folge  X t  von Zufallsvariablen. Der Index t ist dabei als laufender Zeitindex zu interpretieren. Eine Zeitreihe ist demgegenüber eine Folge

x1 , x2 , ... , xT von Realisationen eines Ausschnittes von  X t  67.
In Anbetracht der in Form der o. a. Analyse zu untersuchenden Bestandteile einer Zeitreihe lässt sich diese prinzipiell in vier Komponenten zerlegen, die dann auf verschiedene Weise miteinander verknüpft und auch gefiltert werden können, was insbesondere bei Neutralisation von Periodizitäten eine wichtge Rolle spielt:  Die Trendkomponente Tt spiegelt die langfristige systematische Veränderung des mittleren Niveaus der Zeitreihe wieder – bspw. die Grundrichtungsentwicklung des DAX in den letzten 20 Jahren;  Die Konjukturkomponente K t erklärt die mittel- bis langfristige, nicht notwendig systematische Schwankung der Zeitreihe – z. B. die aktuelle gesamtwirtschaftliche Konjukturentwicklung;  Die Saisonkomponente S t beschreibt die alljährlich auftretenden Schwankungskomponenten, die jedes Jahr relativ unverändert auftreten68;  Die Restkomponente Et stellt die nicht zu erklärenden Einflüsse oder Störeinflüsse dar – in ihr werden sozusagen die tatsächlich realisierten Abweichungen der anderen drei Komponenten „untergebracht“69. Folglich kann eine Zeitreihe als Summe dieser vier Komponenten aufgefasst werden70:

64

Im Rahmen der Finanzmarktanalyse dementsprechend der Betrag des Aktienkurses und darauf aufbauend die zugehörige Rendite. 65 Diese Zeitpunkte können regelmäßig (z. B. alle 5 Minuten) oder nach anderer Regelmäßigkeit (z. B. nur an Werktagen) angeordnet sein. Zeitreihen können sowohl univariat als auch multivariat sein – dann spricht man von sog. Datentupeln. Im Weiteren werden univariate Zeitreihen unterstellt. 66 Prinzipiell können auch kontinuierliche Zeitreihen in diskrete z. B. durch Abtasten transformiert werden. 67 Vgl. Schlittgen (2001), S. 4 68 Auf die genauere Darstellung von Trend- und Saisonbereinigungsverfahren wird im Rahmen dieser Arbeit verzichtet, hierzu wird auf die einschlägige Literatur von z. B. Schlittgen/Streitberg (2001) verwiesen. 69 Vgl. Schlittgen/Streitberg (2001), S. 9 ff. sowie Schlittgen (2001), S. 3 f.

Mathematisch-statistische Ansätze zur Aktienkursprognose
Zeitreihe ZRt  Tt  K t  St  Et

Seite 17

in Form der additiven Verknüpfung. Für andere Sachverhalte lässt sich das Komponentenmodell jedoch auch in multiplikativer Form schreiben, dafür werden aufgrund ihres langfristigen Charakters die Trend- und Konjunkturkomponente zur sog. glatten Komponente zusammengefasst71:
Tt  K t  Gt

Damit lässt sich schreiben:
ZRt  Gt  St  Et

Durch Logarithmieren kann man dieses Modell wieder auf ein additives zurückführen: logZRt   logGt  St  Et   logGt   logSt   logEt 

Für die Aktienkursprognose ist also die Vorhersage von Aktienkurszeitreihen und darauf aufbauend von Renditen von Interesse. Die einfache Rendite Rt ist folgendermaßen definiert:
Rt  Pt 1 Pt 1

mit Pt als Preis der Aktie zum Zeitpunkt t . Die stetige Rendite rt ergibt sich zu:

 P  rt  ln 1  Rt   ln  t   ln Pt   ln Pt 1  P   t 1 
Bei Verwendung von stetigen Renditen kann man so die Periodenrenditen einfach aufsummieren, anstatt sie wie bei einfachen Renditen zu multiplizieren. Betrachtet man in Abbildung 3 die Renditeverteilung des DAX vom Zeitraum 02.01.1998 bis 30.12.2011, so wird deutlich, dass dieser keine volle Symmetrie aufweist. Allein durch Betrachtung der Kurszeitreihe in diesem Zeitraum kann man aufgrund des inhärenten Aufwärtstrends, welcher im Wesentlichen nur durch die Dotcom-Blase ab 2000 und die

70 71

Die meisten Auffassungen in der wissenschaftlichen Literatur vertreten diese Meinung. Andere Ausführungen von Komponentenmodellen gehen zusätzlich noch von einer Zusammenfassung von Konjunktur- und Saisonkomponente zur sog. zyklischen Komponente aus – davon sei hier abgesehen.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 18

globale Finanz- und Wirtschaftskrise ab Herbst 2008 gebrochen wurde, von einer dementsprechenden Abweichung von der Normalverteilung ausgehen.

Abbildung 3: Sekundäre Häufigkeitsverteilung der DAX-Tagesrenditen, basierend auf den jeweiligen Tagesschlusskursen im Beobachtungszeitraum vom 02.01.1992 bis 30.12.2011 Die sekundäre Häufigkeitsverteilung der empirischen Daten ist eine Annäherung an ihre tatsächliche Dichtefunktion. Zum Zwecke der Beurteilung der empirischen Verteilung wird diese mit der theoretischen Dichtefunktion der Normalverteilung verglichen. Diese beschreibt sich durch gX   1 2 2
  X  µ 2   2 2     

e

mit µ  E µ als Erwartungswert und  2  E  X  µ2 als Varianz. In Abbildung 3 deutlich zu erkennen ist die linksschiefe Häufigkeitsverteilung und die eindeutige Leptokurtosis. Die Schiefe der Renditeverteilung wird durch ihr zweites und drittes empirisches Zentralmoment charakterisiert72:
1 N 3   X i  X  N i 1 1 N 2 2    X i  X    N i 1 
3





Schiefe Sch 

M Zen,3

M

Zen , 2



3 2



72

N bezeichnet den Stichprobenumfang.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 19

Mit X i als tatsächliche (Kurs-)Ausprägung und X  wert.

1 N   X i als arithmetischer MittelN i 1

Bei Renditeverteilungen im Aktienbereich weisen diese meistens einen negativen Schiefekoeffizienten in Bezug auf die Zentrierung bei 0 auf: Sch  0 . Die Kurtosis73 wird durch das zweite und vierte empirische Zentralmoment der Renditeverteilung bestimmt:

Kurtosis K 

M

M Zen, 4
Zen , 2



2



1 N 4   X i  X  N i 1 1 N 2    X i  X    N i 1 
2

Häufig wird anstatt der Kurtosis K auch der sog. Exzess Exz verwendet. Dieser berechnet sich wie folgt:

Exzess Exz  K  3
Wie man anhand Abbildung 3 sehr gut erkennen kann, ist die Renditeverteilung relativ steilgipflig. Dies deutet auf einen positiven Exzess und damit eine spitz gewölbte Verteilung hin. Ihr zugehöriger Kurtosiskoeffizient beträgt demnach K  3 . Da viele Schätz- und Testverfahren im Bereich der quantitativen Finanzanalyse und prognose von der Annahme normalverteilter Fehlerterme einer Regressionsgleichung ausgehen, wird eine einfache Überprüfung zum Vorliegen von Normalverteilung der Residuen74 verwendet. Der sog. Jarque-Bera-Test baut auf Schätzern der Schiefe und Kurtosis auf und ist folgendermaßen definiert75:
ˆ  s 2 (k  3) 2  ˆ  ~  2 (2) JB  N    6 24   

73 74

Auch Wölbung genannt. In der Restkomponente berücksichtigte, realisierte Zufallsvariablen. 75 Vgl. Schröder (2012), S. 7 f.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 20

ˆ ˆ Dabei ist JB asymptotisch76 χ²-verteilt mit zwei Freiheitsgraden. s und k sind Schätzungen zur Schiefe bzw. Kurtosis und N ist der Stichprobenumfang:

1 N ˆ3    X i  µ N i 1  6 ˆ s ~ NV  0,  3 ˆ   N 1 N ˆ 4    X i  µ N i 1  24  ˆ k ~ NV  3,  4 ˆ   N
ˆ mit µ  1 N ˆ   X i und   N i 1

1 N ˆ 2    X i  µ als Schätzer des Erwartungswertes bzw. der N i 1

Standardabweichung. Die Nullhypothese „Die Renditeverteilung ist normalverteilt“ kann dann verworfen wer2 den, wenn gilt: JB   2

77

. Analog kann die Nullhypothese vorliegender Leptokurtosis

in folgendem Fall nicht abgelehnt werden:

ˆ k 3  z 24 N
Hier ist z der kritische Wert der Standardnormalverteilung zum Signifikanzniveau  78. Wird der Renditeverteilung Leptokurtosis nachgewiesen, so kann man dies durch den Verteilungsplot auch visuell nachprüfen. Die Renditeverteilung weißt dann einen spitzen Gipfel auf, welcher deutlich höher und schmaler ist als bei einer vergleichbaren Normalverteilung. Außerdem befindet sich im Vergleich zur klassischen Gaußkurve deutlich mehr Wahrscheinlichkeitsmasse in den R79ändern der Verteilung. Durch Aggregation der verwendeten Renditen in Monats- oder sogar Quartalsrenditen werden die Verteilungen einer Normalverteilung ähnlicher80.

76 77

D. h. für einen großen Stichprobenumfang N. Vgl. Schröder (2012), S. 7 78 Diese Werte können in den Tafeln einschlägiger Statistik-Literatur nachgeschlagen werden. 79 Sog. heavy- oder fat-tails. 80 Vgl. Schröder (2012), S. 5

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 21

Zum Überprüfen des Sachverhaltes, dass eine Zeitreihe bzw. deren Realisierungen der Zufallsvariablen der zuvor angenommenen Normalverteilung folgen oder eben nicht folgen, kann der sog. Kolmogorov-Smirnov-Test angewandt werden81. Weitere Methoden, insbesondere auf das Vorliegen von der in Aktienzeitreihen oft anzutreffenden Leptokurtosis bieten die anschaulichen Quantile-Quantile-Plots oder Probability-Probability-Plots82. Eine oft anzutreffende wichtige Eigenschaft von Finanzmarkt-Zeitreihen stellt die NichtStationarität dar. Viele Modelle, Schätzungen und Testverfahren der Ökonometrie setzen aber Stationarität voraus. Werden dann trotzdem nicht-stationäre Zeitreihen mit diesen Verfahren analysiert bzw. prognostiziert, kann dies „ … leicht zu schwerwiegenden Fehlschlüssen führen83.“ Im Folgenden werden die unterschiedlichen Stationaritätsbegriffe erläutert. Ein stochastischer Prozess  X t t mit für n   gegebenen Zeitpunkten t1 , ... , tn   heißt streng oder auch strikt stationär, wenn für beliebige s   gilt84:
P X t1  x1, X t 2  x2 , ... , X t n  xn  P X t1  s  x1, X t 2  s  x2 , ... , X t n  s  xn









d. h. die gemeinsamen Verteilungen von X t1 , ... , X tn und X t1  s , ... , X tn s sind gleich85. Mit anderen Worten gilt sodann:
E  X t   µt  µ

und

Var  X t    t2   2 t   .

Die

Kovarianz,

welche

als

Cov X t1 , X t1 s  E X t1  E X t1







  X

t1  s

 E X t1 s



 definiert ist, ist im Falle strenger Sta-

tionarität ebenfalls nicht zeitabhängig – die Struktur der Renditeverteilung würde sich folglich im Zeitablauf nicht ändern. Dieser Aspekt kann allein schon bei Betrachtung einer Aktienzeitreihe abgewiesen werden. Diese restritiven Voraussetzungen kann man aufweichen, indem man den Begriff der schwachen Stationarität definiert. Ein stochastischer Prozess ist demnach schwach stationär, wenn die ersten beiden Momente, Erwartungswert und Varianz, existieren,
E  X t   µt  µ t   gilt, und darüber hinaus die Kovarianz zwischen den Werten zwei-

er Zeitpunkte CovX t1 , X t2    t1 , t 2  nur von der Differenz t 2  t1 t1 ,t 2   abhängt.
81 82

Vgl. Janssen/Laatz (2007), S. 569 Siehe hierzu Hartung/Elpelt/Klösener (2002) oder Chambers et al. (1983). 83 Schröder (2012), S. 14 84 Γ bezeichnet hier die Indexmenge des Laufindizes t, Ψ die Menge der natürlichen Zahlen. 85 Vgl. Schmid/Trede (2005), S. 111

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 22

Allgemein gilt, dass starke Stationarität schwache Stationarität impliziert – die Umkehrung gilt i. A. nicht. Für die Charakterisierung insbesondere stochastischer Prozesse spielen die Autokovarianzfunktion (ACovF), sowie die daraus abgeleitete Autokorrelations- (ACF) und die partielle Autokorrelationsfunktion (PACF) eine wichtige Rolle. Die Autokovarianzfunktion  t1 , t 2  t1 , t 2   stellt die Autokovarianzen eines stochastischen Prozesses in Abhängigkeit ihrer jeweiligen Lag-Länge   t 2  t1 dar. Mit ihrer Hilfe lässt sich die Stärke der linearen Abhängigkeit zwischen zwei Zufallsvariablen messen86. In ihrer theoretischen Form lautet die Autokovarianzfunktion:

 t1, t2  : Cov X t , X t   EX t  µx t1 X t  µx t2 
1 2 1 2

Ist der zugrunde liegende stochastische Prozess stationär, so ist die Autokovarianzfunktion nur von der Laglänge   t 2  t1 , jedoch nicht von den Zeitpunkten t1 , t 2   abhängig und man schreibt  t2  t1    t1 ,t2  . Um die Prognoseverfahren der ARMA(p,q)-Modelle87 zu analysieren, kann die empirische Form der Autokovarianzfunktion verwendet werden: c  1 N   X t  X  X t   X  N t 1 für   1 , ... , N  1

mit X 

1 N   X t als arithmetischen Mittelwert der beobachteten Zeitreihe. Sie ist weiN t 1

terhin die Grundlage für die Berechnung der Autokorrelationsfunktion, mit welcher die Korrelation zwischen zwei Zeitpunkten der Zeitreihe beschrieben werden kann. Die Autokorrelationsfunktion ist theoretisch bestimmt durch:

 t1 , t 2  

 t1 , t 2   t  t
1 2

wobei  1   t1 , t 2   1

86

In Bezug auf die Aktienkursprognose sind diese zwei Zufallsvariablen eben zwei Aktienkurse – dies wird durch Verwendung des Präfixes „auto“ (griech.: selbst) zum Ausdruck gebracht, d. h. die beiden Zufallsvariablen sind Realisierungen eines einzigen stochastischen Prozesses. 87 Siehe hierzu Abschnitt 3.2.4

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 23

mit  t1 und  t2 als Standardabweichung der (Kurs-)Werte zum Zeitpunkt t1 bzw. t 2 . Als empirische Näherung lässt sich für den Wert der Autokorrelationsfunktion zum Lag  folgende Formel verwenden88: r  c c0 für   1 , ... , N  1

Trägt man die Werte für verschiedene Lags ab, erhält man das sog. Korrelogramm 89, mit dessen Hilfe man sehr gut Abhängigkeiten der untersuchten Zeitreihe erkennen kann:

Abbildung 4: Autokorrelationsfunktion des DAX für 18 Lags basierend auf Tagesschlusskursen Man erkennt in Abbildung 4 sehr gut das sofortige Abflachen der Kurve, was auf einen geringen linearen Zusammenhang der aufeinanderfolgenden Kurswerte schließen lässt. Sollen Aktienmarktzeitreihen auf Autokorrelation untersucht werden, eignet sich dazu der von Ljung und Box im Jahre 1978 erweiterte Portmanteau-Test90:
Qm  N  N  2  
N

 1 N  

ˆ 2

2 und dem Konfidenz int ervall K *   N  p  q 1;1 ; 





88 89

Vgl. Buscher (2012), S. 114 Die statistischen Signifikanzgrenzen für Korrelogramme werden in Anhang 1 erläutert. 90 Vgl. Tsay (2002), S. 25. p und q sind dabei die Ordnungen des ARMA-Prozesses.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 24

Insbesondere bei Anwendungen im Bereich der Finanzanalyse- und prognose werden unkorrelierte Renditezeitreihen vorausgesetzt. Zumindest die Zufallsschocks  t kann man mit Hilfe des Durbin-Watson-Tests sehr gut analysieren. Dieser Test überprüft Residuen auf Autokorrelation erster Ordnung und gestaltet sich wie folgt91:

DW 

  t 2

T

t

  t 1 
2 t

2

 t 1

T

Beträgt die Testgröße DW  2 , so liegt keine Korrelation vor. Bei DW  0 korrelieren die Residuen perfekt positiv, bei DW  4 perfekt negativ – graduelle Ergebnisse sind natürlich sehr wahrscheinlich. Mit Hilfe der partiellen Autokorrelationsfunktion lassen sich schwach stationäre stochastische Prozesse ebenfalls gut charakterisieren. Der partielle Autokorrelationskoeffizient gibt im linearen Regressionsmodell an, „ … welchen Beitrag ein neu hinzugefügter Regressor zur Erklärung der Varianz liefert, wenn für die bereits bestehende Korrelation durch die zuvor berücksichtigten Variablen Rechnung getragen wurde92.“ Die allgemeine Formel zur Berechnung des partiellen Autokorrelationskoeffizienten lautet93:

   1
 1

für   1 ,

 

     1, j   j j 1

1     1, j   j j 1

 1

für   1 .

Zusammenfassend lässt sich sagen, dass die der Aktienkursprognose zugrunde liegenden Kurs- bzw. Renditezeitreihen für hohe Datenfrequenzen deutlich von der Normalverteilung abweichen, unabhängig von der Datenfrequenz nicht-stationäres Verhalten zeigen und Tagesrenditen praktisch keine Autokorrelation aufweisen können. Weiterhin zeigt sich durch Beobachtung eines Aktien- oder Index-Tageskursplots, dass sich Phasen mit hoher und

91 92

Vgl. Tsay (2002), S. 72 Buscher (2012), S. 119 93 Vgl. Buscher (2012), S. 120

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 25

geringer Varianz im Zeitablauf abwechseln. Man spricht in diesem Falle von sog. Volatilitätsclustern, welche auf bedingte Heteroskedastizität94 hinweisen. Dieser Sachverhalt kann mit den in Abschnitt 3.2.4 vorgestellten ARMA(p,q)-Modellen nicht beschrieben werden, hierzu wurden ARCH- und GARCH-Prozesse95 entwickelt.

3.2

Mathematisch-statistische Verfahren der Finanzmarkt-Zeitreihenanalyse und -prognose

Im Folgenden werden die wichtigsten mathematisch-statistischen Verfahren zur Analyse und Prognose von Aktien- und Indexzeitreihen vorgestellt und ihre speziellen Anwendungsbereiche hervorgehoben. Neben klassischen Indikatoren der Technischen Analyse wie der gleitenden Durchschnittsbildung sind dies das exponentielle Glätten, die Regressionsanalyse sowie die Modellierung mittels stochastischer Prozesse durch Autoregressive gleitende Durchschnitte, sog. ARMA(p,q)-Modelle und deren Erweiterungen.

3.2.1 Gleitende Durchschnittsbildung Eine sowohl im Rahmen der Chart- als auch der modernen Zeitreihenanalyse oft anzutreffende Methode, gleichwohl auch wegen ihrer Anschaulichkeit, ist die gleitende Durchschnittsbildung. Dabei wird versucht, die künftige Entwicklungsrichtung einer Zeitreihe durch ihre Historie zu errechnen. In ihrer grundlegenden Form berechnet sich ein gleitender Durchschnitt einer Zeitreihe X t allgemein nach folgender Formel96: n GDX t    wi  X t ni i 1 n

mit

w i 1

n

i

1

Wobei n die Ordnung der gleitenden Durchschnittsbildung, w den spezifischen Gewichtungsfaktor und X den jeweiligen Zeitreihenwert zum Zeitpunkt t  n  i angibt. Im Rahmen der Analyse und Prognose von Finanzmarktzeitreihen haben sich verschiedene Aus-

94

Das Pendant zur Heteroskedastizität ist die Homoskedastizität – in diesem Falle ist die Varianz also im Zeitablauf nicht signifikant variabel. 95 GARCH bedeutet Generalized Auto-Regressive Conditional Heteroskedasticity, dt.: generalisierte, autoregressive bedingte Heteroskedastizität – siehe hierzu Abschnitt 3.2.5 96 Die Formel bietet die theoretische Grundlage. Für die weiteren Ausführungen im Rahmen dieser Arbeit wird sie weiter spezifiziert.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 26

prägungen dieser Grundform entwickelt. Zum einen sind hierzu die klassischen 38-, 100und 200-Tages-Durchschnitte zu nennen, welche hauptsächlich im Rahmen der Trendindikatorenprognose Verwendung finden. Die Anwendung der Formel ist relativ einfach, zumal sie sich auch in gängiger Datenverarbeitungs-Software, wie z. B. Microsoft Excel, als Tool direkt implementiert ist. Die gleitende Durchschnittsformel lautet in diesem Fall: n GDX t 

1 n   X t  n i n i 1

mit

n  38, 100 oder 200.

Wie man sofort erkennt, gehen alle n vergangenen Zeitreihenwerte mit dem gleichen Gewicht w in die Berechnung ein97. Aus der gleichzeitigen Aufzeichnung der gleitenden Durchschnittslinie im jeweiligen Aktienchart ergeben sich somit entsprechende Handelssignale, sobald der reale Kurs die Linie von oben oder von unten durchbricht98. Ein aus obiger Formel abgeleiteter Schätzer für den folgenden Kurs in Periode t  1 lässt sich wie folgt errechnen:
1 ˆ X t 1  X t    X i n i 1 n Eine weitere Möglichkeit besteht darin, den Aktienkurs „naiv“ zu prognostizieren, wobei

ˆ dann X t 1  X t gilt. Dies erscheint nur dann sinnvoll, wenn die zugehörige Zeitreihe sehr geringe Varianzen und keinen Trend aufweist. Sobald sich jedoch ein Trend ausprägt, kann

ˆ der künftige Aktienkurs durch X t 1  X t  l   X t  X t 1  mit l als Prognosehorizont geschätzt werden99.

97

An dieser Stelle sei neben der Prognose von Aktienmarktzeitreihen auch noch einmal auf die Analyse verwiesen – genauere Darstellungen hierzu finden sich u. a. in Toutenburg (2002), S. 81 f. sowie Schlittgen (2001), S. 25 ff. 98 Entsprechende Erläuterungen dazu beschreibt Götz (1990), S. 152 f. 99 Vgl. Hüttner (1986), S. 13

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 27

Abbildung 5: Beispielverläufe der drei gebräuchlichsten gleitenden Durchschnitte am Beispiel des DAX In Abbildung 5 ist die unterschiedlich starke Reagibilität gut zu erkennen: je länger der in die Rechnung einbezogene Zeitraum, desto langsamer reagiert der Durchschnitt auf Kursänderungen.

3.2.2 Exponentielles Glätten Die exponentielle Glättung erweist sich durch ihre ebenfalls einfache Anwendung und ihrem, im Vergleich zu anderen Prognosemethoden, relativ kleinem Speicherplatzbedarf in praxi großer Beliebtheit. Wie bei den in Abschnitt 3.2.1 erläuterten gleitenden Durchschnitte handelt es sich bei der exponentiellen Glättung ebenfalls um einen sog. Filter, d. h. die ursprüngliche Zeitreihe wird durch Anwendung der Verfahren in eine andere, geglättete Zeitreihe transformiert. Das exponentielle Glätten ist ein rekursiver Filter und wird als univariates Prognoseverfahren meist für kurzfristige Prognosen verwendet. Die Bezeichnung „exponentiell“ rührt daher, dass die zu verarbeitenden Vergangenheitsdaten mit einer exponentiell abnehmenden Gewichtung in die Berechnung bzw. Prognose des neuen Zeitreihenwertes mit eingehen. Dabei wird dem Gedanken Rechnung getragen, dass zwar vergangene Werte einen Einfluss auf die neuen Werte haben, deren Einfluss jedoch mit zunehmendem Alter der Daten sinkt. Somit hat der aktuellste Zeitreihenwert immer die größ-

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 28

te Gewichtung100. Im Folgenden werden das exponentielle Glätten erster und zweiter Ordnung genauer vorgestellt. Das exponentielle Glätten erster Ordnung findet Verwendung, wenn die zugrunde liegende Zeitreihe keinen Trend und keine saisonalen Schwankungen aufweist. Es handelt sich folglich um ein sog. konstantes Modell mit µ  E  X t   k , wobei k konstant ist – der Erwartungswert ändert sich im Zeitablauf also nicht. Diese folgende Grundform der exponentiellen Glättung geht auf Brown (1962) zurück, welcher ursprünglich eine Zeitreihe
X t  µ   t mit  t  i.i.d . 0, 2 , einem sog. White-Noise-Prozess101, unterstellte:





ˆ ˆ X t 1,t    X t  1    X t ,t 1

ˆ ˆ mit X t ,t 1    X t 1  1    X t 1,t 2

ˆ Wobei X t 1,t die Schätzung des Zeitreihenwertes für den Zeitpunkt t  1 ist, welche zum
Zeitpunkt t gemacht wurde und X t der tatsächlich beobachtete Zeitreihenwert zum Zeitpunkt t ist.  ist der Glättungsparameter, welcher die Zeitreihenwerte gewichtet102. Wie bereits angedeutet, lässt sich die obere Formel fortschreiben, es resultiert folglich eine Summenformel: t ˆ X t 1,t     1    i  X t i  1     X 0 i 0 t 1

mit X 0 als Startwert

Zur Wahl des Glättungsparameters  kann man sich früherer Zeitreihen bedienen oder man testet verschiedene Werte für  durch und ermittelt den Wert, bei dem die mittlere quadratische Fehlersumme für Testzeitreihen minimiert wird103:

 X n t m

t

ˆ  X t ,t 1



2

 Min ! 
0  1

Je nachdem, welchen Wert der Glättungsparameter 

annimmt, kann man zwei

Grenzfälle unterscheiden, welche in folgender Tabelle zusammengefasst sind104:
100

Hier ist anzumerken, dass in der einschlägigen Literatur sehr viele Varianten zur exponentiellen Glättung existieren – z. B. verschiedene Komponentenmodelle mit Kombinationen aus additiver und multiplikativer Verknüpfung. Im Rahmen dieser Arbeit werden die wichtigsten und meist zitierten Varianten dargestellt. 101 Der Begriff „White-noise“ ist mathematischer Natur, findet Anwendung in der Signalverarbeitung und bedeutet „weißes Rauschen“ – es ist also ein Modell zur Beschreibung zufälliger Schwankungserscheinungen, dem sog. Rauschen. 102 Allgemein gilt: 0    1 – Analog dazu handelt es sich bei 1   um das sog. Komplementärgewicht. 103 Vgl. Schlittgen/Streitberg (2001), S. 45 – Hierbei sollte man m groß genug wählen, sodass Anfangswerteffekte keine Rolle mehr spielen.





Mathematisch-statistische Ansätze zur Aktienkursprognose Sachverhalt Berücksichtigung aktueller Werte Berücksichtigung alter Werte Glättungseffekt der Prognose Reagibilität der Prognose Reaktion auf Irregularitäten Einpendelung, obwohl ein schlechter Startwert gewählt wurde Tabelle 1: Wirkung der Wahl des Glättungsparameters 

Seite 29

 sehr klein (  ≈ 0) schwach stark groß klein langsam langsam

 sehr groß (  ≈ 1) stark schwach klein groß schnell schnell

Die exponentielle Glättung zweiter Ordnung105 berücksichtigt nun noch einen Trend und weißt gegenüber der exponentiellen Glättung erster Ordnung eine grundsätzlich höhere Reagibilität auf. Des Weiteren müssen bei dieser Variante nun zwei Glättungsparameter  und  festgelegt und im Zeitablauf angepasst werden106. Hier muss neben dem Achsenabschnitt auch noch eine Steigung berücksichtigt werden, um den Trend modellieren zu können:
Achsenabschnitt at    X t  1    at 1  bt 1  Steigung bt    at  at 1   1    bt 1

Pr ognose Pt   at  bt  

mit   1, 2, ... , n

Der Prognosewert für t   ergibt sich folglich aus einer einfachen Addition des Achsenabschnittswertes at und dem Trendanstieg bt der Periode. Durch den Laufindex  kann die Formel von einer 1-Schritt-Prognose auf eine n-Schritt-Prognose erweitert werden.

104 105

Vgl. Bamberg/Baur/Krapp (2009), S. 202 Auch als „Trendverfahren nach Holt“ bekannt. 106 Zur Bestimmung der beiden Glättungsparameter eignet sich eine zweidimensionale Darstellung in Form eines Parameter-Grids – die Bestimmung erfolgt ebenfalls durch eine Kleinstquadrate-Schätzung nach obiger Formel.

Mathematisch-statistische Ansätze zur Aktienkursprognose 3.2.3 Regressionsanalyse

Seite 30

Ein im Rahmen der mathematisch-statistischen Ansätze zur Aktienkursprognose weiteres wichtiges Verfahren, um die Abhängigkeit des Aktienkurses von der Zeit und ggf. anderer Einflussfaktoren zu untersuchen, stellt die Regressionsanalyse dar. Sie ist aufgrund ihrer Vielseitigkeit und Mächtigkeit eines der am häufigsten angewendeten Analyse- und Prognoseverfahren. Hierbei wird versucht, eine (funktionale) Beziehung zwischen einer abhängigen Variable, der Prognosevariable107 Y , und einer bzw. mehreren unabhängigen Variablen, der Prädiktorvariable(-n)108 X (i ) , herzustellen. Diese (funktionalen) Beziehungen werden dabei durch sog. Regressionskoeffizienten beschrieben, mit deren Hilfe die Korrelationen zwischen Variablen nachweisbar gemacht werden können. In Anbetracht der Aktienkursprognose wird hier versucht, durch geeignete Schätzung dieser Regressionskoeffizienten die Zeitreihe anhand ihres Trends in die Zukunft zu extrapolieren. Grundsätzlich lässt sich zwischen einfacher und multipler bzw. linearer und nicht-linearer Regression unterscheiden109. Im Folgenden werden diese Modelle vorgestellt. Allgemeinen versucht die Regression also eine funktionale Beziehung in Form von

Y  f  X  im einfachen, bzw. Y  f  X 1 , X 2 , ... , X k  im multiplen Fall110 herzustellen und zur Prognose zu verwenden. Die vollständigen linearen stochastischen Modelle lauten demnach111:

ˆ ˆ ˆ Yi  b0  b1  X i  

bzw.

ˆ ˆ ˆ ˆ ˆ Yi  b0  b1  X1  b2  X 2  ...  bk  X k  
ˆ ˆ ˆ ˆ Mit b0 als konstantes Glied, b1 bzw. bl als Regressionskoeffizient(-en) und  als Abweichung des Schätzwertes vom Beobachtungswert. Das konstante Glied sowie die Regressionskoeffizienten müssen geschätzt werden. Eine alte aber weiterhin sehr gute theoretische

107 108

Häufig auch als Regressand oder erklärte Variable bezeichnet. Häufig auch als Regressor(-en) oder erklärende Variable(-n) bezeichnet. 109 Vgl. Hüttner (1986), S. 78 sowie Toutenburg (2002), S. 64 ff. 110 Mit k als Anzahl der Regressoren 111 Die Darstellung bezieht sich auf den linearen Fall – die Gleichungen gelten ebenfalls nur unter der Prämisse, dass für den Erwartungswert des Fehlers E  i   0 und für die Varianz des Fehlers

Var  i    2 i gilt. Weiterhin müssen alle  i paarweise unkorreliert sein.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 31

Schätzeigenschaften liefernde Methode ist die Methode der kleinsten Quadrate112, welche auf folgenden Zielfunktionen beruht:

   Yi  Yˆi i 1 2 i i 1

N

N



  Y  b  b  X 
2 N i 1 i 0 1 i i 0 1 1i

2

  Min ! b0 , b1

bzw.

   Yi  Yˆi i 1 2 i i 1

N

N



   Y  b  b  X
2 N i 1

 b2  X 2i  ...  b j  X ji 



2

 

Min ! b0 , b1 , ... , b j

Dadurch wird eine lineare Funktion mit entsprechenden Regressionskoeffizienten gefunden, die die mittlere quadratische Abweichung der Residuen  von eben dieser linearen Funktion möglichst klein werden lässt. Im Weiteren wird die einfache lineare Regression unterstellt113, bei der o. g. Zielfunktion folgende Schätzer für b0 bzw. b1 liefert:

ˆ b1 

 ti  Yi  n  t  Y i 1

N

t i 1

N

2 i

 n  t 



 t
N i 1

i N

 t   Yi  Y  i 2

 t i 1

t

 rt ,Y 

2

st ,Y  sY st ,Y sY   2 st s t  sY  s t st

ˆ ˆ b0  Y  b1  t

mit t 

N 1 1 N und Y   Yi 2 N i 1

rt ,Y ist dabei der empirische Korrelationskoeffizient nach Bravais und Pearson114.

Die errechneten Daten gehen dann in die lineare Schätzfunktion für Yi ein115:

ˆ Yi  bo  b1  X i

ˆ ˆ ˆ bzw. in Form einer Pr ognoseschätzung : Yt 1  bo  b1  X t 1

Soll nach erfolgter Schätzung nun eine Prüfung der Regressionsfunktion auf ihre Anpassungsgüte gemacht werden, wird oft das sog. Bestimmtheitsmaß B berechnet. Dieses dimensionslose Maß gibt Aufschluss über die Streuungszerlegung, da sich die beobachtete Gesamtstreuung  Ges bekanntlich in eine durch das Regressionsmodell erklärte Streuung

 eS und eine nicht erklärte Streuung  neS zerlegen lässt116:

112 113

Oft auch als KQ-Methode bzw. (engl.) Ordinary Least Squares (OLS)-Schätzung bezeichnet. Dies scheint bei der Prognose eines Aktienkurses, der nur gegen die Zeit t abgetragen wird als plausibel – es wird also die Zeit t als (einziger) Regressor erfasst und damit der Aktienkurs als Regressand erklärt. 114 Weiterhin ist s die Standardabweichung. 115 X repräsentiert hier die Zeit t. 116 Vgl. Toutenburg (2002), S. 53 ff.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 32

 Ges   eS   neS

bzw.

 Y  Y    Yˆ  Y    Y  Yˆ 
N 2 N 2 N i 1 i i 1 i i 1 i i

2

Das Bestimmtheitsmaß ist nun das Verhältnis von erklärter Streuung zur Gesamtstreuung. Sodann kann mit o. g. Formeln das Bestimmtheitsmaß B  R2 berechnet werden117:

B  R2 

erklärte Streuung  Gesamtstreuung

 Yˆ  Y 
N

2

 Y  Y  i 1 i

i 1 N

i

1
2

 Y  Yˆ 
N

2

 Y  Y  i 1 i

i 1 N

i

i

1
2

nicht erklärte Streuung Gesamtstreuung

Im Allgemeinen kann R 2 Werte zwischen 0 und 1 annehmen: 0  R2  1; je größer das Bestimmtheitsmaß, desto besser war die Schätzung. Zur Prognosebeurteilung muss das Bestimmtheitsmaß abgewandelt werden, um die Vorhersagequalität zu steigern118. Natürlich kann man Regressionen auch auf nicht-linearer Basis durchführen. Hier ist dann zu unterscheiden, ob a) der/die Regressor/-en X (i ) nicht-linear ist/sind und der/die Regressionskoeffizient/en b( j ) linearer Natur ist/sind oder ob b) sowohl Regressor/-en als auch Regressionskoeffizient/-en nicht-linear sind. Sollte eine vorhandene Nicht-Linearität unentdeckt bleiben, so kann dies die Schätzer der Parameter verzerren und eine schlechte Prognose liefern. Im Allgemeinen sind nichtlineare Modelle deutlich komplexer als lineare, bedürfen eines höheren Rechenaufwandes, sind jedoch nicht immer nötig – die herrschende Meinung der Wissenschaft geht davon aus, dass sich auch komplexere Probleme durch lineare Modelle gut lösen lassen. Meistens kann das zugrunde liegende nicht-lineare Modell in ein lineares transformiert werden. Das prinzipielle Vorgehen gestaltet sich dann wie folgt119: (1) Ersetzen der Variablen X i des nicht-linearen Modells in eine Variable X i – Finden einer geeigneten funktionalen Beziehung X i  f  X i  ;

117 118

Vgl. Backhaus et al. (2011), S. 74 f. Erläuterungen hierzu siehe Anhang 2. 119 Hier für ein lineares Modell dargestellt.

Mathematisch-statistische Ansätze zur Aktienkursprognose (2) Einsetzen der transformierten Variable
Yi  0  1  X i   i ;

Seite 33

X i in ein lineares Modell gemäß

(3) Schätzung der Regressionskoeffizienten  j ; (4) Umrechnung der Regressionskoeffizienten  j in die Regressionskoeffizienten b j des ursprünglichen Modells. Allgemein kann man die zugrunde liegende funktionale Beziehung wie folgt formulieren120: f Y   0    j  f X j   
J j 1

Wird im linearen Regressionsmodell nun anstatt eines zeitgleichen ein zeitverzögerter Regressor eingesetzt, kommt man zu den sog. autoregressiven Modellen, welche nun erläutert werden.

3.2.4 Das ARMA(p,q)-Modell und dessen Erweiterungen121 Die folgenden Modelle der angewandten Zeitreihenanalyse verzichten auf kausale Erklärungen einer abhängigen durch eine oder mehrere unabhängige Variablen. Vielmehr versucht sie, eine Zeitreihe aus sich selbst heraus zu erklären122 und wiederkehrende Muster zu erkennen. Dies stützt sich u. a. auch auf den Aussagen, dass andere ökonometrische Modelle, die eben erklärende Faktoren heranziehen, bestimmte Parameter nicht berücksichtigen würden und deren ungenaue Datenlage keine genauen Analyse- und Prognoseergebnisse liefern könnten. Ein weiteres Argument gegen die kausale Zeitreihenanalyse ist die Tatsache, dass solche Modelle Interdependenzen zwischen wichtigen Einflussfaktoren nur unzureichend erkennen würden . Insbesondere durch die Veröffentlichungen von Box und Jenkins im Jahre 1970 hat sich mit den kausalfreien zeitreihenanalytischen Verfahren
120 121

Vgl. Backhaus et al. (2011), S. 87 Im Folgenden werden die Modelle vorgestellt, Prognosemodelle erhält man durch einfache Indexverschiebung. 122 Vgl. Buscher (2012), S. 100

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 34

ein neues Forschungsgebiet für die Ökonometrie eröffnet. Grundlegende Verfahren hierzu beruhen auf den sog. autoregressiven gleitenden Durchschnitten – engl.: autoregressive moving average – daher die Abbreviation ARMA – welche für stationäre Zeitreihen angewandt werden und im Folgenden beschrieben werden. Ein ARMA(p,q)-Modell ist eine Komposition aus einem AR(p)-Modell sowie einem MA(q)-Modell. Ein AR-Modell p-ter Ordnung lässt sich ganz allgemein wie folgt notieren123:
X t  1  X t 1   2  X t  2  ...   p  X t  p   t mit  p  0

wobei  t ein zeitgleicher Störterm ist, dessen Erwartungswert E  t   0 und Varianz
Var  t    2 konstant sind124. Der White-Noise-Prozess  t soll also keine systematischen

Strukturen wie z. B. Trendverhalten o. ä. aufweisen. Wie man in der Gleichung erkennt, handelt es sich bei einem AR(p)-Prozess also um nichts anderes, als um eine mit den  i linear gewichtete Summe von p vergangenen Zeitreihenwerten X i 1 125 sowie einem zeitgleichen Zufallsschock  t . AR(p)-Prozesse werden demnach auch als „Modelle mit Gedächtnis126“ bezeichnet. Alternativ kann obige Formel auch so ausgedrückt werden:

 L  X t   t

mit  L  1  1  L1   2  L2  ...   p  Lp





Mit L wird der sog. Backshift-Operator127 eingeführt, für den gilt: L X t   X t 1 . Er versetzt die jeweilige Zeitreihe also um eine Zeiteinheit zurück. Ein AR(p)-Prozess ist genau dann stationär, wenn sich alle Wurzeln128 des charakteristischen Polynoms außerhalb des Einheitskreises befinden. Zusätzlich wird gefordert, dass sowohl die Summe der Koeffizienten  i als auch der Betrag des p-ten Koeffizienten  p kleiner als 1 sind. Im Allgemeinen sind solche Prozesse nämlich nicht stationär. Durch die in Abschnitt 3.1 eingeführ123

Dies stellt die Grundform der AR-Prozesse dar. In Tabelle 2 in Anhang 4 werden einige Erweiterungen des autoregressiven Modells aufgelistet. 124 Weiterhin wird eine paarweise Unkorreliertheit der  i gefordert.
125 126

Die X i repräsentieren die Aktienkurse. Leiner (1998), S. 84 127 Auch Lag-Operator genannt.
128

Die Wurzeln entsprechen den Lösungen für L in der Gleichung

1  1  L1   2  L2  ...   p  Lp  0

– Vgl. Buscher (2012), S. 129

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 35

te Autokorrelations- bzw. partielle Autokorrelationsfunktion lassen sich nun die charakteristischen Eigenschaften eines AR(p)-Prozesses näherungsweise bestimmten. Mit ihrer Hilfe kann man anhand der Muster der Funktionen auf den zugrunde liegenden Prozess schließen und ungefähre Ordnungen abschätzen129, welche dann durch die in Anhang 3 definierten AIC- und BIC-Schätzmethoden genauer bestimmt werden können. Ist ein AR(p)-Prozess stationär, so klingt seine Autokorrelationsfunktion nach dem Lag p exponentiell ab und die partielle Autokorrelationsfunktion bricht nach dem Lag p gänzlich ab130:   0   p . Insbesondere sind auch die Impulsantworten eines AR(p)-Prozesses von dessen Ordnung p abhängig. Um aus einem bestehenden Datensatz entweder die entsprechenden AR-Koeffizienten  i oder die partiellen Autokorrelationskoeffizienten des Prozesses zu errechnen, eignen sich die sog. Yule-Walker-Gleichungen131, welche, insbesondere für hohe Ordnungen übersichtlich, in kompakter Matrizenform dargestellt werden können132:

 1   1      2   1           p    p 1   

1
1 

 p 2

  p 1   1    p 2   2              1   p    

bzw.   P  

oder   P 1  

mit P als  p  p  -Autokovarianzmatrix und  bzw.  als Spaltenvektoren. Der MA(q)-Prozess lässt sich allgemein so formulieren:
X t   t  1   t 1  2   t  2  ...  q   t  q mit q  0

Somit ist ein MA(q)-Prozess nichts anderes als eine durch die Koeffizienten  i linear gewichtete Summe aus vergangenen Störgrößen  i und dem aktuellen Zufallsschock. Auch diese Formel lässt sich elegant und kompakt schreiben als:

X t   L t

mit  L  1  1  L1  2  L2  ...  q  Lq





129

Eine Vorauswahl kann man durch die Lag-Ordnungen treffen, zu denen die Autokorrelationsfunktion die statistische Signifikanzgrenze durchbricht. 130 Vgl. Schlittgen (2001), S. 51 ff. 131 Die Schätzung ist auch durch die Methode der kleinsten Quadrate, der Momenten-Methode sowie der Maximum-Likelihood-Methode möglich – eine gute Einführung bietet Schmid/Trede (2005), S. 139 ff. 132 Vgl. Stier (2001), S. 51 sowie Schlittgen/Streitberg (2001), S. 126

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 36

wobei  L  das charakteristische Polynom des MA(q)-Prozesses ist und  t den gleichen White-Noise-Prozess darstellt, wie der des AR(p)-Modells. Ein MA(q)-Prozess ist immer stationär, da für die Störgrößen  t gefordert wird, dass diese einen zeitunabhängigen Erwartungswert von E  t   0 und eine konstante zeitunabhängige Varianz von Var  t    2 besitzen. Durch Summieren über vergangene Störgrößen133 geht diese Eigenschaft nicht verloren. Liegen die Wurzeln des charakteristischen Polynoms des MA(q)-Prozesses nun alle außerhalb des Einheitskreises, so heißt der MA(q)-Prozess invertierbar134. Die Eigenschaften bezüglich der Autokorrelationsfunktionen eines MA(q)-Prozesses gestalten sich so, dass die ACF für Lags  , die größer sind als die Ordnung q, verschwindet. Demgegenüber klingt die PACF für die Lags   q exponentiell ab135. Die Schätzung der Koeffizienten  i eines MA(q)-Prozesses gestaltet sich deutlich schwieriger als bei einem AR(p)Prozess. Hierzu führen die Näherungen der Yule-Walker-Gleichungen nur zu asymptotisch ineffizienten Schätzern136. Einen Ausweg stellt dabei die Schätzung nach der KleinstQuadrate-Methode dar, die sich aber nur durch iterative numerische Algorithmen lösen lassen, da nichtlineare Gleichungssysteme gelöst werden müssen137. Da die AR(p)- und MA(q)-Modelle isoliert betrachtet keine guten Schätzungen bzw. Prognosen liefern und die Höhe ihrer Ordnungen schnell zweistellig werden kann, greift man in der Ökonometrie oft auf ihre Kombination zurück, die sog. ARMA(p,q)-Modelle. Diese haben u. a. den Vorteil, mit deutlich weniger Koeffizienten auszukommen138. Ein ARMA(p,q)-Prozess gestaltet sich wie folgt139:
X t  1  X t 1   2  X t  2  ...   p  X t  p   t  1   t 1  2   t  2  ...  q   t  q

Die ursprünglichen Störterme der getrennten Prozesse werden hier in einem Störterm  t dargestellt. Für  p und  q gilt weiterhin  p ,  q  0 . Man kann obige Gleichung noch kürzer schreiben, indem man den bereits eingeführten Lag-Operator L anwendet:

 LX t   L t
133 134

Neben „Residuen“ in der Fachliteratur auch oft als „Innovationen“ bezeichnet. Vgl. Schlittgen (2001), S. 59 135 Vgl. Schlittgen (2001), S. 60 136 Zur Erläuterung der asymptotischen Effizienz eines Schätzers siehe Abschnitt 5.1. 137 Auf eine genauere Darstellung sei im Rahmen dieser Arbeit verzichtet. 138 Dies kommt der Forderung von Box und Jenkins nach „parsimony“, der sparsamen Parametrisierung, nach. 139 Vgl. Schmid/Trede (2005), S. 137

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 37

mit den ebenfalls eingeführten charakteristischen Polynomen  L  und  L  . Diese relativ einfachen Prozesse können viele Phänomene der Ökonometrie gut beschrieben. Für sie gelten die gleichen Stationaritäts- bzw. Invertierbarkeitsbedingungen140 wie für die isolierten AR(p)- bzw. MA(q)-Prozesse141. Die bisher genannten Modelle stochastischer Prozesse unterstellen Stationarität der zu untersuchenden Zeitreihe. Wirft man jedoch einen Blick auf die Aktiencharts, so erkennt man schnell, dass die in Abschnitt 3.1 definierten Bedingungen für das Vorliegen von Stationarität, wie z. B. zeitunabhängiger konstanter Erwartungswert und eine ebenfalls gleichbleibende Varianz, so gut wie nie erfüllt werden. Durch Transformation der Ursprungszeitreihe in eine andere Zeitreihe kann man „künstlich“ Stationarität herstellen. Dies lässt sich bspw. durch Anwenden der Differenzenbildung oder Varianz-stabilisierender Verfahren vollziehen142. Der Differenzenoperator  gestaltet sich analog zum Lag-Operator L :
 X t  X t  X t 1

für die einfache Differenzenbildung,

 2 X t   X t 

für die doppelte Differenzenbildung bzw. allgemein: für die d-fache Differenzenbildung.

 d X t   d 1 X t 

Gegebenenfalls muss man eine Zeitreihe mehrmals der Differenzenbildung unterziehen, man sollte sie jedoch nur so oft anwenden, bis die Varianz der Zeitreihe minimal wird. Dabei gilt die Faustregel, lieber einmal zu viel als einmal zu wenig die Differenzenbildung anzuwenden143. Sobald aber nur die d-fachen Differenzen der Ursprungszeitreihe in das Modell eingehen, muss die modellierte Zeitreihe später wieder einer d-fachen Integration unterzogen werden, um zur ursprünglichen Zeitreihe zu gelangen. Daher leitet sich auch der Name der integrierenden Modelle ab – die sog. autoregressiven integrierten gleitenden Durchschnitte oder kurz auch ARIMA(p,d,q)-Modelle144. Dabei gibt d die Anzahl der zu vollziehenden Differenzenbildungen an. Aus dieser Natur heraus ist also ein ARI140 141

Die Invertierbarkeit stochastischer Prozesse wird im Rahmen dieser Arbeit nicht behandelt. Die  i unterliegen dabei keinen Beschränkungen, was die Stationarität anbelangt, ebenso sind die

i

unabhängig von der Invertierbarkeit. 142 Im Rahmen dieser Arbeit wird nur die Differenzenbildung näher erläutert. Für Varianz-stabilisierende Verfahren, wie z. B. die Box-Cox-Transformation, sei auf die Literatur verwiesen – siehe hierzu Buscher (2012), S. 109 f. 143 Sog. „overdifferencing“ und dessen Folgen im Vergleich zur Unterdifferenzierung – Vgl. Buscher (2012), S. 109 144 Die Bezeichnung leitet sich aus der englischen Form von ARIMA – autoregressive integrated moving average – ab.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 38

MA(p,d,q)-Prozess immer nicht-stationär. Eine elegante Kurzform eines solchen Prozesses lautet:

 L1  Ld X t   L t
Wurde die d-fache Differenzenbildung vorgenommen wurde, kann das eigentliche ARMA(p,q)-Modell genauer spezifiziert werden. Eine Modellbildung nach obiger Grundlage läuft in praxi allgemein in drei Grundschritten ab:

Abbildung 6: Grundsätzlicher Ablauf der Modellbildung stochastischer Prozesse In der ersten Phase, der Identifikationsphase, wird die ACF bzw. PACF des zu prognostizierenden Prozesses analysiert und somit auf ein geeignetes Modell (ARMA(p,q), AR(p) etc.) geschlossen. Mit Hilfe von bestimmten objektiven Informationskriterien145 kann dann die Ordnung des ausgewählten Prozesses genauer bestimmt werden. Ist dies erledigt, wird in einem zweiten Schritt die Modellschätzung durchgeführt. Hierbei werden die wichtigen Prozesskoeffizienten näherungsweise bestimmt. Danach wird im dritten und letzten Schritt die statistische Eignung überprüft, indem das entworfene Modell auf Stationarität und ggf. Invertierbarkeit getestet wird. Ist die Güte der Schätzung gering, so muss der Prozess erneut durchlaufen werden, ansonsten kann das Modell für Prognosezwecke angewendet werden. 3.2.5 Das ARCH(p)-Modell und dessen Erweiterungen146 Im Gegensatz zu den linearen ARMA-Modellen ist die Familie der ARCH-Modelle (engl.: Autoregressive Conditional Heteroskedasticity) nichtlinear. I. A. sind Aktienkurszeitreihen nichtstationär und weisen bedingte Heteroskedastizität – d. h. zeitlich veränderliche Vari145 146

Erläuterungen hierzu siehe Anhang 3. Im Rahmen dieser Arbeit werden für das ARCH(p)-Modell sowie dessen Erweiterungen keine Modellierungsvorschriften und -eigenschaften dargestellt.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 39

anz – auf. Mit ARCH-Modellen lässt sich die zeitliche Variabilität der Varianz einer Zeitreihe gut modellieren. Dazu geht das Modell davon aus, dass die bedingte Varianz der Zufallsfehler  t von historischen Zufallsfehlern der Zeitreihe abhängig ist. Damit wird der Tendenz Rechnung getragen, dass große sowie kleine Zufallsfehler in Gruppen auftreten – so gibt es also Zeiten, in denen die Varianz relativ hoch ist und wiederum andere Zeitintervalle, in denen die Varianz des Kurses gering ist. Beim GARCH(p,q)-Modell hängt die Varianz neben den historischen Zufallsfehlern auch noch von ihrer eigenen, historischen Varianz ab147. Alle bisher dargestellten Verfahren (außer der multivariaten Regressionsanalyse) zur Analyse und Prognose von Aktienkursen fußen auf der Annahme, die Zeitreihen aus sich selbst heraus erklären zu können. Kausalanalytische Verfahren, wie z. B. Untersuchungen von Wirkungen beeinflussender Faktoren auf Aktienkurse wurden hier nicht betrachtet. Neben diesen Struktur-prüfenden Verfahren existieren auch sog. Struktur-entdeckende Verfahren148, welche jedoch keine Unterscheidung in Kausalzusammenhänge alt bekannter Art vornehmen – vielmehr versuchen sie, Zusammenhänge zwischen Variablen durch „Lernen“ selbst zu entdecken. Zu diesen Verfahren gehören auch die Methoden der künstlichen neuronalen Netze, welche nun im Folgenden dargestellt werden.

3.3

Ansatz der Neuroinformatik – künstliche neuronale Netze

Insbesondere in den 1990er-Jahren stark aufkommende Verfahren, Aktien-, Geldmarkt-, Zins- und anderweitige Entwicklungen zu prognostizieren, stellen die sog. künstlichen neuronalen Netze (KNN) dar, die Informationsverarbeitungsprozesse der Natur nachbilden. Ein künstliches neuronales Netz ist eine Verbindung von mehreren künstlichen Neuronen, mit deren Hilfe man beliebig komplexe und auch nichtlineare Funktionen approximieren, Forschungsaufgaben lösen und Prognosen erstellen kann. Durch sie können auch eine Vielzahl beeinflussender Variablen berücksichtigt werden. Aus diesen Gründen stellen künstliche neuronale Netze also eine Verallgemeinerung nichtlinearer Regressionsmodelle dar149.

147

Tiefer gehende Ausführungen zu den ARCH- und GARCH-Modellen finden sich u. a. in Schmitt (2012), S. 267 ff., Schmid/Trede (2005), S. 167 ff. sowie Bollerslev (1986), S. 307 ff. 148 Zum Vergleich der genannten Verfahren siehe Backhaus et al. (2011), S. 14 ff. 149 Vgl. Anders (1996), S. 135

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 40

Das einfache künstliche neuronale Netz besteht aus künstlichen Neuronen150 die in Schichten – sog. Layer – angeordnet sind und untereinander verbunden sind. Die am häufigsten verwendeten künstlichen neuronalen Netze werden „Multi-Layer-Perceptrons“ (MLP) genannt und eignen sich am besten für die Anwendung statistischer Inferenztechniken151. Ein MLP besteht aus mindestens drei Schichten: der Input- und Output-Schicht sowie der sog. Hidden-Layer152. Diese Einheit kann nun wiederum aus mehreren Schichten bestehen. Der Begriff „Hidden“ leitet sich daraus ab, da diese Schichten im MLP verborgen sind, d. h. man zu Beginn der Anwendung des Verfahrens noch nicht weiß, wie viele Units welcher Struktur „erlernt“ werden müssen153. Grundsätzlich wird ein künstliches Neuron von einem oder mehreren gewichteten Eingangssignale(-n) der erklärenden Variable(-n) angesteuert. Diese Signale werden dann im Neuron zu einem Nettoeingabesignal aufsummiert154, durch die Aktivierungsfunktion transformiert und, sobald sie einen bestimmten Schwellwert erreicht haben, an die nachgelagerte Schicht weitergegeben:

Abbildung 7: Prinzip der Signalverarbeitung eines künstlichen Neurons Ein KNN lässt sich prinzipiell durch eine Funktion ihrer erklärenden Variablen
X  x1 , x2 , ... , xn

und

der

verschiedenen

Gewichtungen

w  1,  2 , ... ,  k , 1, 2 , ... , l ,  1,  2 , ... ,  m beschreiben. Dabei bezeichnet n die Anzahl

der nicht unbedingt konstanten erklärenden Variablen und j  k  l  m die Anzahl der insgesamt existierenden Netzwerkgewichte. Im Folgenden repräsentiert H die Anzahl der
150 151

Ihr biologisches Pendant ist die Nervenzelle, das der Verbindungen sind die Glia Vgl. Anders (1996), S. 136 – Weiterhin existieren mittlerweile eine Vielzahl von anderen Klassen und Typen künstlicher neuronaler Netze. 152 Vgl. Zimmerer (1997), S. 9 153 Darin zeichnet sich der Black-Box-Charakter eines KNN ab. 154 Die Summation der Eingangssignale stellt die einfachste Form der Signalsammlung dar.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 41

verwendeten Hidden-Layer155. Wie bereits erwähnt werden die künstlichen Neuronen in Form von Schichten angeordnet:

Abbildung 8: Schematische Darstellung eines künstlichen neuronalen Netzes (in Anlehnung an Anders (1996), S. 137) Somit gilt allgemein folgende funktionale Beziehung für das in Abbildung 8 dargestellte KNN156: n H  n  f  y   f  X , w   yi xi    yh  g    hi xi  i 1 h 1  i 1 

Für die Hidden-Layer-Neurone werden i. d. R. nichtlineare Transferfunktionen g  verwendet, wie z. B. die logistische Funktion157 sig t  

1 1   t    1  tanh    , wobei t t   1 e 2   2 

die Summe

 i 1

n

hi i

x

repräsentiert – manchmal wird auch nur die reine Tangens-

155

Im Rahmen dieser Arbeit sei die Darstellung auf ein dreischichtiges KNN mit einer erklärten Variablen reduziert. 156 Dabei ist die Indexierung der Netzwerkgewichte rekursiv zu interpretieren –  yi ist das  -Gewicht, gelangt zu y (Output) und kommt von i , welches den Laufindex der erklärenden Variablen repräsentiert. 157 In der wissenschaftlichen Literatur oft auch als Sigmoid-Funktion bezeichnet – Vgl. Anders (1996), S. 137

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 42

Hyperbolicus-Funktion verwendet158. Anhand der verwendeten Funktionen merkt man sofort, dass ein neuronales Netz auf mikroskopischer Ebene zwar sehr einfach aufgebaut ist, jedoch seine Fähigkeit, auch die komplexesten Sachverhalte zu erlernen und zu errechnen, erst durch die teilweise enorm große Zahl an eingebundenen künstlichen Neuronen ermöglicht wird. Prinzipiell unterteilt man die KNNe nach ihrer Lernregel in überwachte und unüberwachte KNNe; je nachdem, wie dem KNN die zu erlernenden Muster präsentiert werden 159. Das überwachte Lernen, wie es vom MLP vollzogen wird, versteht sich als Lernform, bei der die Outputwerte bekannt sind und das MLP durch Anpassung der Gewichte – was das eigentliche Lernen in einem KNN darstellt – nach der Methode der kleinsten Quadrate optimal auf den Prognoseeinsatz vorbereitet wird. Die Beeinflussung des Lernprozesses eines KNN durch den Anwender kann dabei auf unterschiedliche Art und Weise geschehen160: 1. Entwicklung neuer Verbindungen; 2. Löschen existierender Verbindungen; 3. Modifikation des Schwellwertes θj des Neurons; 4. Modifikation der Propagierungs- und Aktivierungsfunktion eines Neurons; 5. Entwickeln neuer Neuronen; 6. Löschen von Neuronen; 7. Modifikation der Gewichte zwischen Neuronen. Ein MLP verarbeitet die Informationen nach dem sog. Feedforward-Prinzip, d. h. Verbindungen zwischen künstlichen Neuronen weisen keine Rekursion auf. Somit existiert nur eine Richtung der Informationsverarbeitung: von der Input- zur Output-Schicht. Der sog. Backpropagation-Algorithmus ermöglicht es KNN, durch rückwärts gerichtete Anpassung der Gewichtungen zu lernen161. Werden Verbindungen stark frequentiert, so erhalten sie entsprechend höhere Gewichtungen als schwächer frequentierte. Der Ablauf des Backpropagation-Algorithmus gestaltet sich im Wesentlichen wie folgt: 1. Ermittlung des Fehlers zwischen Soll-Ausgabewert und vom KNN berechneten Ausgabewert durch eine Fehlerfunktion; 2. Der Fehler wird nun von der Output- auf die Input-Schicht propagiert;
158 159

Weitere Beispiele zu Aktivierungsfunktionen siehe Zimmerer (1997), S. 21 f. Vgl. Zimmerer (1997), S. 25 f. 160 Vgl. Zell (1994), S. 84 161 Konkret also von Output- in Richtung Input-Layer.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 43

3. Die Gewichtungen der Verbindungen werden in Abhängigkeit ihres Einflusses auf den Fehler nach einem auf dem mitteren quadratischen Fehler (MSE) basierenden Gradientenverfahren angepasst. Folgende Graphik veranschaulicht den iterativen Prozess der Modellbildung eines KNN162:

Abbildung 9: Iterativer Modellbildungsprozess für künstliche neuronale Netze (in Anlehnung an Anders (1996), S. 141) Grundsätzlich sollte man bei der Modellierung eines KNN beachten, dass das KNN nicht überparametrisiert wird. Erhebliche unnötige Varianzen können sonst in der Anwendung die Folge sein. Weiterhin sollten nicht zu viele Variablen miteinbezogen werden, da sonst die Komplexität des KNN schnell große Dimensionen erreichen kann. Eine weitere Faustregel besagt, dass das Modell zum Treffen zuverlässiger Aussagen eine um den Faktor zehn höhere Zahl an Beobachtungen im Vergleich zu freien Modellparametern aufweisen sollte163.

162 163

In Anlehnung an Anders (1996), S. 141 Vgl. Anders (1996), S. 142

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 44

4
4.1

Grundsätzliche Problematiken bei der Aktienkursprognose
Curve-Fitting

Unter Curve-Fitting (dt.: Kurvenanpassung) versteht man die geometrische oder mathematische Konstruktion einer Kurve bzw. eines Graphen, welche bestimmte Datenpunkte oder eine ganze Zeitreihe am besten approximiert. Diese Kurvenkonstruktionen – meistens durch lineare oder curvilineare Regression bestimmt – haben aber auch entscheidende Nachteile. So muss die Kurvengleichung vor der Schätzung der jeweiligen Kurvenparameter festgelegt werden, jedoch kann es sein, dass z. B. ein anderer Kurventyp den zugrunde liegenden Trend der Zeitreihe besser beschreibt164. Das Problem kann zwar uninteressant sein, wenn man Kurven glätten will, meistens interessiert man sich aber für das dahinterstehende Modell und die Systematik der Zeitreihe. Man wird so gut wie nie eine einhundertprozentige Übereinstimmung zwischen der angepassten Kurve und den tatsächlichen Realisationen der Zeitreihe erhalten, insbesondere wenn man sehr volatile Aktienkurse beobachtet, die auch noch viele Strukturbrüche aufweisen. Hat man ein Modell entworfen, welches sehr gut zu den zugrunde liegenden Daten passt, darüber hinaus aber auch Besonderheiten derer – ein einfaches Beispiel sind die Innovationen  i – in das Modell miteinbezogen werden, liegt sog. Overfitting vor165. Vor allem bei geringen Schwankungen kann ein Polynom höheren Grades stark überreagieren und zu schlechten Prognosen führen. Die Generalisierung des Regressionsmodells wird dann erschwert, da es zu viele erklärende Variablen enthält166. Das statistische Modell berücksichtigt dann signifikant o. g. Zufallsfehler anstatt die zugrunde liegende Systematik der Zeitreihe zu beschreiben. Grundsätzlich ist dies problematisch, da die Schätzer für die Regressionskoeffizienten ineffizient werden können167. Ein weiteres Problem besteht auch in der möglichen Signifikanzverlagerung – so kann es sein, dass in der Realität stark relevante Parameter durch Verwendung mehrerer „unnötiger“ Parameter an ihrer statistischen Signifikanz einbüßen müssen, weil ihre Wirkung nicht mehr hinreichen ermittelt werden kann.

164

Eine Möglichkeit, dieses Problem zu umgehen, besteht im Anwenden von Verfahren der Genetischen Programmierung (Evolutionäre Algorithmen) – vgl. Kamal/Eassa (2002), S. 316-321. 165 Vgl. Schlittgen (2001), S. 22 166 Analog dazu spricht man von „Underfitting“, wenn zu wenige erklärende Variablen in das Modell miteinbezogen werden. 167 D. h. ihre Varianz ist nicht mehr minimal, obgleich die Schätzer nicht verzerrt sind – vgl. Backhaus et al. (2011), S. 89 f.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 45

Kähler (2012)168 beschreibt, dass durch die Aufnahme zusätzlicher Parameter die Güte zwar nicht sinken kann, das Modell wird eben nur immer besser auf die Trainingsdaten angepasst und zeugt danach von einer geringeren Übertragbarkeit der Aussagen auf die Grundgesamtheit. Zur Bewertung der Regression schlägt er das bereinigte Bestimmtheitsmaß R 2 vor169. Wird anstatt einer Regression die Modellierung mittels stochastischer Prozesse gewählt, so wird das Overfitting sogar bewusst genutzt, um Vergleiche zu geringer parametrisierten Modellen herzustellen. Z. B. wird ein ARMA(p,q)-Modell geschätzt und daraufhin weitere ARMA-Modelle, die noch mehr Parameter enthalten. Zweifel an der Gültigkeit des ARMA(p,q)-Modells werden aufkommen, sobald folgende Sachverhalte einzeln oder zusammen auftreten170:    die im kleineren Modell bereits vorhandenen Parameter sind instabil, d. h. Parameterschätzungen unterscheiden sich deutlich, wenn das Modell erweitert wird, die neu hinzutretenden Parameter sind signifikant von Null verschieden und/oder die Residualvarianz sinkt wesentlich, wenn das ursprüngliche ARMA(p,q)-Modell erweitert wird. In künstlichen neuronalen Netzen kann eine Überparametrisierung durch zu viel Training auftreten. Man sollte die Netze deswegen nur soweit trainieren, bis sie im realen Prognoseeinsatz mit unbekannten Zeitreihenwerten am besten performen:

Abbildung 10: Abhängigkeit der Fehlerhäufigkeit realer Prognose- bzw. Trainingstests von der Anzahl der Iterationen (in Anlehnung an Steurer (1995), S. 107)
168 169

Vgl. Kähler (2012), S. 40 Siehe hierzu Anhang 5. 170 Vgl. Schlittgen/Streitberg (2001), S. 331 f.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 46

Ab dem Minimum der roten Kurve (Trainingsoptimum, E(min)) in Abbildung 10 liegt Overfitting vor; an diesem Punkt sollte der Trainingsprozess beendet werden.

4.2

Adaptive Market Hypothesis

Die in Abschnitt 2.1 angesprochene These informationseffizienter Kapitalmärkte ist eine wichtige Säule der modernen Finanzmarkttheorien. So basieren auf ihr u. a. das Capital Asset Pricing Model, die Arbitrage Pricing Theory und das Black-Scholes/Merton Optionspreis-Modell171. Zahlreiche neuere Publikationen geben jedoch eine neue Stoßrichtung vor, insbesondere auch wegen der scheinbaren Unvereinbarkeit der Informationseffizienzhypothese und deren Annahmen mit der neueren Forschungsrichtung der Behavioral Finance. Aus diesen Gründen versucht die vom US-amerikanischen Wirtschaftswissenschaftler Andrew W. Lo begründete Adaptive Market Hypothesis (AMH), jene beiden Aspekte zusammenzuführen, indem hauptsächlich evolutionsbedingte Prinzipien auf Interaktionen am Finanzmarkt angewendet werden. Zu diesen Prinzipien gehören der am Kapitalmarkt aufkommende Wettbewerb, da faktisch um knappe Ressourcen konkurriert wird und sich Rivalität aufbaut, die Gewöhnung und Anpassung anderer Marktteilnehmer an von erfolgreicheren Marktteilnehmern durchgeführten und praktisch bewährten Anlagestrategien sowie die „natürliche Auslese“ schlechte Trader172, welche den in der Evolutionstheorie proklamierten Grundsatz „survival of the fittest“ weiter operationalisiert. Mit der AMH werden die Annahmen eines informationseffizienten Kapitalmarktes verändert. Nun gilt neben Nutzen- bzw. Gewinnmaximierung auch noch das Streben nach möglichst langem „Überleben“ am Kapitalmarkt. Weiterhin wird das Rationalverhalten der Marktteilnehmer durch deren Emotionen beeinflusst – nicht zuletzt sind Angst und Habgier auch treibende Kräfte des gezeigten Verhaltens. „Prices reflect as much information as dictated by the combination of environmental conditions and the number and nature of “species” in the economy …”173 Mit „species“ werden dabei die unterschiedlichen Gruppen der Marktteilnehmer bezeichnet: konkret sind dies also z. B. die Portfolio-Manager, die Market-Maker, die Privatanleger etc. Gegenüber der EMH wird die Effizienz eines Marktes auf andere Weise bestimmt.
171 172

Vgl. Lo (2005), S. 1 sowie Ricciardi/Simon (2000), S. 1 Vgl. Lo (2004), S. 21 173 Lo (2004), S. 23

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 47

So ist nach der AMH ein Markt hocheffizient, wenn in ihm viele dieser Gruppen um knappe Güter – und das sind Aktien und andere Wertpapiere zwangsläufig – konkurrieren. Dagegen wird ein Markt als gering effizient eingestuft, sobald wenige unterschiedliche Charaktere um reichlich vorhandene Güter wettstreiten. Die konkreten praktischen Implikationen der AMH lauten nun174: 1. Es ist unwahrscheinlich, dass die Beziehung zwischen Risiko und Rendite am Markt sowie die individuelle und institutionelle Risikopräferenz zeitinvariat ist; 2. Genauso ist die jeweilige Stufe der Markteffizienz – von schwach bis hoch effizient – keine totale ja/nein-Eigenschaft, vielmehr ändert auch sie sich im Zeitablauf und über den Markt hinweg; 3. Die Risikoprämie einer Aktie ist nicht konstant, sondern ändert sich mit ihrem Kurs; 4. Von Zeit zu Zeit treten Arbitragemöglichkeiten am Markt auf175; 5. Investment-Strategien werden aufkommen und auch wieder entrinnen – manche eignen sich gut in bestimmten Situationen, manche schlecht; 6. Innovation ist der Schlüssel zum „Überleben“ – wegen Punkt 1 ist es besser, sich an sich ändernde Marktbedingungen anzupassen, wenn das Ziel eines konsistenten erwarteten Renditeniveaus verfolgt werden soll. Somit sind die Folgerungen und Probleme für die Anwendung mathematisch-statistischer Verfahren für die Aktienkursprognose klar: auf lange Zeit lohnen sich auf diesen Verfahren basierende Investment-Strategien nicht – sie werden von anderen Marktteilnehmern adaptiert. Sind bestimmte Trader sehr erfolgreich, so wird dieser Erfolg nicht lange währen, da ihre Situation von anderen Marktteilnehmern erkannt wird und diese versuchen, jene Strategien anzuwenden. Je höher dabei der Wettbewerb, umso schneller vollzieht sich die Adaption.

4.3

Wahl der Benchmarkrendite

Ein auf den ersten Blick nicht notwendigerweise grundlegendes Problem bei der Anwendung der Verfahren zur Aktienkursprognose stellt die Wahl einer geeigneten Bench174 175

Vgl. Lo (2004), S. 24 f. sowie Lo (2005), S. 3 Dieser Aspekt verhält sich entgegen der EMH für die Anwendung von Aktienkursprognosen.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 48

markrendite dar. Diese ist jedoch von entscheidender Bedeutung für die PerformanceMessung, die mittels bestimmter Ratios176 durchgeführt wird. Meistens wird die Performance einer Anlage nach folgendem Schema berechnet177:
Performance  Anlagerend ite  Benchmarkrendite Volatilitä t

Irgendwie muss ja schließlich eruiert werden, wie „rentabler“ – oder eben auch nicht – das Investmentengagement auf Basis der angewendeten Prognoseverfahren in Verhältnis zu einem anderweitigen, repräsentativen Vergleichsportfolio178 war. So suchen nicht nur institutionelle Anleger und Portfolio-Manager nach operationalisierten Vergleichsmaßstäben, um die ggf. einzugehenden höheren Risiken mit entsprechender „Überrendite“179 verteidigen zu können. Der US-amerikanische Wirtschaftswissenschaftler William F. Sharpe hat hierzu im Jahre 1992180 vier Kriterien festgelegt, die eine gute Benchmark erfüllen sollte181:     die Benchmark sollte eine real erwerbbare Anlagealternative darstellen; der Erwerb soll mit niedrigen Kosten verbunden sein; die Benchmark soll gut diversifiziert sein und die Benchmark soll bekannt sein, bevor die Anlageentscheidungen getroffen werden. Diese Kriterien werden von Lerbinger um eine weitere wichtige Anforderung ergänzt182:  „Für die Benchmark sollen die gleichen Restriktionen wie für das Portfolio gelten.“

Die konkrete Entwicklung einer Benchmark – und darauf aufbauend die Beobachtung ihrer Rendite – gestaltet sich jedoch nicht immer leicht. In der Regel sollte eine Benchmark entworfen werden, die sich hinsichtlich ihrer Rendite und ihrem Risiko in dieselben Klassen wie das tatsächliche gehaltene Portfolio einordnen lässt. Es sollte aus dem Anlagekon176

Man unterteilt die Performancemessungen nach Art der verwendeten Risikomaße – die am weitesten verbreiteten risikoadjustierten Performance-Maße sind Sharpe-Ratio, Jensens Alpha, sowie Treynor-Ratio. 177 Vgl. Zimmermann et al. (1996), S. 211 178 Dieses wird i. d. R. auch nicht real gehalten – deswegen oft auch als „passives Vergleichsportfolio“ bezeichnet. 179 Die Überrendite versteht sich wie in Abschnitt 2.1 als Differenz zwischen tatsächlich erzielter Rendite mittels Engagements basierend auf bestimmten Prognoseverfahren und eben eines Vergleichsmaßstabes, der Benchmarkrendite. 180 Vgl. Sharpe (1992), S. 7 ff. 181 Für gute Erläuterungen zu den vier Kriterien siehe Poddig/Dichtl/Petersmeier (2008), S. 278 f. 182 Vgl. Lerbinger (1984), S. 65

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 49

zept des Investors abgeleitet werden und dessen persönlichen Präferenzen entsprechen183. Wichtig ist auch, dass die Benchmark den gleichen oder zumindest ähnlichen Finanzinstrumenten entspricht. Im Prinzip lassen sich eine Vielzahl an Vergleichsportfolios, bestehend aus Aktien und mannigfaltige Kombination hieraus, unterscheiden. Eine Auswahl an Konstruktionen wird im Folgenden aufgeführt:       standardisierte Performanceindices – z. B. der Deutsche Aktienindex DAX oder andere Subindices, wie der MDAX, HDAX, CDAX etc.; breiter diversifizierte, z. T. auch verschiedene Vermögenskategorien enthaltende Marktindices184; Kombinationen aus o. g. Indexvarianten; Buy-and-hold-Anlagen; Aktien- und Index-Put-Optionen; Andere gemanagte Portfolios, welche vergleichbare Anlagegrundsätze und gleiche Anlagestrategien verfolgen185. Allgemein sollte eine Benchmark also auch vergleichbare qualitative und quantitative Anlagerestriktionen wie die tatsächliche Anlage aufweisen können und demselben Zeitraum entsprechen186. Auch ist weiterhin darauf zu achten, dass Benchmark und tatsächliches Investment gleichen Branchen oder Marktsegmenten entsprechen – es handelt sich ja schließlich immer um einen Vergleich187.

183 184

Vgl. Poddig/Brinkmann/Seiler (2009), S. 25 Vgl. Wittrock (1995), S. 56 f. 185 Dies sind natürlich nur einige Möglichkeiten, geeignete Benchmarks zu konstruieren. Abhängig von den Investmentengagements kann man auch noch Obligationen, Wandelanleihen, Immobilien, Investmentfonds etc. miteinbeziehen. 186 Es lohnt sich schließlich nicht, die DAX-Benchmark des Jahres 1990 mit dem tatsächlich getätigten Investment des Jahres 2011 zu vergleichen. 187 Weiterführende Erläuterungen zur Wahl der Benchmarkrendite finden sich u. a. in Kleeberg/Rehkugler (2002), S. 225 ff. sowie in Zimmermann et al. (1996), S. 82. Einen praktischen Einblick in die approximative Nachbildung des DAX bietet Wagner (1996), S. 375-393.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 50

5

Bewertung der Prognoseergebnisse der mathematisch-statistischen Verfahren zur Aktienkursprognose

5.1

Eigenschaften guter statistischer Modellierungen

Neben guten Analyseergebnissen sollen die geschätzten Verfahren ja vor allem eines erreichen: die Prognose soll möglichst genau sein. Wie können aber jetzt gelieferte Analyseergebnisse eingeordnet und bewertet werden? Allgemein kennt die Inferenzstatistik hierfür vier grundlegende Kriterien, die ein guter Schätzer ˆ 188 eines Parameters  des zugrunde gelegten Verfahrens aufweisen sollte: 1. Erwartungstreue (Unverzerrtheit): Ein erwartungstreuer Schätzer ˆ sollte im Mittel dem wahren Parameter  entsprechen bzw. der systematische Fehler (Bias) bei der Schätzung des Parameters  sollte möglichst gering, im Idealfall gleich null sein189:
ˆ E  



ˆ ˆ ˆ bzw. Bias   E     E      Min !

 





Manchmal wird auch nur die asymptotische Erwartungstreue gefordert, wofür nur
ˆ gelten muss, dass lim E    ist. n 



2. Konsistenz (stochastische Konvergenz): Der Schätzer ˆ ist konsistent, wenn   0 gilt: n 

ˆ lim P       0





Das ist dann der Fall, wenn sich der Schätzer ˆ mit wachsendem Stichprobenumfang n dem wahren Parameter  nähert und somit mindestens asymptotisch erwartungstreu ist. 3. Effizienz (minimale Varianz)190:

ˆ ˆ ˆ Ein Schätzer ˆ ist effizient   eff , wenn seine Varianz Var eff für alle zugelassenen Verteilungen erwartungstreuer Schätzfunktionen den kleinsten möglichen Wert annimmt:
188





 

Mit „Schätzer“ sind hier die zu schätzenden Parameter der in Abschnitt 3 dargestellten Verfahren gemeint – konkret also die Regressionsschätzer, die Schätzer der ACF und PACF bei stochastischen Prozessen sowie die Schätzer der Gewichtungen in künstlichen neuronalen Netzen. 189 Vgl. Hedderich/Sachs (2012), S. 295 190 Auch als „bester“ oder „wirksamster“ Schätzer bezeichnet – vgl. hierzu Fahrmeir et al. (2007), S. 375. Eine Abwandlung berücksichtigt anstelle der Varianz die mittlere quadratische Abweichung MSE.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 51

ˆ ˆ Var eff  min Var 
4. Suffizienz

 

  

Ein Schätzer ˆ heißt suffizient oder erschöpfend, wenn er alle die in der zugrunde liegenden Stichprobe enthaltenen Informationen berücksichtigt191. Diese vier gebräuchlichsten Kriterien zur Beurteilung der Qualität inferenzstatistischer Schätzungen192 sind die Ziele der vier wesentlichen Parameterschätzverfahren – der Maximum-Likelihood-Methode, der Methode der kleinsten Quadrate, der Momenten-Methode sowie der Bayes-Schätzung. Nachfolgend werden neben den vier Kriterien die wichtigsten Kriterien für die in Abschnitt 3 dargestellten Verfahren zusammengefasst:  Keine Autokorrelation der Fehlerterme  i . Sollte der Fehler autokorrelieren, so deutet dies darauf hin, dass in den zugrunde liegenden Daten noch eine bestimmte Systematik vorherrscht, jedoch durch das Modell nicht berücksichtigt wird. Dadurch sinkt die Prognosequalität. 

1 N ˆ Die mittlere quadratische Abweichung MSE    Yi  Yi N i 1





2

sollte so gering wie

möglich sein. Dies deutet dann auf eine hohe Abbildegenauigkeit des Modells hin und weißt im Vergleich zu anderen Verfahren oder Parametrisierungen die höchste Schätztreue auf.  Insbesondere für die lineare Regression gilt nicht unbedingt – offenbar entgegen gängiger Vorstellungen –, dass das Bestimmtheitsmaß B  R 2 möglichst groß sein soll. Das Bestimmtheitsmaß lässt lediglich Aussagen über Modellgüte nach der Analyse zu. Zur Bewertung von Prognosen mittels linearer Regression sollte das
2 Prognose-Bestimmtheitsmaß BPr ognose  RPr ognose verwendet werden193. Je größer

dieses ist, desto besser ist i. A. die Prognosequalität.  Werden aufgrund von Stichprobenschätzern obere und untere Signifikanzgrenzen gewählt, so ist eine Prognose umso besser, je höher das zugrunde gelegte Signifi-

191 192

Vgl. Hedderich/Sachs (2012), S. 295 Daneben existieren noch Kriterien wie z. B. Robustheit, Mediantreue, Linearität und Normalität. 193 Erläuterungen hierzu siehe Anhang 2.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 52

kanzniveau gewählt wird und je seltener gleichzeitig diese Grenzen durchbrochen werden194.

5.2

Empirische Ergebnisse zur Eignung der Prognoseverfahren

Um nun einen guten Überblick über die Eignung der Verfahren zur Aktienkursprognose zu bekommen, wurden einschlägige wissenschaftliche Literaturquellen195 ausgewählt, die bestimmte Verfahren unter „realen“ Bedingungen getestet und bewertet haben. Hierzu gibt die Tabelle 3 Aufschluss über Verfasser der Studien, verwendete Verfahren, eventuelle Spezifika in der Anwendung, Ergebnisse sowie einige Pro- und Kontraargumente, die sich nach Begutachtung und Vergleich der Prognosequalität ergaben196. Wichtig ist hierbei, dass die Ergebnisse nie einhundertprozentig vergleichbar sind. So werden unterschiedliche Verfahren verwendet, diese z. T. individuell abgewandelt und auch teilweise stark unterschiedliche Kapitalmärkte sowie unterschiedliche Assetklassen untersucht. Ebenfalls sollte man die Verfahren nicht nur hinsichtlich ihrer statistischen Eigenschaften bewerten – diese sind nämlich noch lange kein Garant für finanzielle Vorteilhaftigkeit.

5.3

Kritische Bewertung der Prognoseverfahren

In den empirischen Studien hat sich gezeigt, dass in den letzten Jahren überwiegend künstliche neuronale Netze klassischen Methoden gegenübergestellt wurden und KNNe i. A. bessere Ergebnisse lieferten. Im Folgenden sollen aber alle in Abschnitt 3 vorgestellten Verfahren kritisch bewertet werden. Gleitende Durchschnitte erweisen sich lediglich in ihrer Indikatorenfunktion als hilfreich. Sie sind im Gegensatz zu linearen Modellen besser geeignet, um Kauf- und Verkaufssignale abzugeben und werden daher in moderne Portfoliomodelle als Theoriegröße eingebaut. Ihre Vorteilhaftigkeit zeichnet sich in jedem Fall im Glättungscharakter ab, der sehr gut dafür geeignet ist um wenig aussagekräftige Tagesschwankungen zu eliminieren – zusätzlich ist das Verfahren einfach in der Anwendung.
194

Analog gilt hier auch, je kleiner die Konfidenzintervalle bzw. je kleiner die Annahmebereiche der Nullhypothesen sind. 195 Hierunter fielen im Rahmen dieser Arbeit Dissertationen, wissenschaftliche Veröffentlichungen in Journals, verlegte Studien, Diplomarbeiten sowie Papers und Konferenzschriften akademischer Tagungen. 196 Aufgrund des Umfangs findet sich Tabelle 3 in Anhang 6 dieser Arbeit wieder.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 53

Der exponentiellen Glättung ist insofern selbiges zuzuschreiben. Sie unterscheidet sich von der gleitenden Durchschnittsbildung im eigentlichen Sinne nur durch die unterschiedlich starke Gewichtung der vergangenen Aktienkurswerte. Mit ihrer Hilfe lassen sich irreguläre Komponenten von Zeitreihen gut beseitigen. Fürsprechung findet die exponentielle Glättung ebenfalls in ihrer sehr einfachen Anwendung sowie der Tatsache, dass Instationaritäten der Aktienkurszeitreihe keine Einschränkung darstellen. Die Regressionsanalyse lieferte teilweise auch gute Prognoseergebnisse, jedoch werden meist mehrdimensionale Verfahren angewendet, die nicht nur den Kurs und die Zeit berücksichtigen. Je nachdem, ob dann lineare oder nichtlineare Methoden angewendet werden, unterscheidet sich auch der Rechenaufwand. Die linearen ARMA-Modelle sowie deren Erweiterungen liefern gute Ergebnisse, wenn die zugrunde liegende Aktienkurszeitreihe stationäres Verhalten aufweist. Durch die ARIMA-Modelle ist es auch möglich, Trends zu berücksichtigen. Nichtsdestotrotz bleibt bei ihnen der Nachteil bestehen, bedingte Varianz nicht darstellen zu können. Insofern bleibt ihr Anwendungsbereich für gute Prognosen auf bereinigte sowie differenzierte Kursund Renditezeitreihen beschränkt. Die ARCH-Modelle können demgegenüber die bedingte und unregelmäßig am Aktienmarkt auftretende Volatilität sehr gut beschreiben und prognostizieren. Durch Einsatz der generalisierten ARCH-Modelle (GARCH) können sparsamere Parametrisierungen im Vergleich zu reinen ARCH-Modellen realisiert werden – außerdem sind sie leicht zu schätzen. Multivariate GARCH-Modelle (MGARCH) können die insbesondere in letzter Zeit aufkommende und weiter fortschreitende Integration und Vernetzung der Kapitalmärkte besser modellieren, da sie die Volatilitätsumschlagseffekte eines Kapitalmarktes auf einen anderen in der Gesamtheit gut darstellen können. Durch ihre Abwandlungen bestehen auch gute Anwendungsmöglichkeiten für unterschiedlich lange Prognosehorizonte. Den künstlichen neuronalen Netzen wird in naher Vergangenheit die größte Aufmerksamkeit geschenkt. Zu ihren Vorteilen gehört auf jeden Fall die Tatsache, dass zu Beginn der Anwendung keine expliziten Annahmen über zugrunde liegende Systematiken der Zeitreihe/-n gemacht werden müssen. Durch ihren nichtlinearen Charakter finden sie breite Anwendungsmöglichkeiten und können viele erklärende Variablen einbeziehen sowie schnell und genau approximieren. Ein weiterer Vorteil besteht im eigenständigen Lernen des Netzes durch die hohe Adaptivität. Jedoch sprechen manche Aspekte auch gegen KNNe. Bei-

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 54

spiele hierfür sind die komplizierte Analysierbarkeit der Vorgänge in den Hidden-Layer, wodurch auch die Anwendung statistischer Signifikanztests erschwert wird. Das Wissen des KNN kann also nur eingeschränkt nachvollzogen werden. Das Problem des Overfitting muss hier insbesondere beachtet werden, da sich sonst sehr schnell unterdurchschnittliche Prognoseergebnisse ergeben. Je mehr Parameterschätzungen gemacht werden müssen, desto schneller wächst die Anzahl der Kombinationsmöglichkeiten im Netz. Dies kann vor allem sehr hohe Entwicklungskosten mit sich bringen.

6

Fazit

Im Rahmen der Arbeit wurden die Thesen informationseffizienter Kapitalmärkte dargestellt und deren empirische Evidenz durch wissenschaftliche Studien geprüft. Insgesamt kommt man zu dem Ergebnis, dass die von Eugene F. Fama getroffenen Annahmen informationseffizienter Kapitalmärkte für den realen Anwendungsfall zu restriktiv sind. Weiterhin kann man sagen, dass zwar vorhandene Studien mit Testmethoden wie Event-Studies und der Ausnutzbarkeit von Insiderinformationen Kapitalmärkte bestimmten Effizienzniveaus zuordnen können – jedoch muss die von Fama vorgegebene Dichotomie aufgebrochen werden, da in der Realität neben den gehandelten Titeln auch noch das Marktsegment, die Branche, die aufstrebende Tendenz der Emerging Markets, die administrativen und politischen Rahmenbedingungen und nicht zuletzt die immer tiefer werdenden Verflechtungen internationaler Kapitalmärkte die Informationseffizienz determinieren. Dies ebnet den Weg zu graduellen Formen der Informationseffizienzhypothesen. Anhand selbst angestellter empirischer Tests konnten die statistischen Eigenschaften von Finanzmarkt-Zeitreihen, wie z. B. Leptokurtosis, Abweichung von der Schiefe der Normalverteilung, Nicht-Stationarität und Heteroskedastizität, eindeutig verifiziert werden. Die von Andrew W. Lo entwickelte Adaptive Market Hypothesis erwies sich in zahlreichen wissenschaftlichen Beiträgen als praxisnah und zukunftsträchtig. Die Wahl der Benchmarkrendite kann zumindest als aufwendig unterstellt werden – sie kann im Einzelfall bei stark diversifizierten Portfolios allerdings zum großen Problem werden. Bei der Anwendung von mathematisch-statistischen Verfahren zur Aktienkursprognose sollte der Forscher bzw. Portfolio-Manager den Trade-Off zwischen Einfachheit des Mo-

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 55

dells und dessen Vorhersagegenauigkeit kennen bzw. determinieren. Ein individueller und aussagekräftiger Vergleich der Prognosemethoden ist nur möglich, wenn diese auf denselben Trainingsdaten beruhen und mit gleichen Fehler- bzw. Gütemaßen beurteilt werden. An den untersuchten empirischen Studien erkennt man in den meisten Fällen, dass die Richtungsprognose von Monatsdaten deutlich bessere Ergebnisse liefert als die von Rauscheffekten verzerrten Tages- oder Wochendaten. Ergebnisse einiger Studien haben des Weiteren gezeigt, dass sich die Güte der Richtungsprognosen steigern lässt, indem neben Höchst-, Tiefst- und Schlusskursen auch noch das Handelsvolumen und andere interdependente Indices miteinbezogen werden. Grundsätzlich kann man sagen, dass die Prognosen umso besser sein können, je geringer die Informationseffizienz des Kapitalmarktes ist. Schlussendlich geht aus mehreren Studien hervor, dass sich die Risiken von Aktieninvestments deutlich besser modellieren lassen als die entsprechenden Renditen. Künstliche neuronale Netze weisen i. A. eine bessere Vorhersagegenauigkeit im Vergleich zu ihren statistischen und stochastischen Pendants auf, solange sie nicht „overfittet“ sind. Der Verfasser schließt sich der Meinung an, dass zukünftige Denkansätze optimierte künstliche neuronale Netze mit technischen und fundamentalen Faktoren kombinieren sollten. Eine Verknüpfung dieser Verfahren mit anderen Methoden des Soft-Computing stellt ebenfalls eine interessante und auf ihre Prognosefähigkeit zu testende Kombination dar.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 56

Anhang
Anhang 1 – Obere und untere Signifikanzgrenzen für Korrelogramme
Um statistisch signifikante Aussagen mit bestimmten Irrtumswahrscheinlichkeiten zu treffen, werden insbesondere für Korrelogramme obere und untere Signifikanzgrenzen berechnet. Dafür ist für die jeweiligen kritischen Niveaugrenzen zwischen AR(p)- und MA(q)-Prozessen zu differenzieren: 1. AR(p)-Prozess – obere und untere kritische Grenzen für die Nullhypothese „   0 “   0 : go / u     z1 
2

wobei z1 das 1  
2



197 2 -Quantil der standardisierten Normalverteilung ist .



1 N

2. MA(q)-Prozess – obere und untere kritische Grenzen für die Nullhypothese „   0 “: go / u     t1 
2

1 N

für   1

go / u     t1 
2

ˆ 1  2   2
 2

l

N

  1

mit t1 als das 1  
2



2 -Quantil der Student-t-Verteilung zum Freiheitsgrad N  1 und
198



ˆ  als Schätzer des Autokorrelationskoeffizienten der Zeitreihe zum Lag 

.

197

Die zugehörigen Werte zu den meistverwendeten Signifikanzniveaus können einschlägiger statistischer Literatur entnommen werden. 198 Vgl. Hanke/Reitsch/Wichern (2001)

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 57

Anhang 2 – Berechnung des Prognose-Bestimmtheitsmaßes
Um das Bestimmtheitsmaß zur Prognosebewertung anwendbar zu machen, muss es, wie in Abschnitt 3.2.3 beschrieben, abgewandelt werden:

2 BPr ognose  RPr ognose  1 

PRESS

 Y  Y 
N i 1 i

1
2

 Y  Yˆ 
N i 1 N i i , i

2

 Y  Y  i 1 i

2

ˆ Dabei ist Yi ,  i der Schätzwert für Yi , der sich ergibt, wenn man alle außer der i-ten Beobachtung in die Berechnung einfließen lässt. Somit ist das Prognose-Bestimmtheitsmaß i. A. kleiner als das eigentliche Bestimmtheitsmaß B .

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 58

Anhang 3 – Schätzung der Lag-Länge mit Hilfe von Informationskriterien
Wie bereits in Abschnitt 3.2.4 dieser Arbeit beschrieben, lassen sich die passenden LagLängen stochastischer Prozesse im Rahmen der Residualanalyse durch bestimmte Informationskriterien bestimmen. Hierzu müssen auch die vergangenen Daten des Prozesses (also z. B. alte Aktienkurse) zur Verfügung stehen. Im Folgenden werden diese Kriterien, die auch in der gängigen Statistiksoftware, wie z. B. EViews, enthalten ist, erläutert. 1. Akaike Information Criterion – AIC Hier wird neben der Anpassungsgüte des Modells199 auch die Anzahl der zu schätzenden Parameter200 berücksichtigt, wobei sich dies so gestaltet, dass, je mehr Parameter durch das Modell miteinbezogen werden, der AIC-Wert „schlechter“ wird. Dieser Aspekt soll demnach vor Überparametrisierung schützen. Der AIC-Wert berechnet sich wie folgt:
AIC   2 ln L 2k  N N

wobei ln L die sog. Log-Likelihood-Funktion ist201, die über die Fehlerterme, die Varianz und den Stichprobenumfang des betrachteten Zeitreihenausschnittes definiert wird: ln L  
N N 1  ln 2 2  2    i2 2 2 i 1





Je negativer also die Log-Likelihood-Funktion wird, desto besser ist das Modell den historischen Daten angepasst. Die sog. Strafkorrektur in Form des Terms
2k N

soll die Überparametrisierung verhindern – je größer ihr Wert, desto mehr Parameter k  p  q  2 werden verwendet. Schlussendlich sollte man diejenige Parametrisierung202 auswählen, bei der der AIC-Wert minimiert wird203. 2. Bayesian Information Criterion – BIC Ein weiteres populäres Kriterium ist das Bayesianische Informationskriterium BIC. Dies ist definiert durch:

199 200

Bei linearer Regression z. B. das Bestimmtheitsmaß R2. Und damit auch der Freiheitsgrade – Vgl. Kähler (2012), S. 61. Zwischen dem Ziel einer hohen Anpassungsgüte und der maximalen Parametrisierung besteht grundsätzlich Zielantinomie. 201 Sie basiert auf der Maximum-Likelihood-Schätzung. 202 Entspricht der Kombination in Form der Parameter-Werte der ARMA-Ordnungen p und q – Bei einem ARMA(2,3)-Modell beträge der k-Wert folglich k  2  3  2  7 . 203 Vgl. Tsay (2002), S. 37

Mathematisch-statistische Ansätze zur Aktienkursprognose
BIC   2 ln L   p  q  2  ln N

Seite 59

Auch hier ist das Modell mit dem kleinsten BIC-Wert das geeignetste. 3. Hannan-Quinn Criterion – HQ Hier wird eine beliebige Konstante für c c  1 gewählt204:
HQ   2 ln L 2 p  q   c  ln ln N   N N

Hier ist ebenfalls das Modell mit dem kleinsten HQ-Wert zu präferieren.

Allgemein wird bei Anwendung der AIC- und BIC-Informationskriterien wie folgt vorgegangen: 1. Bestimmung einer maximalen Ordnung pmax bzw. qmax der Parameter der festzulegenden Modelle – i. A. reicht es aus, die fünfte bis maximal achte Ordnung auszuwählen; 2. Schätzung des Modells, dabei Variation der Parameter; 3. Berechnung der jeweiligen AIC- und BIC-Werte der zugehörigen Ordnungen; 4. Auswahl des Modells mit den geringsten AIC- bzw. BIC-Werten205.

204 205

Vgl. Schlittgen (2001), S. 54 Bei ARMA(p,q)-Modellen kann es vorkommen, dass die Minimalwerte für AIC bzw. BIC auf unterschiedlichen Parameterkonstellationen liegen. Hier sollte dann das Modell ausgewählt werden, welches die sparsamere Parametrisierung besitzt – vgl. hierzu ein anschauliches Beispiel in Schmid/Trede (2005), S. 145 ff.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 60

Anhang 4 – Tabelle einiger erweiterten autoregressiven Modelle
Abbreviation ARFIMA (=FARIMA) ARI ARMAX ARIMAX BARMA CHARMA CTARMA EAR FAR MSAR NLAR RCAR SARIMA SETAR SETARMA STAR STARMA TAR TARMA VAR VARMA Modellbezeichnung Auto-Regressive Fractionally Integrated Moving Average Auto-Regressive Integrated Auto-Regressive Moving Average with Exogenous input Auto-Regressive Integrated Moving Average with Exogenous input Bilinear Auto-Regressive Moving Average Conditional Heteroskedastic Auto-Regressive Moving Average Composed Threshold Auto-Regressive Moving Average Exponential Auto-Regressive Functional-coefficient Auto-Regressive Markov Switching Auto-Regressive Non-Linear Auto-Regressive Random Coefficient Auto-Regressive Saisonal Auto-Regressive Moving Average Self-Exciting Threshold Auto-Regressive Self-Exciting Threshold Auto-Regressive Moving Average Smooth Threshold Auto-Regressive Smooth Threshold Auto-Regressive Moving Average Threshold Auto-Regressive Threshold Auto-Regressive Moving Average Vector Auto-Regressive Vector Auto-Regressive Moving Average

Tabelle 2: Einige Erweiterungen des AR-Modells Manche der Modelle sind jedoch sehr exotisch und wurden teilweise nur für einen bestimten Anwendungsfall aus bestehenden AR-Modellen entwickelt.

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 61

Anhang 5 – Berechnung des bereinigten Bestimmtheitsmaßes
Die Überparametrisierung wird durch einen Strafterm berücksichtigt. Man kann Overfitting folglich vermeiden, indem man das Modell mit dem größten bereinigten Bestimmtheitsmaß wählt:

R2

 N  k  1 X  X   N  1 i 1 N i i 1

N

ˆ i

2

 1  1  R 2  

N  1 N  k 

2 wobei R das gewöhnliche Bestimmtheitsmaß und k die Anzahl der verwendeten Regres-

sionsparameter darstellen206.

206

Vgl. Kähler (2012), S. 41

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 62

Anhang 6 – Tabelle 3 zu Abschnitt 5.2
Verfasser der Studie/-n Angewandte/-s Verfahren KNN im Vergleich mit linearer Regression Spezifika der Studie/-n Abschließende Bewertung und Ergebnisse der Studie

Altay/Satman (2005)

Untersuchung des Emerging Markets in der Türkei: Istanbul Stock Exchange (ISE)

Überlegene Trendprognosefähigkeit des KNN – es lieferte im Test höhere Renditen als das lineare Regressionsmodell, nachdem es in die Handelsstrategie integriert wurden. Beide Verfahren lieferten bessere Ergebnisse als eine vergleichbare Buyand-Hold-Strategie – beide übertrafen auch das Random-Walk-Modell. Die Vorteile des KNN lagen im besseren und schnelleren Erkennen des funktionalen Zusammenhangs der in-sample-Trainingsdaten sowie im geringeren RMSE- und MAE-Wert in Bezug auf Wochendaten. Fraglich ist weiterhin jedoch die Out-ofsample Performance in Emerging Markets. Sowohl statistisch als auch finanziell (bzgl. der Richtungsprognose des Kurses) betrachtet übertraf das KNN die lineare Regression und die Buy-and-Hold-Strategie. Nachdem das KNN trainiert wurde, ergab sich eine dreifach höhere Rendite als mit einer passiven Anlagestrategie. Die Trefferquote des KNN erwies sich als eine Funktion des Zeitrahmens, der für den Testansatz gewählt wurde. Ein Nachteil des KNN war die schwache Generalisierungsfähigkeit für andere Zeiträume. Der Test zeigte jedoch, dass eine wirkungsvolle Vorhersage auch ohne genaue Marktkenntnis möglich war – dies ist ein Vorteil des KNN.

Yao/Tan/Poh (1999)

KNN

Untersuchung des KLCI (Kuala Lumpur Composite Index) - Trainingsdaten auf Monatsbasis, Wochen- und Tagesdaten zum Testen und Validieren

Mathematisch-statistische Ansätze zur Aktienkursprognose Bankhofer/Rennhak (1998) Klassische Zeitreihenmodelle – vektorielle ARMAProzesse u. a. Prognose von Wechselkursen

Seite 63

Die Studie ergab, dass klassische Zeitreihenmodelle bei weitem keine befriedigenden Ergebnisse liefern konnten, vektorielle (mehrdimensionale) ARMA-Prozesse jedoch einem Random-Walk überlegen waren. Nichtlineare Modelle können besser sein als lineare Modelle. Das KNN erwies sich als eines der besten Verfahren, den S&P500 zu prognostizieren. Nach Meinung der Autoren könne er ebenso gut in dynamischeren Prozessen performen. Im Vergleich zu einer Buy-andHold-Strategie ergab sich eine zu 93,3 % höhere Rendite. Das KNN ergab gute Prognosen, da es nichtlineare Zusammenhänge, wie sie in der Untersuchung auftraten, gut erkennen konnte. Die Ergebnisse konnten verbessert werden, indem der Prognosehorizont auf 1 Jahr verlängert und das historische Datenvolumen gekürzt wurde sowie durch Auswahl bestimmter Industrien und Konzentration auf kleine und mittelgroße anstelle von großen Firmenwerte. Das multivariate Regressionsmodell bezog drei Variablen mit ein: den historischen Aktienkurs, den operativen Cash-Flow sowie den risikofreien Zinssatz. Das Modell lieferte hierbei gute Prognoseergebnisse bei geringer Varianz. Die Autoren sehen die Möglichkeit gegeben, dass das Regressionsmodell Nichtlinearitäten der Aktienkurse gut erfassen kann.

Cichocki et al. (2005)

KNN

Untersuchung des USamerikanischen S&P500-Index

Safer (2002)

KNN

Prognose der Überrendite unter Ausnutzung von InsiderHandelsdaten

Rebello/Reddy Multivariate (2010) Regressionsanalyse

Untersuchung der „A-Group“Handelstitel der Bombay Stock Exchange (BSE)

Mathematisch-statistische Ansätze zur Aktienkursprognose Oelker (2004) ARMAModelle im Vergleich mit ARIMAModellen Keine genauere Spezifikation

Seite 64

ARIMA-Modelle eignen sich besser als originäre ARMA-Modelle. Reine ARMA-Modelle haben für den bedingten Erwartungswert nicht zu eindeutigen Ergebnissen geführt. ARIMA-Modelle niedrigerer Ordnung konnten auch gute Prognosen liefern. Ein Nachteil beider Verfahren bleibt jedoch, dass sie keine bedingte Varianz darstellen können, die aber in der Realität am Markt deutlich auftritt.

Carvalhal/de Melo Mendes (2008)

ARMA- und ARCHModelle

Untersuchung der Aktienrenditen in

Sowohl das ARMA-, als auch das ARCH-Modell performten besser als

Emerging Markets ein Random-Walk. Das ARMAModell lieferte gute Ergebnisse im Out-of-sample-Test, das ARCHModell zeigte seine Stärken in der In-of-sample-Anwendung. Zusätzlich wurden ARCH-Erweiterungen getestet: ein TARCH-Modell lieferte die besten Ergebnisse für Tagesrenditen, ein EGARCH-Modell schnitt am besten in Bezug auf langfristige Renditen ab.

Hossain/Nasser (2009)

Mischung aus Untersuchung ARMA- und GARCHModell im Vergleich zu KNN und Support Vector Machine täglicher Aktienindexrenditen sowie Wechselkursen

KNN können die längerfristigen Renditen sehr gut prognostizieren, vor allem auch weil diese Zeitreihen einer Normalverteilung ähnlicher waren als die üblichen Kurszeitreihen. Alle verwendeten Verfahren performten im Hinblick auf die Abweichungen besser als ein vergleich-

Mathematisch-statistische Ansätze zur Aktienkursprognose (SVM)

Seite 65

bares ARMA-Modell, jedoch konnten die Verfahren das ARMAModell in der Trendprognose nicht immer schlagen. Innerhalb der Verfahren erwies sich das ARMAGARCH-Mischungsmodell als bester Trendschätzer, das KNN performte statistisch betrachtet am besten.

Georgiadis (2007)

KNN im Ver- Keine genauere gleich zu ARMA und anderen statistischen Modellen Spezifikation

Das KNN lieferte deutlich bessere Ergebnisse als das ARMA-Modell. Das KNN zeugte von konsistent niedrigen Prognosefehlern sowie höheren Treffer- und Gewinnquoten. Außerdem konnte es im Vergleich zu anderen statistischen Modellen die Richtungsänderungen der Kurse besser antizipieren. Nachteilig erwiesen sich die vielen Parameterschätzungen für das KNN. Demzufolge waren viele Kombinationsmöglichkeiten möglich, die im Realfall alle getestet werden müssten.

Graf et al. (1996)

KNN im Ver- Prognose der Out- Die Durchführung eines dynamigleich zu klassischen statistischen Verfahren performance unter schen Investments auf Basis der drei Verwendung drei- Assetklassen ergab eine jährliche er Assetklassen (Aktien, Renten und Geld) Rendite von 17 % – im Gegensatz konnte eine reine Aktien-Strategie nur 11,5 % pro Jahr erzielen. Mit KNN können folglich effektive Modelle für die Asset-Allocation erstellt werden. Ein Nachteil besteht in der Faustregel, dass die Anzahl der Trainingsdatensätze, die für die Bestim-

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 66

mung der Netzparameter nötig sind, exponentiell mit der Zahl der erklärenden Variablen zunehmen. Zimmerer (1997) KNN im Ver- Anwendung auf gleich zu anderen ökonometrischen und zeitreihenanalytischen Verfahren den DM/US$Wechselkurs KNN erwiesen sich als sehr gute Approximierer in Bezug auf Trainingsdaten, jedoch versagten sie im Vergleich zu den klassischen statistischen Verfahren im Anwendungseinsatz (Out-of-sample). Dieser Sachverhalt erklärt sich durch die stärkere Neigung KNNe zum Overfitting, d. h. „Überlernen“ und damit einhergehenden Anlernen und „Speichern“ der Störgrößen der Trainingsdaten. Dieser Fakt wird durch das in KNN verwendeten Gradientenabstiegsverfahren erklärt, wonach das Netz die Aufgabe der Funktionsapproximierung zu gut erfüllt.

Tabelle 3: Empirische Studien und deren Ergebnisse zur praktischen Eignung von Verfahren zur Aktienkursprognose

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 67

Literaturverzeichnis
(1) Altay, E./Satman, M. H. (2005): Stock Market Forecasting: Artificial Neural Network and Linear Regression Comparison in an Emerging Market, in: Journal of Financial Management and Analysis, 2/2005, S. 18-33 (2) Anders, U. (1996): Statistische Modellierung von neuronalen Netzen, in: Quantitative Verfahren im Finanzmarktbereich, hrsg. von Schröder, M., 1. Auflage, BadenBaden 1996 (3) Backhaus, K. et al. (2011): Multivariate Analysemethoden – Eine anwendungsorientierte Einführung, 13. Auflage, Springer-Verlag Berlin Heidelberg 2011 (4) Bamberg, G./Baur, F./Krapp, M. (2009): Statistik, 15. Auflage, Oldenbourg Verlag München 2009 (5) Bankhofer, U./Rennhak, C. (1998): Ansätze zur Wechselkursprognose – Ein empirischer Vergleich mittels Methoden der Multivariaten Datenanalyse, in: Finanzmarkt und Portfolio Management, 2/1998, S. 197-212 (6) Banz, R. W. (1980): The Relationship between Return and Market Value of Common Stocks, in: Journal of Financial Economics, 9/1981, S. 3-18 (7) Bollerslev, T. (1986): Generalized Autoregressive Conditional Heteroskedasticity, in: Journal of Econometrics, 3/1986, 31. Jg., S. 307-327 (8) Buscher, H. S. (2012): Angewandte Zeitreihenanalyse, in: FinanzmarktÖkonometrie – Basistechniken, Fortgeschrittene Verfahren, Prognosemodelle, hrsg. von Schröder, M., 2. Auflage, Stuttgart 2012 (9) Carvalhal, A./de Melo Mendes, B. V. (2008): Evaluating the Forecast Accuracy of Emerging Market Stock Returns, in: Emerging Markets Finance & Trade, 1/2008, S. 21-40 (10) Chambers, J. M. et al. (1983): Graphical Methods for Data Analysis, 1. Auflage, Springer-Verlag Wadsworth 1983 (11) Cichocki, A. et al. (2005): Independent variable selection: Application of independent component analysis to forecasting a stock index, in: Journal of Asset Management, 6/2005, S. 248-258 (12) Drukarczyk, J. (1993): Theorie und Politik der Finanzierung, 2. Auflage, Verlag Franz Vahlen München 1993

Mathematisch-statistische Ansätze zur Aktienkursprognose (13)

Seite 68

Elton, E. et al. (1993): Efficiency with Costly Information: A Reinterpretation of Evidence for for Managed Portfolios, in: Review of Financial Studies, 6/1993, S. 122

(14)

Fahrmeir, L. et al. (2007): Statistik, 6. Auflage, Springer-Verlag Berlin Heidelberg 2007

(15)

Fama, E. F. et al. (1969): The Adjustment of Stock Prices to New Information, in: International Economics Review, 1969, S. 1-31

(16)

Fama, E. F. (1970): Efficient Capital Markets: A Review of Theory and Empirical Work, in: Journal of Finance, 2/1970, S. 383-417

(17)

Fama, E. F. (1991): Efficient Capital Markets: II, in: Journal of Finance, 5/1991, S. 1575-1617

(18)

Franke, G./Hax, H. (2009): Finanzwirtschaft des Unternehmens und Kapitalmarkt, 6. Auflage, Springer-Verlag Berlin Heidelberg 2009

(19)

Georgiadis, K. (2007): Aktienkursprognose mit neuronalen Netzwerken, Diplomarbeit, Rheinisch-Westfälische Technische Hochschule Aachen, 2007 Gourieroux, C./Jasiak, J. (2001): Financial Econometrics – Problems, Models, and Methods, 1. Auflage, Princeton University Press New Jersey 2001

(20)

(21)

Götz, E. (1990): Technische Aktienanalyse und Effizienz des deutschen Kapitalmarktes, Dissertation, Physica-Verlag Heidelberg 1990

(22)

Graf, J. et al. (1996): Strategische Asset-Allocation mit neuronalen Netzen: Prognosegesteuertes Portfoliomanagement, in: Quantitative Verfahren im Finanzmarktbereich, hrsg. von Schröder, M., 1. Auflage, Baden-Baden 1996

(23)

Grossman, S. J./Stiglitz, J. E. (1980): On the Impossibility of Informationally Efficient Markets, in: American Economic Review, 3/1980, S. 393-408

(24)

Hanke, J. E./Reitsch, A. G./Wichern, D. W. (2001): Business Forecasting, 7. Auflage, Prentice Hall New Jersey 2001 Hartung, J./Elpelt, B./Klösener, K.-H. (2002): Statistik – Lehr- und Handbuch der angewandten Statistik, 13. Auflage, Oldenbourg Verlag München 2002

(25)

(26)

Harvey, A. C. (1995): Zeitreihenmodelle, 2. Auflage, Oldenbourg Verlag München 1995 Hedderich, J./Sachs L. (2012): Angewandte Statistik – Methodensammlung mit R, 14. Auflage, Springer-Verlag Berlin Heidelberg 2012

(27)

(28)

Hossain, A./Nasser, M. (2009): Comparison of the finite mixture of ARMAGARCH, back propagation neural networks and support-vector machines in fore-

Mathematisch-statistische Ansätze zur Aktienkursprognose

Seite 69

casting financial returns, in: Journal of Applied Statistics, 3/2011, 38. Jg., S. 533551 (29) Hüttner, M. (1986): Prognoseverfahren und ihre Anwendung, 1. Auflage, Verlag de Gruyter Berlin New York 1986 (30) Janssen, J./Laatz, W. (2007): Statistische Datenanalyse mit SPSS für Windows, 6. Auflage, Springer-Verlag Berlin Heidelberg 2007 (31) Kamal, H. A./Eassa, M. H. (2002): Solving Curve Fitting Problems using Genetic Programming, in: Electrotechnical Conference 2002 MELECON 2002 11th Mediterranean – Conference Paper, S. 316-321 (32) Kähler, J. (2012): Regressionsanalyse, in: Finanzmarkt-Ökonometrie – Basistechniken, Fortgeschrittene Verfahren, Prognosemodelle, hrsg. von Schröder, M., 2. Auflage, Stuttgart 2012 (33) Kleeberg, J. M./Rehkugler, H. (2002): Handbuch Portfoliomanagement – Strukturierte Ansätze für ein modernes Portfoliomanagement, 2. Auflage, Uhlenbruch Verlag Bad Soden 2002 (34) Kopp, H. J. (1995): Erwerb eigener Aktien, Dissertation, Gabler Verlag Wiesbaden 1996 (35) Leiner, B. (1998): Grundlagen der Zeitreihenanalyse, 4. Auflage, Oldenbourg Verlag München 1998 (36) Lerbinger, P. (1984): Die Leistungsfähigkeit deutscher Aktieninvestmentfonds – Eine empirische Untersuchung zur Informationseffizienz des deutschen Aktienmarktes, in: Zeitschrift für betriebswirtschaftliche Forschung, 1/1984, 36. Jg., S. 60-73 (37) Lo, A. W. (2004): The Adaptive Market Hypothesis: Market Efficiency from an Evolutionary Perspective, in: Journal of Portfolio Management, 2004, S. 15-29 (38) Lo, A. W. (2005): Reconciling Efficient Markets with Behavioral Finance: The Adaptive Markets Hypothesis, in: Journal of Investment Consulting, 2005, S. 1-44 (39) Möller, H. P. (1985): Die Informationseffizienz des deutschen Kapitalmarktes, in: Zeitschrift für betriebswirtschaftliche Forschung, 6/1985, S. 500-518 (40) Oelker, J.-C. (2004): Modelle mit generalisierter bedingter autoregressiver Heteroskedastie und Anwendungen in der Kapitalmarkttheorie, Dissertation, Berlin 2004 (41) Poddig, T./Brinkmann, U./Seiler, K. (2009): Portfoliomanagement: Konzepte und Strategien – Theorie und praxisorientierte Anwendungen mit Excel, 2. Auflage, Uhlenbruch Verlag Bad Soden 2009

Mathematisch-statistische Ansätze zur Aktienkursprognose (42)

Seite 70

Poddig, T./Dichtl, H./Petersmeier, K. (2008): Statistik, Ökonometrie, Optimierung: Methoden und ihre praktischen Anwendungen in Finanzanalyse und Portfoliomanagement, 4. Auflage, Uhlenbruch Verlag Bad Soden 2008

(43)

Rebello, R. W./Reddy, Y. V. (2010): Multivariate Regression: A Tool for Forecasting Stock Prices, in: The IUP Journal of Accounting Research & Audit Practises, 9/2010, S. 7-32

(44)

Ricciardi, V./Simon, H. K. (2000): What is Behavioral Finance?, in: Business, Education & Technology Journal, 2/2000, S. 1-9

(45)

Safer, A. M. (2002): The application of neural networks to predict abnormal stock returns using insider trading data, in: Applied Stochastic Models in Business and Industry, 18/2002, S. 381-389 Sattler, R. R. (1999): Aktienkursprognose – Professionelles Know-how zur Vermögensanlage, 1. Auflage, Verlage Vahlen München, Helbing und Lichtenhahn Basel 1999

(46)

(47)

Schlittgen, R. (2001): Angewandte Zeitreihenanalyse, 1. Auflage, Oldenbourg Verlag München 2001

(48)

Schlittgen, R./Streitberg, B. H. J. (2001): Zeitreihenanalyse, 9. Auflage, Oldenbourg Verlag München 2001

(49)

Schmid, F./Trede, M. (2005): Finanzmarktstatistik, 1. Auflage, Springer-Verlag Berlin Heidelberg 2006 Schmitt, C. (2012): Stochastische Volatilität, in: Finanzmarkt-Ökonometrie – Basistechniken, Fortgeschrittene Verfahren, Prognosemodelle, hrsg. von Schröder, M., 2. Auflage, Stuttgart 2012 Schnelle, P. (2009): Asset Pricing bei heterogenen Erwartungen – Analyse der Auswirkungen von heterogenen Erwartungen auf Wertpapierpreise und Wertpapierbewegungen, Dissertation, 2009 Schnittke, J. (1989): Überrenditeeffekte am deutschen Aktienmarkt – Eine theoretische und empirische Analyse, Dissertation, Müller Botermann Verlag Köln 1989

(50)

(51)

(52)

(53)

Schredelseker, K. (1984): Anlagestrategie und Informationsnutzen am Aktienmarkt, in: Zeitschrift für betriebswirtschaftliche Forschung, 1/1984, S. 44-59

(54)

Schröder, M. (2012): Statistische Eigenschaften von Finanzmarkt-Zeitreihen, in: Finanzmarkt-Ökonometrie – Basistechniken, Fortgeschrittene Verfahren, Prognosemodelle, hrsg. von Schröder, M., 2. Auflage, Stuttgart 2012

Mathematisch-statistische Ansätze zur Aktienkursprognose (55)

Seite 71

Sharpe, W. F. (1992): Asset Allocation: Management Style and Performance Measurement, in: Journal of Portfolio Management, Winter, 18. Jg., S. 7-19

(56)

Solnik, B. H. (1973): Note on the Validity of the Random Walk for European Stock Prices, in: Journal of Finance, 5/1973, 28. Jg., S. 1151-1159

(57)

Spremann, K. (2008): Portfoliomanagement, 4. Auflage, Oldenbourg Verlag München 2008

(58)

Steurer, E. (1995): Wechselkursprognose: Fehlerkorrekturmodelle im Vergleich mit Neuronalen Netzen, in: Finanzmarktanalyse und -prognose mit innovativen quantitativen Verfahren, hrsg. von Bol, G./Nakhaeizadeh, G./Vollmer, K.-H., 1. Auflage, Heidelberg 1996

(59)

Stier, W. (2001): Methoden der Zeitreihenanalyse, 1. Auflage, Springer-Verlag Berlin Heidelberg 2001 Toutenburg, H. (2002): Lineare Modelle – Theorie und Anwendungen, 2. Auflage, Physica-Verlag Heidelberg 2003 Tsay, R. S. (2002): Analysis of Financial Time Series – Financial Econometrics, 1. Auflage, Wiley-Verlag New York 2002 Vieker, M. (1993): Indikatorenprognosen – Ökonometrische Untersuchungen zur Aktienindexprognose durch technische Börsenindikatoren, 2. Auflage, Thomas Müller Börsenverlag Rosenheim 1996

(60)

(61)

(62)

(63)

Wagner, N. F. (1996): Approximative Nachbildung des Deutschen Aktienindex (DAX), in: Schweizerische Gesellschaft für Finanzmarktforschung, 1996, S. 375393 Welcker, J. (1994): Technische Aktienanalyse – Die Methoden der Technischen Analyse mit Chart-Übungen, 7. Auflage, Verlag moderne industrie Zürich 1994

(64)

(65)

Wittrock, C. (1995): Messung und Analyse der Performance von Wertpapierportfolios: eine theoretische und empirische Untersuchung, Dissertation, Uhlenbruch Verlag Bad Soden 1995

(66)

Yao, J./Tan, C. L./Poh, H.-L. (1999): Neural Network for Technical Analysis: A Study on KLCI, in: International Journal of Theoretical and Applied Finance, 2/1999, S. 221-241

(67)

Zell, A. (1997): Simulation neuronaler Netze, 1. Auflage, Addison-Wesley Verlag München 1997

Mathematisch-statistische Ansätze zur Aktienkursprognose (68)

Seite 72

Zimmerer, T. (1997): Künstliche neuronale Netze versus ökonometrische und zeitreihenanalytische Verfahren zur Prognose ökonomischer Zeitreihen, Dissertation, Verlag Peter Lang Frankfurt am Main 1997

(69)

Zimmermann, H. et al. (1996): Moderne Performance-Messung: Ein Handbuch für die Praxis, in: Bank- und finanzwirtschaftliche Forschungen, Band 226, hrsg. von Kilgus, E. et al., 1. Auflage, Paul Haupt Verlag Bern 1996

Similar Documents

Premium Essay

The Bullwhip Effect in a Multi Level Supply Chain Network

...THE BULLWHIP-EFFECT IN A MULTI LEVEL SUPPLY CHAIN NETWORK Research in Progress Reisich, Friedrich, University of Duisburg-Essen, 2247800, Essen, Germany, friedrich.reisich@stud.uni-due.de Abstract Forrester discovered the amplification and oscillation of order information in supply chains about 55 years ago and called it the Bullwhip Effect. Since then researchers look for reasons and try to find countermeasures. Most of the countermeasures which were formulated in the last decades are based on experiments with simple linear supply chain models consisting of two to four serial levels. In reality supply chains are complex and dynamic systems. In this paper we developed a dynamic simulation model of a complex simulation network and statistically examine whether the countermeasures described in the scientific literature work or do not work. The preliminary results shows us that at least one countermeasure which works perfectly in linear supply chains is also suitable for complex supply chain networks. Keywords: Bullwhip Effect, Forrester Effect, Whiplash Effect, Supply Chain Networks.. IS Research Fundamentals 1 1 Introduction The Bullwhip Effect or Forrester Effect is a major problem in supply chains. It was first discovered by Forrester (1972) who realized that variations of demand increase up as one moves up the supply chain from the ultimate customer to the ultimate producer. This phenomenon is considered one of the main reasons for inefficiencies...

Words: 2645 - Pages: 11

Premium Essay

Six Sigma

...six sigma six sigma training, history, definitions - six sigma and quality management glossary Six Sigma is now according to many business development and quality improvement experts, the most popular management methodology in history. Six Sigma is certainly a very big industry in its own right, and Six Sigma is now an enormous 'brand' in the world of corporate development. Six Sigma began in 1986 as a statistically-based method to reduce variation in electronic manufacturing processes in Motorola Inc in the USA. Today, twenty-something years on, Six Sigma is used as an all-encompassing business performance methodology, all over the world, in organizations as diverse as local government departments, prisons, hospitals, the armed forces, banks, and multi-nationals corporations. While Six Sigma implementation continues apace in many of the world's largest corporations, many organizations and suppliers in the consulting and training communities have also seized on the Six Sigma concept, to package and provide all sorts of Six Sigma 'branded' training products and consultancy and services. Six Sigma has also spawned manay and various business books on the subject. Six Sigma, it might seem, is taking over the world. Interestingly while Six Sigma has become a very widely used 'generic' term, the name Six Sigma is actually a registered trademark of Motorola Inc., in the USA, who first pioneered Six Sigma methods in the 1980's. The original and technically correct spelling seems to be...

Words: 10544 - Pages: 43

Premium Essay

Business Management

...Business Man 1 Intro to Bus Man as science - Study Unit 1 & 2 Man science uses a scientific approach to solver many problems. Used in variety of orgs to sove different types of problems. Encompasses a logicical mathematical approach to problem solving 1.1 Man science process • Observation - Identification of a problem that exists in the system or organization. • Definition of the Problem - problem must be clearly and consistently defined showing its boundaries and interaction with the objectives of the organization. • Model Construction - Development of the functional mathematical relationships that describe the decision variables, objective function and constraints of the problem. • Model Solution - Models solved using management science techniques. • Model Implementation - Actual use of the model or its solution. 1.2 Factors of production Natural resources i.e. crude oil Capital i.e. investors Labour i.e. technical and academic Entrepeneurship i.e. takes capital and link labour and natural resouces combined with risk to provide goods and services. Knowledge i.e. to determine wants and needs quickly and to respond to them with products and services. 1.3 3 Most NB Economic systems = Capatalism, Socialism and Communism 1.3.1 Capatalism Free market system Built on principles of private ownership Is based on the right to make a profit, right to compete and the right to own property. System is market driven and the solutions to a country's economic problems...

Words: 9542 - Pages: 39

Premium Essay

Dferewrwerwe

...making. introduction of enterprise resource planning (eRP) systems has ensured availability of data in many organizations; however, traditional eRP systems lacked data analysis capabilities that can assist the management in decision making. Business Analytics is a set of techniques and processes that can be used to analyse data to improve business performance through fact-based decision making. Business Analytics is the subset of Business intelligence, which creates capabilities for companies to compete in the market effectively. Business Analytics is likely to become one of the main functional areas in most companies. Analytics companies develop the ability to support their decisions through analytic reasoning using a variety of statistical and mathematical techniques. thomas devonport in his book titled, “competing on analytics: the new science of winning”, claims that a significant proportion of high-performance companies have high analytical skills among their personnel. On the other hand, a recent study has also revealed that more than 59% of the organizations do not have information required for decision-making. in a recent article1 based on a survey of nearly 3000 executives, Mit sloan Management Review reported that there is striking...

Words: 4378 - Pages: 18

Free Essay

Financial Markets

...EFB201  Financial  Markets   Learning  Guide EFB201 Learning Guide 1     Workload  Expectations     The  unit  has  a  two-­‐hour  lecture  with  a  one-­‐hour  workshop/tutorial  each  week.  QUT   Guidelines  are  that  “Eight  to  10  hours  per  unit  per  week  should  be  spent  outside  the   classroom  reading  and  working  on  assignments  and  tutorial  tasks.”  This  unit  covers  a   large  amount  of  material  commensurate  with  the  workload  expectations  described   above.     The  lectures  are  an  integral  part  of  the  course  materials  and  will  contain  spoken  or   written  material  that  is  additional  to  that  in  the  textbook  and  set  readings.  Conversely,   not  all  the  set  textbook  or  other  readings  will  be  covered  in  the  lectures.  In  addition,  you   will  be  expected  to  do  your  own  research  in  respect  of  particular  topics,  and  this  also   forms  part  of  the  unit  materials.     All  unit  material  is  assessable;  in  other  words,  it  is  not  possible  to  identify...

Words: 9061 - Pages: 37

Free Essay

Risk

...Credit Risk Management Ken Brown Peter Moles CR-A2-engb 1/2012 (1044) This course text is part of the learning content for this Edinburgh Business School course. In addition to this printed course text, you should also have access to the course website in this subject, which will provide you with more learning content, the Profiler software and past examination questions and answers. The content of this course text is updated from time to time, and all changes are reflected in the version of the text that appears on the accompanying website at http://coursewebsites.ebsglobal.net/. Most updates are minor, and examination questions will avoid any new or significantly altered material for two years following publication of the relevant material on the website. You can check the version of the course text via the version release number to be found on the front page of the text, and compare this to the version number of the latest PDF version of the text on the website. If you are studying this course as part of a tutored programme, you should contact your Centre for further information on any changes. Full terms and conditions that apply to students on any of the Edinburgh Business School courses are available on the website www.ebsglobal.net, and should have been notified to you either by Edinburgh Business School or by the centre or regional partner through whom you purchased your course. If this is not the case, please contact Edinburgh Business School at the address below:...

Words: 21029 - Pages: 85

Premium Essay

Researching and Writing

.... ReseaRching and WRiting a disseRtation a guidebook foR business students Colin Fisher second edition . Researching and Writing a Dissertation: A Guidebook for Business Students . We work with leading authors to develop the strongest educational materials in management, bringing cutting-edge thinking and best learning practice to a global market. Under a range of well-known imprints, including Financial Times Prentice Hall, we craft high-quality print and electronic publications which help readers to understand and apply their content, whether studying or at work. To find out more about the complete range of our publishing, please visit us on the World Wide Web at: www.pearsoned.co.uk . Researching and Writing a Dissertation: A Guidebook for Business Students Second edition Colin Fisher with John Buglear Diannah Lowry Alistair Mutch Carole Tansley . Pearson Education Limited Edinburgh Gate Harlow Essex CM20 2JE England and Associated Companies throughout the world Visit us on the World Wide Web at: www.pearsoned.co.uk First published 2004 Second edition 2007 © Pearson Education Limited 2004 © Pearson Education Limited 2007 The right of Colin Fisher to be identified as author of this work has been asserted by him in accordance with the Copyright, Designs and Patents Act 1988. All rights reserved. No part of this publication may be reproduced, stored in a retrieval system, or transmitted in any form or by any means, electronic, mechanical...

Words: 142971 - Pages: 572

Free Essay

Abcd

...Shanti Business School PGDM Batch 2015-17 Semester II Course Outline 1 Shanti Business School, Ahmedabad PGDM 2015-17: Program Structure Semester-1 Semester-2 Semester-3 Semester-4 Course credit Course credit Course credit Language Skills @ Written Analysis & Communication @ Soft skills II @ Employability Skills @ IT & MIS 2 Soft skills I @ Computing skills 2 Social Media Marketing @ 2 Legal Aspects of Business 2 Business Strategy 3 Management Control Systems 3 Micro Economics 3 Macro Economics 3 Business Environment 3 Business Ethics & Corporate Governance 2 Quantitative Methods-1 3 Business Research Methods 3 Quantitative Methods-2 3 Core Elective-1 3 Core Elective1 3 Core Elective-2 3 Core Elective2 3 Elective-1 3 Elective-1 3 Elective-2 3 Elective-2 3 Grand Project-1 3 Grand Project-2 3 Principles of Management Basic Building Blocks Autumn Break Executive Skills Organisational Behavior Human Resources Management 3 Marketing Management 1 3 Marketing Management -2 3 Understanding Financial Statements 3 Financial Mgt 3 Operation Management Management Domain 3 3 Basics of Business Planning 2 Electives Credits Autumn Break credit SUMMER INTERNSHIP Course ...

Words: 7010 - Pages: 29

Premium Essay

The Effect of a Broken Family

...PhD Thesis 1998 Social, environmental and ethical factors in engineering design theory: a post-positivist approach Terence Love Department of Mechanical and Materials Engineering University of Western Australia Social, environmental and ethical factors in engineering design theory: a post-positivist approach Terence Love B.A. (Hons) Engineering This thesis is presented for the degree of Doctor of Philosophy of The University of Western Australia. Department of Mechanical and Materials Engineering 1998 Abstract This research investigated how social, environmental and ethical factors can be better included in theories of engineering design. The research focused on designing as an essentially human activity via consideration of the epistemological and ontological issues involved in constructing coherent design theory. The research investigations led to a clearer understanding of the roles of ontology, epistemology and methodology in design research and this clarification enabled the construction of a post-positivist approach to engineering design theory that better includes social, environmental and ethical factors alongside the existing products of scientific engineering design research. Other contributions to knowledge that emerged from the research process and which underpin the conclusions include; clarification of the terminology and basic...

Words: 105471 - Pages: 422

Premium Essay

Balanced Score Card

...A PROPOSAL ON HOW TO APPLY THE BALANCED SCORECARD TO THE COLLECTIVE INVESTMENT MANAGERIAL FIRMS. Muñoz Colomina, Clara I. Urquía Grande, Elena Sevillano Martín, Fco. Javier (Universidad Complutense de Madrid) PAPER FINANCED BY THE PROJECT PR1/03-11669 OF THE UNIVERSITY COMPLUTENSE OF MADRID A PROPOSAL ON HOW TO APPLY THE BALANCED SCORECARD TO THE COLLECTIVE INVESTMENT MANAGERIAL FIRMS. Muñoz Colomina, Clara I. Urquía Grande, Elena Sevillano Martín, Fco. Javier (Universidad Complutense de Madrid) Collective investment companies, as other institutions in the financial sector, are actually going through moments of great volatility. Consequently these firms need to reformulate their strategic forecast for the next years. This need arises, among other factors, from the collapse of global financial markets, progressive liberalizations in tax and company regulation and the evolution in information technology. Collective investments are very appealing for small investors, as they allow them to benefit from the skills of a professional management, as well as to spread different risks with a diversified portfolio in the different mutual funds. Nevertheless in moments of crisis such as the world is experiencing now, the great volatility of markets and capital losses clearly offset the attractiveness of the portfolio management. The starting point is to take into account the new scenario now developing in collective investment management firms: increasing competence, less captive...

Words: 7509 - Pages: 31

Premium Essay

Bbuuuuurp

...PhD Thesis 1998 Social, environmental and ethical factors in engineering design theory: a post-positivist approach Terence Love Department of Mechanical and Materials Engineering University of Western Australia Social, environmental and ethical factors in engineering design theory: a post-positivist approach Terence Love B.A. (Hons) Engineering This thesis is presented for the degree of Doctor of Philosophy of The University of Western Australia. Department of Mechanical and Materials Engineering 1998 Abstract This research investigated how social, environmental and ethical factors can be better included in theories of engineering design. The research focused on designing as an essentially human activity via consideration of the epistemological and ontological issues involved in constructing coherent design theory. The research investigations led to a clearer understanding of the roles of ontology, epistemology and methodology in design research and this clarification enabled the construction of a post-positivist approach to engineering design theory that better includes social, environmental and ethical factors alongside the existing products of scientific engineering design research. Other contributions to knowledge that emerged from the research process and which underpin the conclusions include; clarification of the terminology and basic...

Words: 105471 - Pages: 422

Premium Essay

Akiz Group

...Company Overview Akij Group History of Akij Group stretches back to later part of the forties. In its infancy, the Group started in humble way with jute trading which was known as the golden fiber of the country, earning highest amount of foreign exchange. Akij Group's ceaseless efforts with dynamic management and support from our numerous clients have led our Group in diversifying its business activities. In the second phase, the Group went into manufacturing handmade cigarettes popularly known as bidis. This sector gave a real boost to the revenue earning of the Group as well as making a substantial contribution to government exchequer. With the passage of time, the Group undertook new ventures and presently there are 15 units of industries under its umbrella like cigarettes, handmade cigarettes, printing & packaging, textiles, hand board, pharmaceutical, leather processing and real-estate business are in operation, catering jobs for more that 32,000 people in various categories. The Group has plans for setting up more projects. The projects are already in pipeline. Foreign investors have shown keen interest in joining with us for joint ventures. The matter is under our active consideration and will hopefully soon mature. This will also help the nation's economy growth and will create job opportunities to various professionals. Akij Group is also involved in socio-cultural activities. The Group has been operating a sizeable orphanage free of charge in district town...

Words: 14023 - Pages: 57

Premium Essay

Predictive Analytics in Fmcg

...predict customer responses in the future. It provides solutions for businesses facing main problems like ‘What segment of potential consumers will respond best to our message’ and ‘how can I stop my customers from leaving, and why am I losing them?’(Curtis, 2010). Predictive analytics is not just for providing a solution for a business problem but involves techniques mainly to improve the focus of company towards customers and customers towards company. The magnificence of predictive analytics is that a business characteristically perceives a win-win situation. In other words, a business not only benefits from higher returns but also gets to save on cost (Colin, 2009). Predictive analytics is becoming a competitive necessity and an important aspect of many types of business, particularly in this type of economy where an organization is trying to increase its efficiency and at the same time maintain and grow the business. The choice of this topic comes from the fact that prediction is always interesting and challenging. One needs to analyse the history in depth to predict accurately. From the business point of view, predicting and taking decisions for the future growth of organization is the most challenging. And the same intuition led us for the selection of this...

Words: 5988 - Pages: 24

Premium Essay

Total Quality Management

...TOTAL QUALITY MANAGEMENT AND SIX SIGMA Edited by Tauseef Aized Total Quality Management and Six Sigma http://dx.doi.org/10.5772/2559 Edited by Tauseef Aized Contributors Aleksandar Vujovic, Zdravko Krivokapic, Jelena Jovanovic, Svante Lifvergren, Bo Bergman, Adela-Eliza Dumitrascu, Anisor Nedelcu, Erika Alves dos Santos, Mithat Zeydan, Gülhan Toğa, Johnson Olabode Adeoti, Andrey Kostogryzov, George Nistratov, Andrey Nistratov, Vidoje Moracanin, Ching-Chow Yang, Ayon Chakraborty, Kay Chuan Tan, Graham Cartwright, John Oakland Published by InTech Janeza Trdine 9, 51000 Rijeka, Croatia Copyright © 2012 InTech All chapters are Open Access distributed under the Creative Commons Attribution 3.0 license, which allows users to download, copy and build upon published articles even for commercial purposes, as long as the author and publisher are properly credited, which ensures maximum dissemination and a wider impact of our publications. After this work has been published by InTech, authors have the right to republish it, in whole or part, in any publication of which they are the author, and to make other personal use of the work. Any republication, referencing or personal use of the work must explicitly identify the original source. Notice Statements and opinions expressed in the chapters are these of the individual contributors and not necessarily those of the editors or publisher. No responsibility is accepted for the accuracy of information contained...

Words: 105584 - Pages: 423

Premium Essay

Report

...Republic of the Philippines Technological University of the Philippines Ayala Boulevard, Ermita Manila IM – 10: Production Management CHAPTER VIII. Production Process Improvement For Product Innovation Submitted by: Tugade, Erwin Benedict P. Liang, Dongping (Jessie) BAM – IM – 4LE Submitted to: Noel B. Hernandez, Ph. D. Topics to be discussed 1. Production Process. 2. Characteristics of A Production Process. 3. Importance of Continuous Process improvement. 4. Innovation Drivers of Change. 5. Reverse Engineering. 6. Kaizen. Objectives * To be able to know what is Product Innovation. * To identify the reason of Continuous Innovation. * To be able to enumerate different factors Necessitating Change in Process Design * To introduce some new ways of thinking about continuous improvement. * To understand innovation as drivers of change. * To discuss about Reverse Engineering and Kaizen. Introduction To win in manufacturing, not only do you need the ability to innovate, but you must also execute upon that innovation and deliver new product to market before your competitors do. That's true manufacturing agility, and it can't happen if your enterprise is burdened by isolated plant-based execution systems that lack coordination between headquarters, engineering and the shop floor. As Blanchard (2005) believes that innovation is the successful exploitation of new ideas. And companies’ success, for example...

Words: 3906 - Pages: 16