Einige Anleger erklären die Märkte mit fundamentalen Daten, andere mit technischen Instrumenten, und wiederum andere mit verhaltensbasierten Effekten. Viele Entwickler systematischer Handelsstrategien haben dagegen eine ganz andere Vorstellung – sie sehen die Märkte als abstrakte, Daten-Generierende-Prozesse.
Ein Pfad von vielen
Es ist kein Geheimnis, dass sich die Märkte im Zeitablauf in verschiedenen Phasen befinden. Neben dem klassischen, ruhigen Bullenmarkt gibt es volatile Seitwärtsphasen, turbulente Crashs und zermürbende Bärenmärkte. Jede dieser Phasen endet irgendwann und geht in ein neues Regime über. Dabei verändern sich auch die Ausprägungen der einzelnen Phasen in Zeitablauf, sodass kein Markt identisch zur früheren Version seiner selbst ist. Die einzelnen Akteure passen sich an und lernen dazu, und im Ergebnis dessen entwickeln sich die Märkte im Zeitablauf weiter.
Die Herausforderung, unter sich ständig verändernden Bedingungen dauerhaft profitable Algorithmen zu entwickeln, ist enorm.
In seinem Paper „Tactical Investment Algorithms“ erklärt Marcos López de Prado das entscheidende Problem: Wir kennen nicht den wahren Prozess, der die vergangene Datenzeitreihe generiert hat. Alles, was wir haben, ist ein einziger von vielen Pfaden, die sich alternativ hätten entwickeln können. Deshalb stehen einfache Backtests, die nur auf diesem einen Pfad basieren, auf wackeligen Beinen.
Bessere Backtests
Kann es angesichts dieser Herausforderungen überhaupt Handelsstrategien geben, die „immer“ funktionieren? Wenn es nach de Prado geht, stehen die Chancen dafür schlecht – und selbst wenn es sie gibt, wären sie wohl nicht gerade überragend.
Allerdings ist diese All-Weather-Annahme implizit in einer Testmethode enthalten, die in Theorie und Praxis besonders verbreitet ist: Die Walk-Forward-Analyse. Auf den ersten Blick scheint sie aufgrund des Einbezugs von Out-of-Sample-Perioden zwar ausgereifter als einfache Backtests, aber letztlich bleiben die beiden Grundprobleme die gleichen: Die Annahme, dass künftige Beobachtungen auf dem gleichen Daten-Generierenden-Prozess (DGP) beruhen wie die vergangenen. Und die Annahme, dass der eine beobachtete Pfad tatsächlich repräsentativ für diesen Prozess ist.
Wie de Prado in seinem Paper schreibt, können fortgeschrittene Testmethoden wie zum Beispiel das Bootstrapping eingesetzt werden, um die problematische Pfadabhängigkeit durch ein Resampling der Vergangenheitswerte zu lösen. Doch auch hier bleibt de Prado zufolge das Problem der begrenzten Datenhistorie, die nicht unbedingt repräsentativ für die künftige Entwicklung ist.
Monte Carlo, der klare Favorit
In seinem Paper favorisiert de Prado die Monte-Carlo-Methode. Diese simuliert auf Basis eines vorgegebenen, geschätzten DGP eine Vielzahl von Datensätzen, deren statistische Eigenschaften denen des DGP entsprechen und die mit zufälligem Rauschen überlagert sind. Anders als etwa beim Bootstrap-Resampling, bei dem die Simulation auf Basis tatsächlich beobachteter Marktdaten beruht, handelt es sich bei der Monte-Carlo-Methode um künstliche Daten. Als klassisches Beispiel beschreibt das Paper ein Regime-Switching-Modell, in dem die Stichproben aus verschiedenen DGP gezogen werden können. Hierbei wird ein spezieller Algorithmus eingesetzt, der fortlaufend die Wahrscheinlichkeit schätzt, dass der DGP in ein neues Regime kippt. Ein so parametrisiertes Modell lässt sich dann optimieren, um den statistischen Eigenschaften der tatsächlich beobachteten Daten zu entsprechen. Basierend auf diesen Zielvorgaben kann eine Vielzahl künstlicher Datensätze repliziert werden, die eine deutlich umfangreichere Analyse als beim Resampling einer begrenzten und potenziell nicht repräsentativen Datenhistorie ermöglicht.
Neben den statistischen Eigenschaften können auch fundierte theoretische Überlegungen zu einem tieferen Verständnis für den wahrscheinlichen DGP beitragen. De Prado nennt als Beispiel zwei dynamische Variablen, zwischen denen nach anerkannten Theorien ein langfristiges Gleichgewicht besteht (Kointegration). Durch empirische Untersuchungen lässt sich die ungefähre Bandbreite von Werten bestimmen, die diese Variablen annehmen können. Auf Basis dieser Inputs ist es möglich, viele Millionen Jahre an künstlichen Daten zu simulieren, in denen die Variablen alle möglichen Werte innerhalb der geschätzten Bandbreite realisieren.