Artikel von Dr. Campbell Harvey, Partner und Leiter der Forschungsabteilung bei Research Affiliates
Wir sind alle Quants
In meinem Aufsatz "Mensch gegen Maschine" habe ich eine faszinierende Übung unternommen. [1] Für die Analyse war eine umfangreiche Stichprobe von Hedgefonds erforderlich. Die Hälfte der Stichprobe gab an, ob es sich um systematische oder diskretionäre Fonds handelt. Die andere Hälfte gab keine Erklärung ab, beschrieb aber detailliert, was der Fonds tat. Wir begannen mit der folgenden Übung zur Verarbeitung natürlicher Sprache: Wir suchten nach Wörtern und Ausdrücken, die in unserer Trainingsstichprobe (bei der wir die Wahrheit kannten) zwischen systematisch und diskretionär unterschieden, und wandten dies dann auf die Tausenden von nicht klassifizierten Fonds an.
Bestimmte Wörter, wie z. B. "algorithmisch", waren sehr sinnvoll. Wir waren auch sehr an dem Wort "Quant" oder "quantitativ" interessiert. Zu unserer Überraschung unterschied das Wort "Quant" nicht zwischen systematisch und diskretionär. Es war sogar wahrscheinlicher, dass "Quant" mit diskretionären Fondsbeschreibungen in Verbindung gebracht wurde!
Was hat das zu bedeuten? Ganz einfach: Die quantitative Analyse ist sowohl für diskretionäre als auch für systematische Fonds ein wesentlicher Bestandteil des Anlageprozesses. Während der diskretionäre Portfoliomanager in der Vergangenheit vielleicht eine Excel-Tabelle mit Bewertungsmodellen für seine Lieblingsnamen zur Verfügung gestellt hat, verlangt das heutige Informationsumfeld den Einsatz quantitativer Instrumente. Anlageexperten stehen heute Tausende von Datenbanken zur Verfügung, und es ist unwahrscheinlich, dass ein einzelner Manager alle von diesen quantitativen Instrumenten benötigten Daten manuell verarbeiten kann.
In der heutigen Zeit sind wir alle Quants, aber wir steuern nicht alle systematische Portfolios. Bei systematischen Anlagen werden die Geschäfte durch Regeln oder Algorithmen generiert, die natürlich von Menschen entworfen werden. Diese Algorithmen arbeiten unabhängig, wenn sie im Live-Handel eingesetzt werden. Bei diskretionären Portfolios treffen die Manager die endgültigen Handelsentscheidungen, auch wenn sie viele quantitative Instrumente einsetzen, um ihren Entscheidungsprozess zu unterstützen. Letztendlich ist es jedoch ein Mensch, der die Handelsidee entwickelt - und kein Algorithmus.
Ursprünge
Vor fünfunddreißig Jahren war das systematische Investieren ein Nischenanlagestil, der sich hauptsächlich auf Trendfolgesysteme konzentrierte. Die ersten Algorithmen operationalisierten einen jahrhundertealten Anlageansatz, die so genannte technische Analyse. Die technische Analyse hat zwar viele Facetten, aber die Identifizierung und Extrapolation von Trends ist ihr Eckpfeiler. Ein Nachteil ist der unvermeidliche Wendepunkt. Irgendwann wird sich der Trend umkehren. Die Algorithmen haben sich so entwickelt, dass nach einem längeren Trend (oder einem sehr starken Trendsignal) das Risiko reduziert wurde. Diese Fähigkeit ermöglichte die Erkennung von Reversals und verringerte die Verluste an Wendepunkten.
Die nächste Welle waren quantitative Modelle zur Aktienauswahl. Diese Modelle verwendeten einen algorithmischen Ansatz, um Aktien zu identifizieren, die die Strategie kaufen oder verkaufen sollte. Bei Long-only-Portfolios bestimmten diese Modelle die Über- und Untergewichtung von Wertpapieren. Diese Modelle gingen in der Regel über die Kursdaten hinaus und bezogen fundamentale Informationen wie Bewertung, Wachstum, Rentabilität und Qualitätskennzahlen mit ein.
Die nächste bedeutende Innovation im Bereich der systematischen Anlagen war das Aufkommen der so genannten Smart-Beta-Strategien. Diese kostengünstigen Produkte können sich auf einen bestimmten Faktor oder eine bestimmte Strategie konzentrieren, wie z. B. Value. Der Name - der in der Regel für eine breite Palette von formelhaften oder algorithmischen Strategien verwendet wird, die oft beeindruckende Backtest-Ergebnisse aufweisen - erweckt den Eindruck, dass die Strategien intelligent sind. Es gibt jedoch eine Vielzahl von Strategien, die nicht intelligent sind und unter dieser Bezeichnung angeboten werden. Bei den Smart-Beta-Strategien wird ein Index mithilfe eines algorithmischen Ansatzes erstellt. Die Anleger können diese Strategie in vielen Formen nutzen, z. B. als börsengehandelte Fonds oder Investmentfonds. Smart-Beta-Strategien haben auch multifaktorielle Versionen.
Als gleichzeitig mehr Kapital auf den Markt kam, erkannten viele Manager, dass der einfachste Weg, das Alpha zu erhöhen, darin bestand, die Kosten zu senken. Eine Möglichkeit zur Kostensenkung war eine verbesserte Ausführung. Die dritte Welle war daher das Aufkommen des systematischen Hochfrequenzhandels. Ein solcher Handel kann für Fonds wie Renaissance Technologies eigenständig rentabel sein - oder er kann Teil der Ausführungsstrategien sowohl von systematischen als auch von diskretionären Fonds sein.
Derzeit stehen wir am Anfang der Ära des Einsatzes von Instrumenten der künstlichen Intelligenz (KI) sowohl bei systematischen als auch bei diskretionären Strategien. So können beispielsweise umfangreiche Sprachmodelle Forschern dabei helfen, eine große Menge an Finanzinformationen zu analysieren und Risikofaktoren zu isolieren.
Maschinelles Lernen
In den letzten Jahren sind Tools für das maschinelle Lernen aufgetaucht, die systematische Anlagestrategien vorantreiben. Diese Tools gibt es schon seit geraumer Zeit. Tatsächlich habe ich vor fast 25 Jahren versucht, einige Deep-Learning-Tools auf Aktienrenditen anzuwenden. Das Modell scheiterte, weil es zu einfach war. Es war zu einfach, weil es zu wenig Rechenleistung hatte.
Drei spezifische Faktoren haben zu dem sprunghaften Anstieg der Anwendungen des maschinellen Lernens geführt. Erstens hat die Rechengeschwindigkeit stark zugenommen. Im Jahr 1990 kostete ein Cray 2 Supercomputer 32 Millionen Dollar (in heutigen Dollar), wog 5.500 Pfund und benötigte eine Kühleinheit. Er konnte 1,9 Milliarden Gleitkommaoperationen pro Sekunde durchführen. Heute ist Ihr Mobiltelefon 500 Mal schneller als der Cray 2.
Der zweite Faktor sind die Daten. Zu Zeiten der Cray 2 kostete ein Gigabyte Speicherplatz 10.000 Dollar. Heute liegen die Kosten für ein Gigabyte bei weniger als einem Cent. Dies ermöglicht die kostengünstige Erfassung und Speicherung riesiger Datenmengen. Neben der billigen Speicherung hat sich der Umfang der Daten über Finanz- und Preisinformationen hinaus auf unstrukturierte Daten aus einer Vielzahl von Quellen (Text, Sprache, Web, Geosat, Bilder usw.) erweitert.
Der dritte Faktor ist die Open-Source-Software. In der Vergangenheit war die Softwareentwicklung isoliert. Heute haben wir eine völlig andere Situation. Die Entwicklung ist viel effizienter, weil die Ingenieure das Rad nicht neu erfinden müssen: Sie gehen zu GitHub und finden dort viele andere, die sich mit demselben Problem befasst haben, und die Lösungen sind frei verfügbar.