Was ist Machine Learning?
Allgemein versteht man unter Machine Learning die Idee, dass sich Computerprogramme durch Lerneffekte im Zeitablauf selbst verbessern können. Bezogen auf den Börsenhandel ist damit die nächste Stufe in der Evolution statistischer und quantitativer Methoden gemeint. Denn obwohl sich der Einfluss des Menschen im Quant-Geschäft bereits zunehmend verringerte, spielten die Entscheider weiterhin eine wichtige Rolle – etwa, indem sie zu Beginn quantitativer Analysen zunächst das zu verwendende Modell festlegten.
Dieser menschliche Einfluss ist bei Machine Learning nochmals weitaus geringer bzw. im Idealfall nicht mehr existent. Die Algorithmen können viele Modelle parallel betrachten und dann selbst entscheiden, welches Framework für die weiteren Untersuchungen verwendet werden soll.
Für viele etablierte Asset Manager scheint dieser Schritt revolutionär. Entsprechend weit gehen die Meinungen auseinander und reichen von Skepsis, Verwirrung und Unverständnis bis hin zum modernen Denken, dass dies eine fortschrittliche, bessere Entscheidungsfindung ermöglicht.
Ein neues Wort für alte Ideen?
Im Paper „Can Machines 'Learn' Finance?“ schreiben Ronen Israel, Bryan Kelly und Tobias Moskowitz, dass die hohe Bandbreite an Einschätzungen damit zusammenhängt, dass Machine Learning ein sich schnell entwickelndes, aber sehr technisches Gebiet ist, auf dem nur wenige Marktteilnehmer den vollen Durchblick haben. Deshalb wird der Begriff in der Praxis mitunter so verwendet, wie es gerade passt, etwa für Marketingzwecke.
Doch wodurch unterscheidet sich Machine Learning von bisherigen quantitativen Konzepten? Dazu nennt das Paper drei Kriterien, welche die Algorithmen erfüllen: [1]
Merkmale von Machine Learning:
Anwendung „großer“ Modelle mit vielen Parametern (Features) und/oder komplexen nichtlinearen Zusammenhängen zwischen Inputs und Outputs mit dem Ziel, auf Basis eines unbekannten Pricing-Modells des Marktes die maximale Prognosegüte zu erzielen
Auswahl eines bevorzugten Modells aus einer Anzahl vieler verschiedener Modelle unter Berücksichtigung von Regulierungstechniken zur Begrenzung der Granularität sowie von Cross-Validation-Methoden mit simulierten Out-of-Sample-Tests, um Überoptimierungen zu vermeiden
Innovative Ansätze zur effizienten Modelloptimierung, die den Berechnungsaufwand in Big-Data-Umgebungen reduzieren, wie etwa der Stochastic Gradient Descent, der nur zufällige Teile der Daten ohne großen Genauigkeitsverlust betrachtet
Die Autoren schreiben, dass als Input für Machine Learning im Idealfall „Goldilocks-Modelle“ verwendet werden. Diese sind groß genug, um verlässlich die echten, potenziell komplexen Zusammenhänge mit Prognosecharakter in den Daten zu erkennen. Gleichzeitig sind sie nicht dermaßen flexibel, dass sie eine Überoptimierung auf historischen Daten erzeugen, was Out of Sample zu einer enttäuschenden Performance führen würde.
Wann funktioniert Machine Learning?
Die bisherigen Erfolgsstorys von Machine Learning in Bereichen wie Spracherkennung, strategische Spiele und Robotik stammen dem Paper zufolge aus Umgebungen, die zwei entscheidende Faktoren vereinen: [1]