Thursday, November 10, 2016

Optimale Handelsstrategien Quantitative Ansätze

Beste Programmiersprache für algorithmische Handelssysteme Von Michael Halls-Moore am 26. Juli 2013 Eine der häufigsten Fragen, die ich im QS-Postkorb bekomme, ist: Was ist die beste Programmiersprache für den algorithmischen Handel. Die kurze Antwort ist, dass es keine beste Sprache. Strategieparameter, Leistung, Modularität, Entwicklung, Resiliency und Kosten müssen berücksichtigt werden. Dieser Artikel wird skizzieren die notwendigen Komponenten einer algorithmischen Handelssystemarchitektur und wie Entscheidungen über die Umsetzung beeinflussen die Wahl der Sprache. Zuerst werden die Hauptkomponenten eines algorithmischen Handelssystems betrachtet, wie die Forschungsinstrumente, der Portfoliooptimierer, der Risikomanager und die Ausführungsmaschine. Anschließend werden verschiedene Handelsstrategien untersucht und auf die Gestaltung des Systems eingegangen. Insbesondere werden die Handelshäufigkeit und das voraussichtliche Handelsvolumen diskutiert. Sobald die Handelsstrategie ausgewählt worden ist, ist es notwendig, das gesamte System zu gestalten. Dies beinhaltet die Wahl der Hardware, des Betriebssystems und der Systemresistenz gegenüber seltenen, potentiell katastrophalen Ereignissen. Während die Architektur in Erwägung gezogen wird, muss auf die Leistung - sowohl auf die Forschungsinstrumente als auch auf die Live-Ausführungsumgebung - geachtet werden. Was ist das Handelssystem zu tun, bevor die Entscheidung über die beste Sprache, mit der ein automatisiertes Handelssystem zu schreiben, ist es notwendig, die Anforderungen zu definieren. Ist das System wird rein Ausführungsbasis Will das System erfordern ein Risikomanagement oder Portfolio-Bau-Modul Wird das System erfordern eine leistungsstarke Backtester Für die meisten Strategien kann das Handelssystem in zwei Kategorien aufgeteilt werden: Forschung und Signal-Generierung. Die Forschung befasst sich mit der Bewertung einer Strategieleistung gegenüber historischen Daten. Der Prozess der Bewertung einer Handelsstrategie gegenüber früheren Marktdaten wird als Backtesting bezeichnet. Die Datengröße und die algorithmische Komplexität werden einen großen Einfluss auf die Rechenintensität des Backtests haben. CPU-Geschwindigkeit und Parallelität sind oft die begrenzenden Faktoren bei der Optimierung der Durchführungsgeschwindigkeit. Die Signalerzeugung betrifft die Erzeugung eines Satzes von Handelssignalen aus einem Algorithmus und das Senden solcher Befehle an den Markt, üblicherweise über eine Vermittlung. Für bestimmte Strategien ist ein hohes Leistungsniveau erforderlich. I / O-Probleme wie Netzwerkbandbreite und Latenz sind oft der limitierende Faktor bei der Optimierung von Ausführungssystemen. So kann die Wahl der Sprachen für jede Komponente Ihres gesamten Systems ganz anders sein. Art, Häufigkeit und Umfang der Strategie Die Art der verwendeten algorithmischen Strategie hat erhebliche Auswirkungen auf die Gestaltung des Systems. Es wird notwendig sein, die Märkte zu betrachten, die gehandelt werden, die Konnektivität zu externen Datenanbietern, die Häufigkeit und das Volumen der Strategie, der Kompromiss zwischen der Leichtigkeit der Entwicklung und der Leistungsoptimierung sowie jegliche benutzerdefinierte Hardware einschließlich der gemeinsamen Sitzung Server, GPUs oder FPGAs, die erforderlich sein könnten. Die Technologieentscheidungen für eine niederfrequente US-Aktienstrategie werden sich weitgehend von denen eines hochfrequenten statistischen Arbitrage-Strategiehandels auf dem Futures-Markt unterscheiden. Vor der Wahl der Sprache müssen viele Datenanbieter ausgewertet werden, die sich auf die vorliegende Strategie beziehen. Es wird notwendig sein, die Konnektivität zu dem Anbieter, die Struktur von beliebigen APIs, die Aktualität der Daten, die Speicheranforderungen und die Ausfallsicherheit in Anbetracht eines Offline-Vendors zu prüfen. Es ist auch ratsam, schnellen Zugriff auf mehrere Anbieter zu haben. Verschiedene Instrumente haben alle ihre eigenen Speicherquirks, wobei Beispiele davon mehrere Tickersymbole für Aktien und Verfallsdaten für Futures (ganz zu schweigen von spezifischen OTC-Daten) umfassen. Dies muss in der Plattform-Design berücksichtigt werden. Häufigkeit der Strategie ist wahrscheinlich einer der größten Treiber, wie der Technologie-Stack definiert werden. Strategien, die Daten häufiger als minutiös oder sekundär verwenden, erfordern eine beträchtliche Betrachtung hinsichtlich der Leistung. Eine Strategie, die zweite Balken überschreitet (d. H. Tick-Daten), führt zu einem leistungsgetriebenen Design als die primäre Anforderung. Für Hochfrequenzstrategien muss eine erhebliche Menge an Marktdaten gespeichert und ausgewertet werden. Software wie HDF5 oder kdb werden häufig für diese Rollen verwendet. Um die umfangreichen Datenmengen für HFT-Anwendungen zu verarbeiten, muss ein ausgereiftes Backtester - und Ausführungssystem eingesetzt werden. C / C (möglicherweise mit einigen Assembler) ist wahrscheinlich der stärkste Sprachkandidat. Ultra-Hochfrequenz-Strategien wird fast sicher erfordern benutzerdefinierte Hardware wie FPGAs, Austausch Co-Location und kernal / network interface tuning. Forschungssysteme Forschungssysteme umfassen typischerweise eine Mischung aus interaktiver Entwicklung und automatisiertem Scripting. Ersteres findet oft in einer IDE wie Visual Studio, MatLab oder R Studio statt. Letztere umfassen umfangreiche numerische Berechnungen über zahlreiche Parameter und Datenpunkte. Dies führt zu einer Sprachauswahl, die eine einfache Umgebung zum Testen von Code bereitstellt, aber auch eine ausreichende Leistung bietet, um Strategien über mehrere Parameterabmessungen auszuwerten. Typische IDEs in diesem Bereich sind Microsoft Visual C / C, das umfangreiche Debugging-Dienstprogramme, Code-Completion-Fähigkeiten (über Intellisense) und einfache Übersichten über den gesamten Projektstapel (über die Datenbank ORM, LINQ) MatLab enthält. Die für umfangreiche numerische lineare Algebra und vectorized Operationen, sondern in einer interaktiven Konsole Weise R Studio. Die die statistische Sprachkonsole R in einer vollwertigen IDE-Eclipse-IDE für Linux-Java und C und semi-proprietären IDEs wie Enthought Canopy für Python, die Datenanalyse-Bibliotheken wie NumPy enthalten, umschließt. SciPy Scikit-lernen und Pandas in einer einzigen interaktiven (Konsolen-) Umgebung. Für das numerische Backtesting sind alle obigen Sprachen geeignet, obwohl es nicht notwendig ist, eine GUI / IDE zu verwenden, da der Code im Hintergrund ausgeführt wird. Die Hauptbetrachtung in diesem Stadium ist die der Ausführungsgeschwindigkeit. Eine kompilierte Sprache (wie C) ist oft nützlich, wenn die Dimension des Backtesting-Parameters groß ist. Denken Sie daran, dass es notwendig ist, von solchen Systemen vorsichtig zu sein, wenn dies der Fall ist. Interpretierte Sprachen wie Python nutzen oft Hochleistungsbibliotheken wie NumPy / Pandas für den Backtesting-Schritt, um ein vernünftiges Maß an Wettbewerbsfähigkeit mit zusammenzustellen Äquivalente. Letztlich wird die für das Backtesting gewählte Sprache durch spezifische algorithmische Bedürfnisse sowie die Bandbreite der in der Sprache verfügbaren Bibliotheken bestimmt (weiter unten). Die Sprache, die für die Backtester - und Forschungsumgebungen verwendet wird, kann jedoch vollständig unabhängig von denjenigen sein, die in den Bereichen Portfolio-Konstruktion, Risikomanagement und Ausführungskomponenten verwendet werden. Portfolio-Konstruktion und Risikomanagement Die Komponenten des Portfoliokonstruktions - und Risikomanagements werden von den Handelspartnern oft übersehen. Das ist fast immer ein Fehler. Diese Instrumente bieten den Mechanismus, durch den das Kapital erhalten bleibt. Sie versuchen nicht nur, die Anzahl der riskanten Wetten zu lindern, sondern auch die Abwanderung der Trades selbst zu minimieren und so die Transaktionskosten zu senken. Ausgefeilte Versionen dieser Komponenten können erhebliche Auswirkungen auf die Qualität und Wirtschaftlichkeit der Rentabilität haben. Es ist unkompliziert, eine stabile Strategie zu schaffen, da der Portfoliokonstruktionsmechanismus und der Risikomanager einfach modifiziert werden können, um mehrere Systeme zu behandeln. Sie sollten daher zu Beginn des Entwurfs eines algorithmischen Handelssystems als wesentliche Komponenten betrachtet werden. Die Aufgabe des Portfolio-Bau-System ist es, eine Reihe von gewünschten Trades zu nehmen und produzieren die Menge der tatsächlichen Trades, minimieren churn, halten Exposures zu verschiedenen Faktoren (wie Sektoren, Asset-Klassen, Volatilität etc.) und optimieren die Zuweisung von Kapital an verschiedene Strategien in einem Portfolio. Portfolio-Konstruktion reduziert oft auf eine lineare Algebra Problem (wie eine Matrix-Faktorisierung) und damit die Leistung ist stark abhängig von der Wirksamkeit der numerischen linearen Algebra-Implementierung zur Verfügung. Gemeinsame Bibliotheken sind uBLAS. LAPACK und NAG für C. MatLab besitzt auch umfangreich optimierte Matrixoperationen. Python nutzt NumPy / SciPy für solche Berechnungen. Ein häufig ausgeglichenes Portfolio erfordert eine kompilierte (und gut optimierte) Matrixbibliothek, um diesen Schritt auszuführen, um das Handelssystem nicht zu verkleinern. Das Risikomanagement ist ein weiterer äußerst wichtiger Bestandteil eines algorithmischen Handelssystems. Das Risiko kann in vielen Formen auftreten: Erhöhte Volatilität (obwohl dies für bestimmte Strategien als wünschenswert angesehen werden kann), erhöhte Korrelationen zwischen Assetklassen, Gegenpartei-Default, Serverausfällen, Black Swan-Ereignissen und unentdeckten Bugs im Handelscode wenige. Risikomanagementkomponenten versuchen, die Effekte einer übermäßigen Volatilität und Korrelation zwischen den Vermögensklassen und ihren nachfolgenden Auswirkungen auf das Handelskapital vorwegzunehmen. Oft reduziert dies auf eine Reihe von statistischen Berechnungen wie Monte Carlo Stresstests. Dies ist sehr ähnlich zu den rechnerischen Bedürfnissen einer Derivate-Preis-Engine und als solche CPU-gebunden werden. Diese Simulationen sind sehr parallelisierbar (siehe unten) und bis zu einem gewissen Grad ist es möglich, Hardware auf das Problem zu werfen. Ausführungssysteme Die Aufgabe des Ausführungssystems besteht darin, gefilterte Handelssignale von den Portfolio-Bau - und Risikomanagementkomponenten zu empfangen und an eine Brokerage oder andere Mittel des Marktzugangs zu senden. Für die Mehrheit der Einzelhandel algorithmischen Handelsstrategien beinhaltet dies eine API oder FIX-Verbindung zu einem Brokerage wie Interactive Brokers. Die primären Erwägungen bei der Entscheidung über eine Sprache beinhalten die Qualität der API, die Verfügbarkeit der Sprachverpackung für eine API, die Ausführungshäufigkeit und den erwarteten Schlupf. Die Qualität der API bezieht sich darauf, wie gut sie dokumentiert ist, welche Art von Leistung sie bereitstellt, ob sie auf eine eigenständige Software zugreifen muss oder ob ein Gateway kopflos aufgebaut werden kann (d. h. keine GUI). Im Fall von Interactive Brokers muss das Trader WorkStation-Tool in einer GUI-Umgebung ausgeführt werden, um auf deren API zuzugreifen. Ich musste einmal eine Desktop-Ubuntu-Edition auf einen Amazon Cloud-Server installieren, um auf interaktive Broker remote zuzugreifen, rein aus diesem Grund. Die meisten APIs bieten eine C - und / oder Java-Schnittstelle. In der Regel ist es Aufgabe der Community, sprachspezifische Wrapper für C, Python, R, Excel und MatLab zu entwickeln. Beachten Sie, dass mit jedem zusätzlichen Plugin (vor allem API-Wrapper) gibt es Spielraum für Bugs in das System kriechen. Teste immer Plugins dieser Art und sorge dafür, dass sie aktiv gepflegt werden. Ein lohnendes Maß ist zu sehen, wie viele neue Updates zu einer Codebase in den letzten Monaten gemacht wurden. Die Ausführungshäufigkeit ist für den Ausführungsalgorithmus von größter Bedeutung. Beachten Sie, dass Hunderte von Bestellungen können jede Minute gesendet werden und als solche Leistung ist von entscheidender Bedeutung. Schlupf wird durch eine schlecht durchführende Ausführung System entstehen und dies wird einen dramatischen Einfluss auf die Rentabilität haben. Statisch getippte Sprachen (siehe unten) wie C / Java sind im Allgemeinen optimal für die Ausführung, aber es gibt einen Kompromiss in Entwicklungszeit, Test und Wartungsfreundlichkeit. Dynamisch getippte Sprachen wie Python und Perl sind mittlerweile meist schnell genug. Achten Sie immer darauf, dass die Komponenten modular aufgebaut sind (siehe unten), so dass sie bei der Systemwaage ausgetauscht werden können. Architektonischer Planungs - und Entwicklungsprozess Die Komponenten eines Handelssystems, dessen Frequenz - und Volumenanforderungen wurden bereits diskutiert, die Systeminfrastruktur ist jedoch noch nicht abgedeckt. Diejenigen, die als Einzelhändler oder arbeiten in einem kleinen Fonds wird wahrscheinlich tragen viele Hüte. Es wird notwendig sein, die Alpha-Modell-, Risikomanagement - und Ausführungsparameter sowie die endgültige Implementierung des Systems abzudecken. Vor dem Einarbeiten in bestimmte Sprachen wird das Design einer optimalen Systemarchitektur erörtert. Trennung von Bedenken Eine der wichtigsten Entscheidungen, die von vornherein getroffen werden müssen, ist die Trennung der Bedenken eines Handelssystems. In der Softwareentwicklung bedeutet dies im Wesentlichen, wie die verschiedenen Aspekte des Handelssystems in separate modulare Komponenten aufgeteilt werden. Durch die Freigabe von Schnittstellen an jedem der Komponenten ist es leicht, Teile des Systems für andere Versionen auszutauschen, die Leistung, Zuverlässigkeit oder Wartung unterstützen, ohne einen externen Abhängigkeitscode zu modifizieren. Dies ist die beste Vorgehensweise für solche Systeme. Für Strategien bei niedrigeren Frequenzen werden solche Praktiken empfohlen. Für Ultra-Hochfrequenz-Handel das Regelbuch muss auf Kosten der Optimierung des Systems für noch mehr Leistung ignoriert werden. Ein dichter gekoppeltes System kann wünschenswert sein. Das Erstellen einer Komponentenkarte eines algorithmischen Handelssystems ist einen Artikel wert. Ein optimaler Ansatz ist jedoch sicherzustellen, dass es separate Komponenten für die historischen und Echtzeit-Marktdateneingaben, Datenspeicherung, Datenzugriffs-API, Backtester, Strategieparameter, Portfolio-Konstruktion, Risikomanagement und automatisierte Ausführungssysteme gibt. Wenn beispielsweise der verwendete Datenspeicher selbst bei signifikanten Optimierungsniveaus noch unterdurchschnittlich ist, kann er mit minimalen Wiederbeschreibungen in die Datenaufnahme - oder Datenzugriffs-API ausgelagert werden. Soweit es die Backtester und nachfolgende Komponenten betrifft, gibt es keinen Unterschied. Ein weiterer Vorteil von getrennten Komponenten ist, dass es eine Vielzahl von Programmiersprachen für das Gesamtsystem verwendet werden kann. Es muss nicht auf eine einzige Sprache beschränkt werden, wenn die Kommunikationsmethode der Komponenten sprachunabhängig ist. Dies ist der Fall, wenn sie über TCP / IP, ZeroMQ oder ein anderes sprachunabhängiges Protokoll kommunizieren. Als konkretes Beispiel betrachten wir den Fall eines Backtesting-Systems, das in C für die Anzahl der Crunching-Leistungen geschrieben wird, während der Portfolio-Manager und die Ausführungssysteme in Python unter Verwendung von SciPy und IBPy geschrieben werden. Performance-Überlegungen Performance ist eine wesentliche Überlegung für die meisten Trading-Strategien. Für höhere Frequenzstrategien ist es der wichtigste Faktor. Die Leistung umfasst eine breite Palette von Problemen wie algorithmische Ausführungsgeschwindigkeit, Netzwerklatenz, Bandbreite, Daten-I / O, Parallelität / Parallelität und Skalierung. Jeder dieser Bereiche werden einzeln durch große Lehrbücher abgedeckt, so dass dieser Artikel nur die Oberfläche jedes Themas zerkratzen wird. Architektur und Sprachwahl werden nun im Hinblick auf ihre Auswirkungen auf die Leistung diskutiert. Die vorherrschende Weisheit, wie von Donald Knuth angegeben. Einer der Väter der Informatik, ist, dass vorzeitige Optimierung die Wurzel allen Übels ist. Dies ist fast immer der Fall - außer beim Bau eines Hochfrequenz-Handel Algorithmus Für diejenigen, die in niedrigere Frequenz-Strategien interessiert sind, ist ein gemeinsamer Ansatz, ein System auf die einfachste Art und Weise zu bauen und nur so optimieren, wie Engpässe zu erscheinen beginnen. Mit Hilfe von Profilierwerkzeugen wird ermittelt, wo Engpässe auftreten. Profile können für alle oben aufgeführten Faktoren in einer MS Windows - oder Linux-Umgebung erstellt werden. Es gibt viele Betriebssysteme und Sprach-Tools zur Verfügung, um dies zu tun, sowie Drittanbieter-Dienstprogramme. Die Sprachwahl wird im Rahmen der Performance diskutiert. C, Java, Python, R und MatLab enthalten alle Hochleistungsbibliotheken (entweder im Standard oder extern) für grundlegende Datenstrukturen und algorithmische Arbeiten. C wird mit der Standardvorlagenbibliothek geliefert, während Python NumPy / SciPy enthält. Gemeinsame mathematische Aufgaben sind in diesen Bibliotheken zu finden und es ist selten vorteilhaft, eine neue Implementierung zu schreiben. Eine Ausnahme ist, wenn eine hochgradig angepasste Hardwarearchitektur erforderlich ist und ein Algorithmus umfangreiche Verwendung von proprietären Erweiterungen (z. B. benutzerdefinierte Caches) durchführt. Allerdings, oft Neuerfindung des Rades verschwendet Zeit, die besser verbrachte Entwicklung und Optimierung anderer Teile der Handelsinfrastruktur sein könnte. Entwicklungszeit ist besonders im Zusammenhang mit einzelnen Entwicklern extrem kostbar. Latenz ist oft ein Problem des Ausführungssystems, da die Forschungsinstrumente üblicherweise auf derselben Maschine liegen. Für die ersteren kann Latenz an mehreren Punkten entlang des Ausführungspfades auftreten. Datenbanken müssen konsultiert werden (Datenträger / Netzwerk-Latenzzeit), Signale müssen erzeugt werden (Betriebssystem, Kernel-Messaging-Latenz), Handelssignale gesendet (NIC-Latenz) und Aufträge verarbeitet (interne Latenzzeit). Für höhere Frequenzoperationen ist es notwendig, sich mit der Kernoptimierung sowie der Optimierung der Netzübertragung vertraut zu machen. Dies ist ein tiefer Bereich und ist deutlich über den Geltungsbereich des Artikels aber wenn ein UHFT-Algorithmus gewünscht wird dann bewusst sein, die Tiefe des Wissens erforderlich Caching ist sehr nützlich im Toolkit eines quantitativen Trading-Entwickler. Das Caching bezieht sich auf das Konzept der Speicherung von Daten, auf die häufig zugegriffen wird, in einer Weise, die einen leistungsfähigeren Zugriff ermöglicht, auf Kosten einer potentiellen Verzögerung der Daten. Ein häufiger Anwendungsfall tritt bei der Webentwicklung auf, wenn Daten von einer datenträgergestützten relationalen Datenbank übernommen und in den Speicher übertragen werden. Alle nachfolgenden Anforderungen für die Daten müssen nicht auf die Datenbank getroffen werden und so Leistungssteigerungen können erheblich sein. Für Handelssituationen Caching kann sehr vorteilhaft sein. Beispielsweise kann der gegenwärtige Zustand eines Strategieportfolios in einem Cache gespeichert werden, bis er rebalanced ist, so dass die Liste nicht auf jeder Schleife des Handelsalgorithmus regeneriert werden muss. Eine solche Regeneration ist wahrscheinlich eine hohe CPU - oder Platten-E / A-Operation. Allerdings ist das Caching nicht ohne eigene Probleme. Regeneration von Cache-Daten auf einmal, aufgrund der volatilie Natur der Cache-Speicher, kann eine erhebliche Nachfrage nach Infrastruktur. Ein weiteres Problem ist Hund-Haufen. Wo mehrere Generationen einer neuen Cache-Kopie unter extrem hoher Last durchgeführt werden, was zu einem Kaskadenausfall führt. Die dynamische Speicherzuordnung ist eine teure Operation in der Softwareausführung. Daher ist es für Hochleistungs-Handelsanwendungen unerlässlich, sich bewusst zu sein, wie Speicher während des Programmablaufs zugeteilt und freigegeben wird. Neuere Sprachstandards wie Java, C und Python führen alle automatische Garbage Collection durch. Die auf die Deallokation des dynamisch zugewiesenen Speichers verweist, wenn Objekte außerhalb des Bereichs liegen. Garbage Collection ist äußerst nützlich während der Entwicklung, da es Fehler reduziert und hilft Lesbarkeit. Es ist jedoch oftmals für bestimmte hochfrequente Handelsstrategien suboptimal. Kundenspezifische Garbage Collection ist oft für diese Fälle erwünscht. In Java, zum Beispiel durch Abstimmung der Garbage Collector und Heap-Konfiguration, ist es möglich, hohe Leistung für HFT-Strategien zu erhalten. C doesn t bieten eine native Garbage Collector und so ist es notwendig, um alle Speicher Zuweisung / Deallokation als Teil der Implementierung eines Objekts zu behandeln. Während potenziell fehleranfällig (potenziell dazu führen, dass baumelnde Zeiger) ist es äußerst nützlich, feinkörnige Kontrolle, wie Objekte auf dem Heap für bestimmte Anwendungen erscheinen. Bei der Auswahl einer Sprache stellen Sie sicher zu studieren, wie die Garbage Collector arbeitet und ob es geändert werden, um für einen bestimmten Anwendungsfall optimieren. Viele Operationen in algorithmischen Handelssystemen sind parallelisierbar. Dies bezieht sich auf das Konzept, mehrere programmatische Operationen gleichzeitig, d. H. Parallel, auszuführen. So genannte embarassingly parallele Algorithmen beinhalten Schritte, die völlig unabhängig von anderen Schritten berechnet werden können. Bestimmte statistische Operationen, wie Monte Carlo Simulationen, sind ein gutes Beispiel für peinlich parallele Algorithmen, da jede zufällige Zeichnung und nachfolgende Pfadoperation ohne Kenntnis anderer Pfade berechnet werden kann. Andere Algorithmen sind nur teilweise parallelisierbar. Fluiddynamische Simulationen sind ein solches Beispiel, bei dem die Berechnungsdomäne unterteilt werden kann, aber letztlich müssen diese Domänen miteinander kommunizieren und somit sind die Operationen teilweise sequentiell. Parallelisierbare Algorithmen unterliegen dem Amdahlschen Gesetz. Was eine theoretische Obergrenze für die Leistungserhöhung eines parallelisierten Algorithmus ergibt, wenn er N-unabhängigen Prozessen unterworfen wird (z. B. auf einem CPU-Kern oder Thread). Die Parallelisierung hat zunehmend an Bedeutung gewonnen, da die Prozessortaktgeschwindigkeiten stagniert haben, da neuere Prozessoren viele Kerne enthalten, mit denen parallele Berechnungen durchgeführt werden können. Der Anstieg der Consumer-Grafikhardware (vorwiegend für Videospiele) hat zur Entwicklung von Graphical Processing Units (GPUs) geführt, die Hunderte von Cores für sehr gleichzeitige Operationen enthalten. Solche GPUs sind jetzt sehr erschwinglich. High-Level-Frameworks, wie Nvidia s CUDA haben zu weit verbreiteten Akzeptanz in der Wissenschaft und Finanzen. Solche GPU-Hardware ist im Allgemeinen nur für den Forschungsaspekt der quantitativen Finanzierung geeignet, während für (U) HFT weitere spezialisierte Hardware (einschließlich feldprogrammierbare Gate-Arrays - FPGAs) verwendet werden. Heutzutage unterstützen die meisten modernen Sprachen einen Grad der Parallelität / Multithreading. Somit ist es einfach, einen Backtester zu optimieren, da alle Berechnungen im allgemeinen unabhängig von den anderen sind. Die Skalierung von Software-Engineering und - Operationen bezieht sich auf die Fähigkeit des Systems, konsequent ansteigende Lasten in Form größerer Anforderungen, höherer Prozessorauslastung und mehr Speicherzuteilung zu handhaben. Im algorithmischen Handel kann eine Strategie skaliert werden, wenn sie größere Kapitalmengen akzeptieren kann und immer noch konsistente Renditen liefert. Der Handelstechnologie-Stack skaliert, wenn er größere Handelsvolumina und eine erhöhte Latenzzeit ohne Engpassierung aushalten kann. Während Systeme skaliert werden müssen, ist es oft schwer vorherzusagen, wo ein Engpass auftritt. Rigourous Logging, Testing, Profiling und Monitoring wird erheblich dazu beitragen, ein System skalieren. Sprachen selbst werden oft als unskalierbar beschrieben. Dies ist in der Regel das Ergebnis von Fehlinformationen, anstatt harte Tatsache. Es ist die gesamte Technologie-Stack sollte für die Skalierbarkeit, nicht die Sprache ermittelt werden. Offensichtlich haben bestimmte Sprachen eine größere Leistung als andere in bestimmten Anwendungsfällen, aber eine Sprache ist nie besser als eine andere in jeder Hinsicht. Ein Mittel, das Maßstab zu verwalten, besteht darin, Bedenken zu trennen, wie oben ausgeführt. Um die Fähigkeit, Spikes in dem System zu behandeln (d. h. plötzliche Flüchtigkeit, die ein Floß von Trades auslöst) weiter einzuführen, ist es nützlich, eine Nachrichtenwarteschlangenarchitektur zu erzeugen. Dies bedeutet lediglich, dass ein Message Queue-System zwischen Komponenten platziert wird, so dass Aufträge gestapelt werden, wenn eine bestimmte Komponente nicht in der Lage ist, viele Anfragen zu verarbeiten. Anstatt Verluste zu verlieren, werden sie einfach in einem Stapel gehalten, bis die Nachricht behandelt wird. Dies ist besonders nützlich, um Trades an eine Ausführungsmaschine zu senden. Wenn der Motor unter starker Latenz leidet dann wird es Trades zu sichern. Eine Warteschlange zwischen dem Handelssignalgenerator und der Ausführungs-API löst dieses Problem auf Kosten eines potentiellen Handelsrutschens. Ein gut respektierter Open-Source-Message-Queue-Broker ist RabbitMQ. Hardware und Betriebssysteme Die Hardware, die Ihre Strategie ausführt, kann einen erheblichen Einfluss auf die Rentabilität Ihres Algorithmus haben. Dies ist nicht ein Problem beschränkt auf Hochfrequenz-Händler. Eine schlechte Wahl in Hardware und Betriebssystem kann zu einem Maschinencrash oder einem Neustart zum unpassendsten Moment führen. Daher ist zu prüfen, wo sich Ihr Antrag befindet. Die Wahl liegt in der Regel zwischen einem persönlichen Desktop-Rechner, einem entfernten Server, einem Cloud-Provider oder einem Exchange-Co-Server. Desktop-Rechner sind einfach zu installieren und zu verwalten, vor allem mit neueren benutzerfreundlichen Betriebssystemen wie Windows 7/8, Mac OSX und Ubuntu. Desktop-Systeme besitzen jedoch einige erhebliche Nachteile. Der wichtigste ist, dass die Versionen von Betriebssystemen für Desktop-Rechner sind wahrscheinlich zu rebooten / Patching (und oft zu den schlechtesten Zeiten). Sie verwenden auch mehr Rechenressourcen durch die Notwendigkeit einer grafischen Benutzeroberfläche (GUI). Das Verwenden von Hardware in einer Heimat (oder einer lokalen Büroumgebung) kann zu Internetkonnektivität und Stromverbrauchsproblemen führen. Der Hauptvorteil eines Desktop-Systems ist, dass erhebliche Rechenleistung für den Bruchteil der Kosten eines Remote-dedizierten Server (oder Cloud-basiertes System) von vergleichbarer Geschwindigkeit erworben werden kann. Eine dedizierte Server - oder Cloud-basierte Maschine, die oftmals teurer als eine Desktop-Option ist, ermöglicht eine größere Redundanzinfrastruktur, wie z. B. automatisierte Datensicherungen, die Möglichkeit, die Verfügbarkeit und Remoteüberwachung einfacher zu gestalten. Sie sind schwerer zu verwalten, da sie die Fähigkeit zur Verwendung von Remote-Login-Funktionen des Betriebssystems erfordern. In Windows ist dies in der Regel über das GUI Remote Desktop Protocol (RDP). In Unix-basierten Systemen wird die Befehlszeile Secure SHell (SSH) verwendet. Unix-basierte Server-Infrastruktur ist fast immer auf Befehlszeile basiert, die sofort GUI-basierte Programmierungstools (wie MatLab oder Excel) unbrauchbar macht. Ein Co-lokalisierter Server, wie der Begriff in den Kapitalmärkten verwendet wird, ist einfach ein dedizierter Server, der sich innerhalb einer Vermittlungsstelle befindet, um die Latenz des Handelsalgorithmus zu reduzieren. Dies ist absolut notwendig für bestimmte hochfrequente Handelsstrategien, die auf geringe Latenz angewiesen sind, um alpha zu erzeugen. Der letzte Aspekt der Hardware-Wahl und der Wahl der Programmiersprache ist plattformunabhängig. Gibt es eine Notwendigkeit für den Code, um über mehrere verschiedene Betriebssysteme laufen Ist der Code entworfen, um auf einem bestimmten Typ von Prozessorarchitektur ausgeführt werden, wie der Intel x86 / x64 oder wird es möglich sein, auf RISC-Prozessoren wie die hergestellten ausgeführt werden Von ARM Diese Fragen werden stark von der Häufigkeit und Art der Strategie abhängen, die umgesetzt wird. Resilience und Testing Eine der besten Möglichkeiten, eine Menge Geld für algorithmischen Handel zu verlieren ist, ein System ohne Elastizität zu schaffen. Dies bezieht sich auf die Dauerhaftigkeit des Systems bei seltenen Ereignissen wie Maklerkonten, plötzliche Überschussvolatilität, regionale Ausfallzeiten für einen Cloud-Server-Anbieter oder das versehentliche Löschen einer gesamten Handelsdatenbank. Jahre der Gewinne können innerhalb von Sekunden mit einer schlecht entworfenen Architektur beseitigt werden. Es ist absolut notwendig, Themen wie Debuggng, Testen, Logging, Backups, Hochverfügbarkeit und Überwachung als Kernkomponenten Ihres Systems zu berücksichtigen. Es ist wahrscheinlich, dass in jeder vernünftig komplizierten benutzerdefinierten quantitativen Handel Anwendung mindestens 50 Entwicklungszeit für Debugging, Test und Wartung ausgegeben werden. Fast alle Programmiersprachen werden entweder mit einem zugehörigen Debugger ausgeliefert oder besitzen Drittanbieter-Alternativen. Im Wesentlichen ermöglicht ein Debugger die Ausführung eines Programms mit dem Einfügen von willkürlichen Unterbrechungspunkten im Codepfad, die die Ausführung vorübergehend stoppen, um den Zustand des Systems zu untersuchen. Der Hauptvorteil von Debugging ist, dass es möglich ist, das Verhalten von Code vor einem bekannten Crashpunkt zu untersuchen. Das Debuggen ist eine wesentliche Komponente in der Toolbox zur Analyse von Programmierfehlern. Allerdings sind sie weit verbreitet in kompilierten Sprachen wie C oder Java, da interpretierte Sprachen wie Python sind oft einfacher zu debuggen aufgrund weniger LOC und weniger ausführliche Anweisungen verwendet. Trotz dieser Tendenz Python Schiff mit der pdb. Die ein anspruchsvolles Debugging-Tool ist. Die Microsoft Visual C IDE verfügt über umfangreiche GUI-Debugging-Dienstprogramme, während für die Befehlszeile Linux C-Programmierer, der gdb-Debugger vorhanden ist. Testen in der Softwareentwicklung bezieht sich auf den Prozess der Anwendung bekannter Parameter und Ergebnisse auf spezifische Funktionen, Methoden und Objekte in einer Codebasis, um Verhalten zu simulieren und mehrere Codepfade auszuwerten, um sicherzustellen, dass sich ein System so verhält, wie es sollte. Ein aktuelleres Paradigma wird als Test Driven Development (TDD) bezeichnet, wobei Testcode gegen eine bestimmte Schnittstelle ohne Implementierung entwickelt wird. Vor dem Abschluss der eigentlichen Codebase werden alle Tests fehlschlagen. Als Code geschrieben wird, um die Leerzeichen zu füllen, werden die Tests schließlich alle passieren, an welchem ​​Punkt die Entwicklung aufhören sollte. TDD erfordert umfangreiche Upfront-Spezifikation Design sowie ein gesundes Maß an Disziplin, um erfolgreich durchzuführen. In C bietet Boost ein Unit Testing Framework. In Java existiert die JUnit-Bibliothek, um denselben Zweck zu erfüllen. Python hat auch das unittest Modul als Teil der Standardbibliothek. Viele andere Sprachen besitzen Unit-Test-Frameworks und oft gibt es mehrere Optionen. In einer Produktionsumgebung ist eine anspruchsvolle Protokollierung unabdingbar. Die Protokollierung bezieht sich auf den Prozess der Ausgabe von Nachrichten mit verschiedenen Schweregraden bezüglich des Ausführungsverhaltens eines Systems in einer flachen Datei oder Datenbank. Protokolle sind eine erste Angriffslinie bei der Jagd nach unerwartetem Programmlaufzeitverhalten. Leider sind die Mängel eines Logging-System tendenziell nur nach der Tatsache wie mit Backups, die unten diskutiert entdeckt werden, ein Protokollierungssystem sollte gebührend berücksichtigt werden, bevor ein System entwickelt wird. Sowohl Microsoft Windows und Linux kommen mit umfangreichen System-Logging-Fähigkeit und Programmiersprachen neigen dazu, mit Standard-Logging-Bibliotheken, die die meisten Anwendungsfälle zu decken neigen. Oft ist es ratsam, die Logging-Informationen zu zentralisieren, um sie zu einem späteren Zeitpunkt zu analysieren, da sie oft zu Vorstellungen über die Verbesserung der Performance oder der Fehlerreduzierung führen kann, die sich fast sicher positiv auf Ihre Handelserträge auswirken wird. Während der Protokollierung eines Systems liefert Informationen über das, was in der Vergangenheit durchgeführt hat, wird die Überwachung einer Anwendung geben Einblick in das, was gerade geschieht. Alle Aspekte des Systems sollten für die Überwachung berücksichtigt werden. Metriken auf Systemebene, wie Plattenverbrauch, verfügbarer Speicher, Netzwerkbandbreite und CPU-Auslastung, liefern grundlegende Lastinformationen. Trading-Metriken wie abnorme Preise / Volumen, plötzliche schnelle Drawdowns und Konto Exposition für verschiedene Sektoren / Märkte sollten auch kontinuierlich überwacht werden. Weiterhin sollte ein Schwellensystem eingeführt werden, das eine Benachrichtigung liefert, wenn bestimmte Metriken verletzt werden, wodurch das Benachrichtigungsverfahren (E-Mail, SMS, automatisiertes Telefongespräch) in Abhängigkeit von der Schwere der Metrik erhöht wird. Systemüberwachung ist oft die Domäne des Systemadministrators oder Operations Managers. Allerdings müssen diese Metriken als einziger Trading-Entwickler als Teil des größeren Designs etabliert werden. Viele Lösungen für die Überwachung gibt es: proprietäre, gehostete und Open Source, die eine umfangreiche Anpassung von Metriken für einen bestimmten Anwendungsfall ermöglichen.


No comments:

Post a Comment