Monday 6 November 2017

Mit R Für Optionen Handel


Szenarioanalyse und Handelsoptionen mit R Ich präsentiere Ihnen mein restrukturiertes Projekt zum Optionenhandel und zur Szenarioanalyse. Sie sind mehr als willkommen, es auszuprobieren. Zuerst gebe ich eine kleine Präsentation, die zeigen wird, was man damit machen kann und ob man weiterlesen muss. Dann werde ich weiterhin mit Abhängigkeiten, Klassen und Klassen erstellt zusammen mit Methoden definiert. Schließlich werde ich einige grundlegende Operationen zu zeigen, wie Sie es selbst verwenden können. Wenn Sie mochten, was Sie sahen und Sie es selbst ausprobieren oder sogar dazu beitragen möchten, lesen Sie weiter. 8220sawork. R8221 ist die Datei, in der Sie normalerweise arbeiten würden. Es hat nur 1 Zeile zu nennen, was Sie brauchen: source (8220 coreProjectsscenarioanalysis0sainit. R8221) Dies ist die einzige Zeile, die Sie ändern müssen, sobald Sie Repository heruntergeladen haben. Suchen Sie einfach 82200sainit. R8221 und es wird alles tun. Und bei allen meine ich 2 Dinge: laden Sie Pakete, laden Sie andere Skripte und einige grundlegende Parameter. Abhängigkeiten: 8220quantmod8221 kann erforderlich sein, wenn Sie einige Optionen oder Bestandsdaten von Yahoo herunterladen möchten. 8220RQuantLib8221 ist derzeit nicht verwendet, aber Preisfeststellungen können von ihm später zu Preis-Amerikanern genommen werden. 8220fields8221 wurde in früheren Versionen für Interpolation über Scatter verwendet und könnte in späterer Entwicklung benötigt werden. 8220rgl8221 8211 3d grafiken. 8220lubridate8221 ist nicht wesentlich, aber es macht das Leben einfacher, wenn mit Daten auf Benutzer-Ebene. Allerdings werden alle Datumsobjekte automatisch in die 8220timeDate8221-Klasse konvertiert. Dateistruktur ist einfach: 82200funs8221 Ordner mit 2 Scripten geladen von ihm 82200basic. R8221 enthält einige grundlegende Funktionen 8211 nur 2 von 5 sind wirklich erforderlich. Und 82200inst. R8221 8211 Abkürzung für Instrumente, aber jetzt enthält das gesamte Projekt innerhalb. Überraschend nur 500 Zeilen Code. Gent down zweimal, nachdem ich getrieben OOP Ansatz. 82202structureint. R8221, 82202structurevol. R8221 wird zukünftig für die Zinsstruktur und die implizite Volatilitätsflächenimplementierung eingesetzt und wird derzeit nicht genutzt. Klassen: Die verwendeten Klassen sind S4 für Ausgänge, einige einfache Variablen, die Formalisierungs - und Parameterobjekte benötigen. Für Instrumente werden Referenzklassen verwendet. S4: 8220currency8221 erbt von 8220character8221 und Currency () - Funktion stellt sicher, dass seine Länge 3 und schafft neue. 8220gen. par8221 enthält die Anzahl der bevorzugten Arbeitstage eines Jahres und eine Liste der Zinssätze (kann später auf die Zinsstruktur ausgedehnt werden). 8220stock. par8221 enthält alle Parameter, die Bestandsspezifisch sind und sich über die Zeit ändern. 8220scatter8221 erbt von 8220matrix8221. Enthält Ausgabe von Referenzklassen: Daten-, Zeilen - und Spaltenvariablen. Referenz: 8220security8221 Superklasse aller Wertpapiere. 8220spot8221, 8220forward8221 und 8220option8221 erbt von 8220security8221. Alle haben dieselben Methoden: Preis, Delta, Gamma, Theta, Rho, RhoQ, Vega. Alle haben Argumente: st (Aktienkurs), tVec (Zeit), vol (Volatilität). 8220option8221 Klasse hat zusätzliche Methode: getiv. Hier ist die Liste der Funktionen, die Sie brauchen: timeseq (von, nach, von 8220hour8221, RNG c (9, 16), Ferien holidayNYSE (2013: 2020), Handel TRUE) 8211 erzeugt Zeitsequenz. Alle Methoden rund um die Zeit zu stündlich so don8217t verwenden höhere Frequenz Auch vermeiden Sie mit täglich, nur auf Standard-Standard, bis Sie wissen, was Sie tun. GenPar () 8211 erstellt 8220gen. par8221-Objekt mit dem Namen 8220gen. par8221 und weist es der Umgebung 8220gen. par8221 zu. LSG () bekommt man gen. par StockPar Objekt () 8211 analog zu GenPar, nur Namen es paste0 (Ticker, 8221.par8221) LSS () 8211 Listen Objekte in 8220stock. par8221 Umgebung rms () 8211 löscht 8220stock. par8221 Umgebung Spot ( id, num1, class8221equity8221, cur8221usd8221), Forward (id, Basiswert, Laufzeit, K, num1, class8221equity8221, cur8221usd8221), Option (id, Basiswert, Laufzeit, K, setzen, ame0, type8221vanilla8221, num1, extralist (0), class8221equity8221 , Cur8221usd8221) 8211 erstellt Sicherheitsobjekte und weist sie der Umgebung 8220securities8221 zu. lsi () 8211 Listen Objekte in 8220securities8221 Umgebung rmi () 8211 löscht 8220securities8221 Umwelt vaSecurities () 8211 alle Objekte in 8220securities8221 Umgebung in einer Liste erfasst. Gute Nachrichten. Das ist alles was Sie brauchen. Nur wenige Dinge zu beachten. Alle Zeichenfolgen werden in CAPS einschließlich Objektnamen für Instrumente konvertiert. Nur Sicherheitsklasse ist Eigenkapital. Es stehen nur 2 Optionstypen zur Verfügung: 8220vanilla8221 und 8220binary8221 (Cash-or-nothing). Alle Optionen sind europäisch. Versuch es. Ihre Meinungen zu Fehlern, Fehlern oder Verbesserungen sind mehr als willkommen. Verpassen Sie kein Update Abonnieren Sie R-bloggers um E-mails mit den letzten R Beiträgen zu erhalten. (Sie sehen diese Meldung nicht wieder.) Finanzmathematik und Modellierung II (FINC 621) ist eine Absolventklasse Klasse, die derzeit an der Loyola University in Chicago während des Winterquartiers angeboten wird. FINC 621 erforscht Themen der quantitativen Finanzierung, Mathematik und Programmierung. Die Klasse ist praktischer Natur und besteht sowohl aus einer Vorlesung als auch aus einer Laborkomponente. Die Labore verwenden die Programmiersprache R und die Studierenden sind verpflichtet, ihre einzelnen Aufgaben am Ende jeder Klasse einzureichen. Das Ziel von FINC 621 ist es, den Studierenden praktische Werkzeuge zur Verfügung zu stellen, mit denen sie einfache Handlungsstrategien erstellen, modellieren und analysieren können. Einige nützliche R-Links Über den Instructor Harry G. ist ein führender quantitativer Trader für ein HFT-Handelsunternehmen in Chicago. Er hält einen master8217s Grad in der Elektrotechnik und ein master8217s Grad in der Finanzmathematik von der Universität von Chicago. In seiner Freizeit unterrichtet Harry einen Graduiertenkurs in Quantitative Finance an der Loyola University in Chicago. Er ist auch der Autor des quantitativen Handels mit R. Dieser Beitrag wird eine eingehende Überprüfung von Alpha Architect8217s Quantitative Momentum Buch sein. Meiner Meinung nach ist das Buch für diejenigen, die Praktiker in der Fondsverwaltung in den einzelnen Equity-Raum sind, und enthält immer noch Ideen, die darüber nachzudenken, außerhalb von diesem Raum ist schrecklich. Allerdings profitiert das in diesem Buch genannte System von der verschachtelten Rangfolge (ordnen Sie entlang der Achse X, nehmen Sie das obere Dezil, rangieren Sie entlang der Achse Y innerhalb des oberen Dezils in X und nehmen Sie das obere Dezil entlang der Achse Y, was im Wesentlichen die Auswahl auf 1 des Wertes beschränkt Universum). Darüber hinaus ist das Buch nicht viel für die Berührung der Volatilität Kontrollen, die das System erheblich verbessert haben können. Bevor ich in die Hauptlast dieses Posten einsteige, möchte ich meinen Lesern wissen lassen, dass ich meine Nüsse und Schrauben der Quantstrat-Reihe von Beiträgen als formalen Datacamp-Kurs formalisiert habe. Datacamp ist ein sehr billiger Weg, um ein Bündel von R zu lernen, und Finanzanwendungen gehören zu diesen Themen. Mein Kurs umfasst die Grundlagen der quantstrat, und wenn diejenigen, die den Kurs wie es zu vervollständigen, kann ich sehr gut erstellen erweiterte quantstrat Module auf datacamp. I8217m in der Hoffnung, dass die Finanz-Kurse gut angenommen werden, da es finanzielle Themen in R I8217d wie ich selbst lernen, dass eine 45-minütige Vortrag doesn8217t wirklich ausreichen für (wie Dr. David Matteson8217s ändern Punkte Magie, PortfolioAnalytics, und so weiter). Auf jeden Fall ist hier der Link. So beginnen let8217s mit einer Zusammenfassung des Buches: Teil 1 ist einige Kapitel, die die riesige Expose sind - von, warum Impuls arbeitet (oder mindestens, seit mindestens 20 Jahren seit 1993 gearbeitet hat), dass menschliche Vorurteile und irrationales Verhalten in handeln Bestimmte Weisen, die Anomaliearbeit zu bilden. Dann gibt es auch das Karriere-Risiko (AKA it8217s ein Risikofaktor, und so, wenn Ihr Benchmark SPY ist und Sie über eine 3-jährige Periode der Underperformance laufen, haben Sie ein hohes Karriere-Risiko) und im Wesentlichen eine ganze Litanei, warum ein professionelles Vermögen Manager würde gefeuert, aber wenn Sie nur mit der Anomalie über viele viele Jahre halten und reiten mehrjährige Strecken der relativen Underperformance, you8217ll kommen voraus auf lange Sicht. Im Allgemeinen fühle ich mich wie there8217s Arbeit getan werden, wenn dies das beste, was getan werden kann, aber okay, I8217ll akzeptieren. Im Wesentlichen ist Teil 1 für die Uneingeweihten. Für diejenigen, die um das Momentum Block ein paar Mal gewesen sind, können sie direkt überspringen. Leider ist es die Hälfte des Buches, so dass ein wenig saurer Geschmack im Mund verlässt. Als nächstes ist Teil zwei, wo, meiner Meinung nach, das wahre Fleisch und Kartoffeln des Buches8211die 8220how8221. Grundsätzlich kann der Algorithmus folgendermaßen abgekocht werden: Nehmen Sie das Universum von Groß - und Mittelkapseln auf, so gehen Sie folgendermaßen vor: 1) Sortieren Sie die Aktien in Dezile um 2-12 Momentum8211, dh am Ende eines jeden Monats wird das Momentum berechnet Von letztem Monat8217s Schlusskurs abzüglich des Schlusskurses vor 12 Monaten. Im wesentlichen geht aus der Forschung hervor, daß es einen Rückwirkungseffekt auf den 1-Monats-Impuls gibt. Dieser Effekt wird jedoch nach meiner Erfahrung nicht in das ETF-Universum übertragen. 2) Hier ist der interessante Teil, der das Buch auf eigene Faust aufnimmt (meiner Meinung nach): nach dem Sortieren in Dezile das obere Dezil durch folgende Metrik zuordnen: Multiplizieren Sie das Vorzeichen des 2-12 Impulses mit der folgenden Gleichung: (Negative Renditen 8211 positiv). Im Wesentlichen ist die Idee hier, um die Glätte des Impulses zu bestimmen. Das heißt, in der extremsten Situation vorstellen, eine Aktie, die absolut nichts für 230 Tage, und dann hatte einen massiven Tag, gab es seine gesamte Preisschätzung (denken Sie, Google, wenn es einen 10-Sprung von besser als erwartete Zahlen hatte Berichte), und im anderen Extrem, eine Aktie, die hatte einfach jeden Tag eine kleine positive Preisschätzung. Offensichtlich wollen Sie die zweite Art von Lager. Das ist diese Idee. Wieder, sortieren Sie in Dezile, und nehmen Sie das obere Dezile. Daher lässt Sie das obere Dezil des oberen Dezils mit 1 des Universums. Im Grunde macht dies die Idee sehr schwer zu replizieren8211since you8217d brauchen, um eine massive Universum von Aktien aufzuspüren. Das heißt, ich denke, der Ausdruck ist eigentlich eine ziemlich gute Idee als Stand-In für Volatilität. Das heißt, unabhängig davon, wie flüchtig ein Vermögenswert ist, obgleich es so flüchtig wie eine Ware wie DBC oder als nicht-volatil ist, wie ein festverzinsliches Produkt wie SHY, ist dieser Ausdruck eine interessante Art, diesen Weg zu bezeichnen, dieser Weg ist choppy8221 vs. Glatt8221. Ich könnte diesen Ausdruck auf meinem Blog weiter in die Zukunft zu untersuchen. 3) Schließlich, wenn das Portfolio dreht sich mehr als vierteljährlich statt monatlich, die besten Monate, um es zu drehen sind die Monate vor Ende des Quartals Monat (das heißt, Februar, Mai, August, November), weil ein Bündel von Amateur-Asset Manager wie 8220window dress8221 ihre Portfolios. Das heißt, sie hatten ein mieses Viertel, so dass im letzten Monat, bevor sie vierteljährliche Aussagen senden müssen, laden sie auf einige neue Gewinner, so dass ihre Kunden don8217t denken sie8217re als Amateur, wie sie wirklich loslassen, und there8217s ein Stoß für Dies. Ähnlich hat Januar einige verkaufende Anomalien wegen der Steuerverlusternte. Soweit praktische Implementierungen gehen, denke ich, das ist eine sehr nette Geste. Die Tatsache, dass das Umdrehen jeden Monat kann ein bisschen zu teuer sein, mag ich, dass Wes und Jack sagen 8220sure, wollen Sie es drehen einmal alle drei Monate, aber auf welche Monate8221. It8217s eine sehr gute Frage zu fragen, ob es bedeutet, dass Sie einen zusätzlichen Prozentpunkt oder 150 Bps pro Jahr von, dass es nur die Transaktionskosten und dann einige decken könnte. Alles in allem ist es eine ziemlich einfach zu verstehende Strategie. Allerdings ist der Teil, der Art von Gates aus dem Buch zu einer perfekten Replikation ist die Schwierigkeit bei der Erlangung der CRSP-Daten. Allerdings empfehle ich Alpha Architect für die Offenlegung des gesamten Algorithmus von Anfang bis Ende. Darüber hinaus, wenn die grundlegenden 2-12 Impuls ist nicht genug, there8217s ein Anhang, die andere Arten von Impulsideen (Verdienst Impuls, Rangfolge von Distanz zu 52-Wochen-Hochs, absolute historische Impuls, und so weiter). Keine dieser Strategien ist wirklich so viel besser als die grundlegende Preis-Impuls-Strategie, so dass sie dort für die Interessierten dort, aber es scheint there8217s nichts wirklich bahnbrechenden dort. Das ist, wenn Sie einmal im Monat Handel, es8217s nur so viele Möglichkeiten zu sagen 8220hey, ich glaube, diese Sache geht up8221 Ich mag auch, dass Wes und Jack berührte die Tatsache, dass Trendfolgen, während es doesn8217t insgesamt CAGR oder Sharpe verbessern , Macht eine massive Menge auf max Drawdown zu verbessern. Das heißt, wenn mit der Aussicht, 70-80 von allem zu verlieren konfrontiert, und verlieren nur 30, dass8217s eine einfache Wahl zu machen. Trendfolgen ist gut, auch eine vereinfachte Version. Alles in allem denke ich, dass das Buch vollendet, was es anfängt zu tun, das ist, einen gut-erforschten Algorithmus zu präsentieren. Letztlich ist die Punchline auf Alpha Architect8217s Website (ich glaube, sie haben eine Art von monatlichen Lager-Filter). Darüber hinaus gibt das Buch an, dass es bessere risikoadjustierte Renditen gibt, wenn es mit dem Algorithmus kombiniert wird, der in dem 8220quantitativen Wert8221 Buch umrissen wird. In meiner Erfahrung habe ich nie Wert-Algorithmen beeindrucken mich in den Backtests I8217ve getan, aber ich kann Kreide, die bis zu mir mit allen verschiedenen Bewertungs-Metriken unerfahren. Meine Kritik am Buch ist jedoch: Der Momentum-Algorithmus im Buch vermisst, was ich fühle, ist eine Schlüsselkomponente: die Volatilitäts-Targeting-Kontrolle. Einfach, das Papier 8220momentum hat seine Momente8221 (die ich in meiner Hypothese-driven Entwicklung Reihe von Beiträgen abgedeckt) im Wesentlichen besagt, dass die üblichen Fama-Französisch Momentum Strategie weit besser aus einer Risiko-Belohnung Strategie durch Deleveraging während Zeiten übermäßiger Volatilität, und Vermeidung von Impulsabbrüchen. I8217m nicht sicher, warum Wes und Jack didn8217t berühren dieses Papier, da die Umsetzung ist sehr einfach (targetrealized Volatilität Hebelwirkung Faktor). Idealerweise würde ich lieben, wenn Wes oder Jack mir den Strom der Rückkehr für diese Strategie schicken könnten (vorzugsweise täglich, aber monatlich auch funktioniert). Im Grunde halte ich dieses Buch sehr umfassend. Allerdings denke ich, es hat auch eine etwas 8220don8217t versuchen diese zu Hause8221 fühlen, um es aufgrund der Datenanforderung zu replizieren. Sicherlich, wenn Ihr Broker berechnet Sie 8 eine Transaktion, it8217s nicht eine machbare Strategie, um mehrere tausend Dollar pro Jahr auf Transaktionskosten fallen, die nur Ihre Rückkehr zu Ihrem Broker geben. Aber ich frage mich, ob die QMOM ETF (von Alpha Architect, natürlich) ist in der Tat eine bessere Version dieser Strategie, außerhalb der Managementgebühr. Auf jeden Fall lautet meine abschließende Meinung: Während dieses Buch ein bisschen Wissen auf dem Tisch hinterlässt, vollzieht es das Ganze, was es zu tun gibt, ist klar mit seinen Verfahren und bietet einige lohnende Ideen. Für den Preis eines nicht-technischen Lehrbuchs (aka jene 60 Bücher über amazon), ist dieses Buch ein stehlen. Danke fürs Lesen. ANMERKUNG: Während ich zurzeit in einer erfolgreichen Analytik-Kapazität beschäftigt bin, bin ich daran interessiert, über Vollzeitstellen näher zu den Themen in diesem Blog zu hören. Wenn Sie eine Vollzeitstelle haben, die von meinen gegenwärtigen Sachkenntnissen profitieren kann, informieren Sie mich bitte. Meine Linkedin finden Sie hier. Dieser Beitrag wird etwa versuchen, das Depmix-Paket für Online-Status-Vorhersage verwenden. Während das Depmix-Paket bewundernswert ist, wenn es darum geht, die Zustände der Vergangenheit zu beschreiben, wird bei der Verwendung für eine Schrittvorhersage unter der Annahme, dass der Zustand von morgen8217s identisch zu heute8217s sein wird, das verdeckte Markov-Modellprozeß nicht innerhalb des Pakets gefunden Erfüllen. Dieser Beitrag wurde von Michael Halls-Moore, der vor kurzem einige R-Code über die Verwendung der depmixS4-Bibliothek, um versteckte markov Modelle verwenden motiviert. In der Regel bin ich ungern, um Beiträge zu Themen Ich don8217t fühlen, habe ich ein absolut Front-to-Back-Verständnis von, aber I8217m dies in der Hoffnung, von anderen lernen, wie man angemessen online-Status-Raum-Vorhersage, oder 8220regime switching8221 tun Wie es in mehr finanziellen Parole genannt werden kann. Während ich die übliche Theorie der versteckten Markov-Modelle (das heißt, es kann regen oder es kann sonnig sein, aber man kann nur das Wetter beurteilen, die von den Kleidern sehen Sie Leute tragen außerhalb Ihres Fensters, wenn Sie aufwachen) gesehen haben, und haben gearbeitet Mit Spielzeugbeispielen in MOOCs (Udacity8217s self-driving car course befasst sich mit ihnen, wenn ich mich richtig erinnere8211 oder vielleicht war es der AI-Kurs), am Ende des Tages ist Theorie nur so gut wie, wie gut eine Implementierung auf reale Daten arbeiten kann . Für dieses Experiment habe ich beschlossen, SPY-Daten seit Beginn und nehmen Sie eine vollständige in-Probe 8220backtest8221 auf die Daten. Das heißt, angesichts der Tatsache, dass der HMM-Algorithmus von depmix die gesamte Historie der Rückkehr sieht, führt der Algorithmus mit dieser 8220god8217s eye8221-Ansicht der Daten korrekt die Regime ein, wenn die Backtest-Ergebnisse irgendeine Angabe sind Dr. Halls-Moore8217s. Im Wesentlichen, während ich wählte drei Staaten, stellte ich fest, dass alles mit einem Intercept über Null ist ein Bull-Zustand, und unter Null ist ein Bärenstaat, so im Wesentlichen, es reduziert auf zwei Staaten. Mit dem Ergebnis: Also, nicht besonders schrecklich. Der Algorithmus arbeitet, Art, Art, Recht Nun, let8217s versuchen Online-Vorhersage jetzt. So, was ich hier getan habe, war ich ein erweitertes Fenster, beginnend von 500 Tagen seit SPY8217s Anfang, und hielt es zu erhöhen, von einem Tag auf einmal. Meine Vorhersage war, trivial genug, der jüngste Tag, mit einem 1 für einen Bullenstaat und ein -1 für einen Bärenstaat. Ich lief diesen Prozess parallel (auf einem Linux-Cluster, weil windows8217s doParallel Bibliothek scheint nicht einmal wissen, dass bestimmte Pakete geladen werden, und es8217s mehr chaotisch), und das erste große Problem ist, dass dieser Vorgang etwa drei Stunden auf sieben Kerne for Etwa 23 Jahre der Daten. Nicht gerade ermutigend, aber Rechenzeit isn8217t teuer in diesen Tagen. So let8217s sehen, wenn dieser Prozess tatsächlich funktioniert. Erstens, let8217s testen, ob der Algorithmus tut, was es tatsächlich tun soll und einen Tag der Vorgriffs-Bias (das heißt, der Algorithmus sagt uns den Zustand am Ende des Tages8211 so richtig ist es sogar für diesen Tag). Mit dem Ergebnis: So, angeblich, scheint der Algorithmus zu tun, was es entworfen wurde zu tun, die zu einem Zustand für einen bestimmten Datensatz zu klassifizieren ist. Nun, die wichtigste Frage: wie gut tun diese Vorhersagen auch nur einen Tag im Voraus Du8217d denke, dass Staatsraum Vorhersagen würde von Tag zu Tag sparsam sein, angesichts der langen Geschichte, richtig mit dem Ergebnis: Das heißt, ohne die Vorausschau Bias, die Zustandsraumvorhersagealgorithmus ist schädlich. Warum ist das gut, hier8217s die Handlung der Staaten: Kurz gesagt, scheint der Online-hmm-Algorithmus im Depmix-Paket seine Meinung sehr leicht zu ändern, mit offensichtlichen (negativen) Implikationen für tatsächliche Handelsstrategien. Also, dass wraps es für diesen Beitrag. Grundsätzlich ist hier die Hauptbotschaft: Es gibt einen großen Unterschied zwischen dem Laden der deskriptiven Analyse (AKA 8220, wo warst du, warum die Dinge passieren8221) gegen die prädiktive Analyse (das heißt, wenn ich die Zukunft richtig voraussage, bekomme ich einen positiven Lohn8221 ). Meiner Meinung nach, während beschreibende Statistiken haben ihren Zweck in Bezug auf die Erklärung, warum eine Strategie möglicherweise durchgeführt haben, wie es getan hat, letztlich, wir immer auf der Suche nach besseren Vorhersage-Tools. In diesem Fall scheint das Depmix, zumindest in dieser 8220-out-of-the-box8221-Demonstration, nicht das Werkzeug dafür zu sein. Wenn jemand hatte Erfolg mit der Verwendung von depmix (oder andere Regime-Switching-Algorithmus in R) für die Vorhersage, würde ich gerne sehen, Arbeit, die Details der Prozedur genommen, wie es8217s ein Bereich I8217m suchen, um meine Toolbox zu erweitern, aber don8217t haben einige besondere Gute Leads. Im Wesentlichen, wie ich an diesen Beitrag denken, wie ich meine eigenen Erfahrungen mit dem Paket zu beschreiben. Danke fürs Lesen. HINWEIS: Am 5. Oktober werde ich in New York City sein. Am 6. Oktober werde ich auf der Trading Show im Programming Wars-Panel präsentieren. HINWEIS: Mein aktueller Analytics-Vertrag steht zum Ende des Jahres zur Prüfung zur Verfügung, daher bin ich offiziell auf der Suche nach weiteren Angeboten. Wenn Sie eine Vollzeitrolle haben, die von den Fähigkeiten profitieren kann, die Sie auf meinem Blog sehen, bitte in Verbindung treten mit mir. Mein linkedin Profil finden Sie hier. Dieser Beitrag stellt eine Komponente bedingte Wert auf Risiko-Mechanik gefunden in PerformanceAnalytics aus einem Papier von Brian Peterson, Kris Boudt und Peter Carl geschrieben. Dies ist ein Mechanismus, der ein einfach-zu-Anruf-Mechanismus für die Berechnung der Komponente erwarteten Fehlbetrag in Anlagenrenditen, wie sie für ein Portfolio gelten. Während die genaue Mechanik ziemlich komplex ist, ist der Aufwand, dass die Laufzeit fast augenblicklich ist, und diese Methode ist ein solides Werkzeug für die Aufnahme in Asset Allocation Analyse. Für diejenigen, die sich für eine eingehende Analyse der Intuition des Komponenten-bedingten Risikos interessieren, verweise ich sie auf das Papier von Brian Peterson, Peter Carl und Kris Boudt. Grundsätzlich ist hier die Idee: Alle Vermögenswerte eines gegebenen Portfolios haben einen marginalen Beitrag zu seinem gesamten Bedingungsrisiko (auch als erwarteter Fehlbetrag bekannt) 8211, dh der erwartete Verlust, wenn der Verlust eine bestimmte Schwelle überschreitet. Zum Beispiel, wenn Sie wissen wollen, Ihre 5 erwarteten Fehlbetrag, dann it8217s der Durchschnitt der schlechtesten 5 Renditen pro 100 Tage, und so weiter. Für Rücksendungen mit einer täglichen Auflösung kann die Idee eines erwarteten Fehlbetrags klingen, als ob es niemals genügend Daten in einem ausreichend schnellen Zeitrahmen (auf ein Jahr oder weniger) geben würde, die Formel für den erwarteten Fehlbetrag in den PerformanceAnalytics-Standardwerten ist eine Approximationsberechnung mit a Cornish-Fisher-Expansion, die sehr gute Ergebnisse liefert, solange der p-Wert nicht zu extrem ist (das heißt, es arbeitet für relativ sane p-Werte wie der 1-10-Bereich). Der Komponenten-Bedingungs-Value-at-Risk hat zwei Verwendungen: Erstens, wenn keine Eingabegewichte angegeben werden, verwendet er einen gleichwertigen Standardwert, der es ermöglicht, eine Risikobewertung für jedes einzelne Asset bereitzustellen, ohne den Forscher zu belasten, seine eigene Korrelationskovarianzheuristik zu schaffen. Zweitens, wenn mit einem Satz von Gewichten versehen, ändert sich die Ausgabe, um den Beitrag der verschiedenen Vermögenswerte im Verhältnis zu diesen Gewichten widerzuspiegeln. Dies bedeutet, dass diese Methode sehr gut funktioniert mit Strategien, die Vermögenswerte auf der Grundlage von Impuls ausschließen, aber müssen ein Gewichtungsschema für die verbleibenden Vermögenswerte. Darüber hinaus ermöglicht diese Methode auch eine Ex-post-Analyse des Risikobeitrags zu sehen, welches Instrument dazu beigetragen, was zu riskieren. Erstens, eine Demonstration, wie der Mechanismus arbeitet mit dem Edhec-Datensatz. Es gibt hier keine Strategie, nur eine Demonstration der Syntax. Dies wird einen gleichgewichtigen Beitrag aus allen Fonds im edhec-Datensatz annehmen. So ist tmp der Beitrag des erwarteten Fehlbetrags von jedem der verschiedenen edhec Manager über den gesamten Zeitraum. Hierbei handelt es sich um die Ausgabe: Der wichtigste Teil davon ist der prozentuale Anteil (der letzte Ausgang). Beachten Sie, dass es negativ sein kann, was bedeutet, dass bestimmte Fonds gewinnen, wenn andere verlieren. Zumindest war dies der Fall über den aktuellen Datensatz. Diese Vermögenswerte diversifizieren ein Portfolio und senken sogar den erwarteten Fehlbetrag. In diesem Fall gewichtete ich gleichmäßig die ersten zehn Manager im Edhec-Datensatz und setzte Nullgewicht in den letzten drei ein. Darüber hinaus können wir sehen, was passiert, wenn die Gewichte nicht gleich sind. Dieses Mal, beachten Sie, dass, wie das Gewicht in der Cabrio-Arb-Manager erhöht, so auch seinen Beitrag zu maximal erwarteten Fehlbetrag. Für einen zukünftigen Backtest möchte ich einige Datenanfragen machen. Ich möchte das Universum in Faber8217s Global Asset Allocation Buch zu finden. Das heißt, die Simulationen in diesem Buch gehen zurück bis 1972, und ich frage mich, ob jemand da draußen hat täglich Renditen für die Assetsindizes. Während einige ETFs in die frühen 2000er Jahre zurückgehen, gibt es einige, die ziemlich spät beginnen, wie DBC (Rohstoffe, Anfang 2006), GLD (Gold, Anfang 2004), BWX (Foreign Bonds, Ende 2007) und FTY (NAREIT, 2007). Als acht Jahre Backtest wäre ein bisschen kurz, ich frage mich, ob jemand Daten mit mehr Geschichte hatte. Eine andere Sache, werde ich in New York für die Handelsausstellung. Und sprachen über die 8220 Programmierung wars8221 Panel am 6. Oktober. Danke fürs Lesen. HINWEIS: Während ich derzeit bin, bin ich auch auf der Suche nach einer dauerhaften Position, die von meinen Fähigkeiten profitieren kann, wenn mein aktueller Vertrag endet. Wenn Sie eine solche Öffnung haben oder wissen, werde ich gerne mit Ihnen sprechen. Dieser Beitrag wird eine Funktion, um die Erstellung Harry Long Art Rebalancing Strategien von SeekingAlpha für interessierte Leser zu vereinfachen. Wie Harry Long erklärt hat, sind die meisten, wenn nicht alle seine Strategien mehr für Demonstrationszwecke eher als tatsächliche empfohlene Investitionen. Also, da Harry Long einige Artikel über Seeknig Alpha veröffentlicht hat, hatte ich einen Leser oder zwei Leser, seine Strategien (wieder) zu analysieren. Anstatt dies zu tun, I8217ll einfach dieses Tool, das ist ein Wrapper, automatisiert die Erfassung von Daten und simuliert Portfolio-Rebalancing mit einer Zeile Code. Hier ist das Werkzeug. Es holt die Daten für Sie (in der Regel von Yahoo, aber ein großes Dankeschön an Herrn Helumth Vollmeier im Falle von ZIV und VXX), und hat die Möglichkeit, entweder nur eine Equity-Kurve und einige Statistiken (CAGR, annualisiert Standard-dev , Sharpe, max Drawdown, Calmar), oder geben Sie den Rücklauf als Ausgang, wenn Sie mehr Analyse in R. machen wollen. Hier8217s ein Beispiel für das einfache Erhalten der Statistiken, mit einem 80 XLPSPLV (they8217re mehr oder weniger austauschbar) und 20 TMF (aka 60 TLT, so ein 8060 Portfolio), von einem der Harry Long8217s Artikel. Nichts außergewöhnliches von dem, was wir von einem ausgewogenen Aktienanleiheportfolio erwarten könnten. Generell tut gut, hat seinen größten Drawdown in der Finanzkrise, und einige andere Beulen in der Straße, aber insgesamt, glaube ich, eine ziemlich Vanille 8220set es und vergessen Sie es 8221 Art der Sache. Und hier wäre der Weg, um den Strom der einzelnen täglichen Renditen zu erhalten, vorausgesetzt, Sie wollten diese beiden Instrumente wöchentlich, anstelle von jährlichen (wie ist die Standardeinstellung) auszugleichen. Und jetzt let8217s erhalten einige Statistiken. Stellt sich heraus, verschieben die Rebalancing von jährlich auf wöchentlich didn8217t haben viel von einem Effekt hier (außer geben einen Haufen Geld an Ihren Broker, wenn Sie in Transaktionskosten, die dies doesn8217t berücksichtigt). So, that8217s, wie dieses Werkzeug arbeitet. Die Ergebnisse, natürlich, beginnen mit den neuesten instrument8217s Anfang. Der Trick, meiner Meinung nach, ist zu versuchen, Proxy-Ersatz mit längeren Geschichten für neuere ETFs, die einfach gehebelten ETFs, wie die Verwendung eines 60 Gewicht in TLT mit einem 80 Gewicht in XLP anstelle eines 20 Gewicht in TMF mit 80 Zuweisung In SPLV. Zum Beispiel, hier sind einige Proxies: SPXL XLP SPXLUPRO SPY 3 TMF TLT 3 Das heißt, I8217ve arbeitete mit Harry Long vor, und er entwickelt mehr anspruchsvolle Strategien hinter den Kulissen, so I8217d empfehlen, dass SeekingAlpha Leser seine öffentlich freigegebenen Strategien als Konzept Demonstrationen nehmen , Im Gegensatz zu vollwertigen Anlageideen, und kontaktieren Sie Herrn Long selbst über mehr individuelle, private Lösungen für Investment-Institutionen, wenn Sie so interessiert sind. Danke fürs Lesen. HINWEIS: Ich bin derzeit im Nordosten. Während ich derzeit bin, interessiere ich mich für die Vernetzung mit Einzelpersonen oder Unternehmen im Hinblick auf mögliche Kooperationsmöglichkeiten. In diesem Beitrag wird gezeigt, wie der Umsatz bei der Nutzung von Renditebasierten Daten unter Verwendung von PerformanceAnalytics und der Return. Portfolio-Funktion in R zu berücksichtigen ist. Dies wird anhand einer Grundstrategie für die neun Sektoren-SPDRs demonstriert. Zunächst einmal handelt es sich hierbei um eine Frage, die von einem Robert Wages in der Mailingliste R-SIG-Finance gestellt wurde. Zwar gibt es viele Einzelpersonen gibt mit einer Fülle von Fragen (viele von denen kann gefunden werden, um auf diesem Blog bereits demonstriert werden), gelegentlich gibt es eine Industrie Veteran, ein Doktorand Student von Stanford, oder andere sehr intelligente Person, die Wird eine Frage zu einem Thema, dass ich haven8217t noch berührt auf diesem Blog, die einen Beitrag zu einem anderen technischen Aspekt in R zeigen demonstrieren wird zu stellen. Dies ist einer dieser Zeiten. Also, diese Demonstration wird über die Berechnung der Umsatz im Returns Space mit dem PerformanceAnalytics-Paket. Ausserhalb des PortfolioAnalytics-Pakets ist PerformanceAnalytics mit seiner Return. Portfolio-Funktion das Go-to-R-Paket für Portfolio-Management-Simulationen, da es einen Satz von Gewichten, einen Satz von Renditen und eine Reihe von Portfolio-Renditen für die Analyse generieren kann Mit dem Rest der PerformanceAnalytics8217s Funktionen. Auch hier ist die Strategie: Nehmen Sie die 9 Dreibund-Sektor SPDRs (da gibt es vier-Buchstaben-ETFs jetzt), und am Ende eines jeden Monats, wenn der bereinigte Preis liegt über seinem 200-Tage gleitenden Durchschnitt, in sie investieren . Normalisiert über alle investierten Sektoren (dh 19., wenn in alle 9, 100 in 1 investiert, wenn nur 1 investiert, 100 Bargeld, mit einem Null-Return-Vektor bezeichnet, wenn keine Sektoren investiert werden). It8217s eine einfache, Spielzeug-Strategie, wie die Strategie isn8217t der Punkt der Demonstration. Hier ist der grundlegende Setup-Code: So erhalten Sie die SPDRs, setzen sie zusammen, berechnen ihre Renditen, erzeugen das Signal und erstellen den Null-Vektor, da Return. Portfolio Gewichte unter 1 als Entnahme behandelt und Gewichte über 1 als Zusatz Von mehr Kapital (große FYI hier). Nun, hier8217s, wie man den Umsatz berechnet: Also, der Trick ist: Wenn Sie Return. portfolio aufrufen, verwenden Sie die ausführliche TRUE-Option. Dies schafft mehrere Objekte, darunter Rückkehr, BOP. Weight und EOP. Weight. Diese stehen für Beginn der Periode Gewicht und Ende der Periode Gewicht. Die Art und Weise, dass Umsatz berechnet wird, ist einfach der Unterschied zwischen der Rückkehr der Rückzahlung des zugeteilten Portfolios von seinem vorherigen Endpunkt zu dem, wo dieses Portfolio zu Beginn des nächsten Zeitraums steht. Das heißt, das Ende des Periodengewichts ist der Beginn des Periodendriftes, nachdem der Tagesablauf für diesen Vermögenswert berücksichtigt wurde. Der neue Anfang des Zeitraums Gewicht ist das Ende der Periode Gewicht plus jede Transaktion, die getan worden wäre. Um somit die tatsächlichen Transaktionen (oder den Umsatz) zu finden, subtrahiert man das vorherige Ende des Periodengewichts von dem Beginn des Periodengewichts. Dies ist, was solche Transaktionen für diese Strategie aussehen. Etwas, das wir mit solchen Daten tun können, dauert einen einjährigen rollierenden Umsatz, der mit folgendem Code erreicht wird: Es sieht so aus: Dies bedeutet im Wesentlichen, dass ein Jahr2007 im Wert von Zwei-Wege-Umsatz (das heißt, wenn der Verkauf eines vollständig investierten Portfolios ist 100 Umsatz, und den Kauf einer völlig neuen Satz von Vermögenswerten ist ein weiterer 100, dann zwei-Wege-Umsatz ist 200) ist rund 800 bei maximal. Das kann für einige Leute ziemlich hoch sein. Nun, hier8217s die Anwendung, wenn Sie die Transaktionskosten bei 20 Basispunkten pro Prozentpunkt gehandelt (das heißt, es kostet 20 Cent zu 100 Transaktionen) zu bestrafen. Also, bei 20 Basispunkten auf Transaktionskosten, das dauert etwa ein Prozent in Renditen pro Jahr aus dieser (zugegebenermaßen schrecklichen) Strategie. Das ist keineswegs vernachlässigbar. So, das ist, wie Sie tatsächlich berechnen Umsatz und Transaktionskosten. In diesem Fall war das Transaktionskostenmodell sehr einfach. However, given that Return. portfolio returns transactions at the individual asset level, one could get as complex as they would like with modeling the transaction costs. Danke fürs Lesen. NOTE: I will be giving a lightning talk at RFinance, so for those attending, you8217ll be able to find me there. This post will outline an easy-to-make mistake in writing vectorized backtests8211namely in using a signal obtained at the end of a period to enter (or exit) a position in that same period. The difference in results one obtains is massive. Today, I saw two separate posts from Alpha Architect and Mike Harris both referencing a paper by Valeriy Zakamulin on the fact that some previous trend-following research by Glabadanidis was done with shoddy results, and that Glabadanidis8217s results were only reproducible through instituting lookahead bias. The following code shows how to reproduce this lookahead bias. First, the setup of a basic moving average strategy on the SampP 500 index from as far back as Yahoo data will provide. And here is how to institute the lookahead bias. These are the 8220results8221: Of course, this equity curve is of no use, so here8217s one in log scale. As can be seen, lookahead bias makes a massive difference. Here are the numerical results: Again, absolutely ridiculous. Note that when using Return. Portfolio (the function in PerformanceAnalytics), that package will automatically give you the next period8217s return, instead of the current one, for your weights. However, for those writing 8220simple8221 backtests that can be quickly done using vectorized operations, an off-by-one error can make all the difference between a backtest in the realm of reasonable, and pure nonsense. However, should one wish to test for said nonsense when faced with impossible-to-replicate results, the mechanics demonstrated above are the way to do it. Now, onto other news: I8217d like to thank Gerald M for staying on top of one of the Logical Invest strategies8211namely, their simple global market rotation strategy outlined in an article from an earlier blog post. Up until March 2015 (the date of the blog post), the strategy had performed well. However, after said date It has been a complete disaster, which, in hindsight, was evident when I passed it through the hypothesis-driven development framework process I wrote about earlier. So, while there has been a great deal written about not simply throwing away a strategy because of short-term underperformance, and that anomalies such as momentum and value exist because of career risk due to said short-term underperformance, it8217s never a good thing when a strategy creates historically large losses, particularly after being published in such a humble corner of the quantitative financial world. In any case, this was a post demonstrating some mechanics, and an update on a strategy I blogged about not too long ago. Danke fürs Lesen. NOTE: I am always interested in hearing about new opportunities which may benefit from my expertise, and am always happy to network. You can find my LinkedIn profile here . This post will shed light on the values of R2s behind two rather simplistic strategies 8212 the simple 10 month SMA, and its relative, the 10 month momentum (which is simply a difference of SMAs, as Alpha Architect showed in their book DIY Financial Advisor . Not too long ago, a friend of mine named Josh asked me a question regarding R2s in finance. He8217s finishing up his PhD in statistics at Stanford, so when people like that ask me questions, I8217d like to answer them. His assertion is that in some instances, models that have less than perfect predictive power (EG R2s of .4, for instance), can still deliver very promising predictions, and that if someone were to have a financial model that was able to explain 40 of the variance of returns, they could happily retire with that model making them very wealthy. Indeed. 4 is a very optimistic outlook (to put it lightly), as this post will show. In order to illustrate this example, I took two 8220staple8221 strategies 8212 buy SPY when its closing monthly price is above its ten month simple moving average, and when its ten month momentum (basically the difference of a ten month moving average and its lag) is positive. While these models are simplistic, they are ubiquitously talked about, and many momentum strategies are an improvement upon these baseline, 8220out-of-the-box8221 strategies. Here8217s the code to do that: And here are the results: In short, the SMA10 and the 10-month momentum (aka ROC 10 aka MOM10) both handily outperform the buy and hold, not only in absolute returns, but especially in risk-adjusted returns (Sharpe and Calmar ratios). Again, simplistic analysis, and many models get much more sophisticated than this, but once again, simple, illustrative example using two strategies that outperform a benchmark (over the long term, anyway). Now, the question is, what was the R2 of these models To answer this, I took a rolling five-year window that essentially asked: how well did these quantities (the ratio between the closing price and the moving average 8211 1, or the ten month momentum) predict the next month8217s returns That is, what proportion of the variance is explained through the monthly returns regressed against the previous month8217s signals in numerical form (perhaps not the best framing, as the signal is binary as opposed to continuous which is what is being regressed, but let8217s set that aside, again, for the sake of illustration). Here8217s the code to generate the answer. And the answer, in pictorial form: In short, even in the best case scenarios, namely, crises which provide momentumtrend-followingcall it what you will its raison d8217etre, that is, its risk management appeal, the proportion of variance explained by the actual signal quantities was very small. In the best of times, around 20. But then again, think about what the R2 value actually is8211it8217s the percentage of variance explained by a predictor. If a small set of signals (let alone one) was able to explain the majority of the change in the returns of the SampP 500, or even a not-insignificant portion, such a person would stand to become very wealthy. More to the point, given that two strategies that handily outperform the market have R2s that are exceptionally low for extended periods of time, it goes to show that holding the R2 up as some form of statistical holy grail certainly is incorrect in the general sense, and anyone who does so either is painting with too broad a brush, is creating disingenuous arguments, or should simply attempt to understand another field which may not work the way their intuition tells them. Danke fürs Lesen. This review will review the 8220Adaptive Asset Allocation: Dynamic Global Portfolios to Profit in Good Times 8211 and Bad8221 book by the people at ReSolve Asset Management. Overall, this book is a definite must-read for those who have never been exposed to the ideas within it. However, when it comes to a solution that can be fully replicated, this book is lacking. Okay, it8217s been a while since I reviewed my last book, DIY Financial Advisor. from the awesome people at Alpha Architect. This book in my opinion, is set up in a similar sort of format. This is the structure of the book, and my reviews along with it: Part 1: Why in the heck you actually need to have a diversified portfolio, and why a diversified portfolio is a good thing. In a world in which there is so much emphasis put on single-security performance, this is certainly something that absolutely must be stated for those not familiar with portfolio theory. It highlights the example of two people8211one from Abbott Labs, and one from Enron, who had so much of their savings concentrated in their company8217s stock. Mr. Abbott got hit hard and changed his outlook on how to save for retirement, and Mr. Enron was never heard from again. Long story short: a diversified portfolio is good, and a properly diversified portfolio can offset one asset8217s zigs with another asset8217s zags. This is the key to establishing a stream of returns that will help meet financial goals. Basically, this is your common sense story (humans love being told stories) so as to motivate you to read the rest of the book. It does its job, though for someone like me, it8217s more akin to a big 8220wait for it, wait for it8230and there8217s the reason why we should read on, as expected8221. Part 2: Something not often brought up in many corners of the quant world (because it8217s real life boring stuff) is the importance not only of average returns, but when those returns are achieved. Namely, imagine your everyday saver. At the beginning of their careers, they8217re taking home less salary and have less money in their retirement portfolio (or speculation portfolio, but the book uses retirement portfolio). As they get into middle age and closer to retirement, they have a lot more money in said retirement portfolio. Thus, strong returns are most vital when there is more cash available to the portfolio, and the difference between mediocre returns at the beginning and strong returns at the end of one8217s working life as opposed to vice versa is astronomical and cannot be understated. Furthermore, once in retirement, strong returns in the early years matter far more than returns in the later years once money has been withdrawn out of the portfolio (though I8217d hope that a portfolio8217s returns can be so strong that one can simply 8220live off the interest8221). Or, put more intuitively: when you have 10,000 in your portfolio, a 20 drawdown doesn8217t exactly hurt because you can make more money and put more into your retirement account. But when you8217re 62 and have 500,000 and suddenly lose 30 of everything, well, that8217s massive. How much an investor wants to avoid such a scenario cannot be understated. Warren Buffett once said that if you can8217t bear to lose 50 of everything, you shouldn8217t be in stocks. I really like this part of the book because it shows just how dangerous the ideas of 8220a 50 drawdown is unavoidable8221 and other 8220stay invested for the long haul8221 refrains are. Essentially, this part of the book makes a resounding statement that any financial adviser keeping his or her clients invested in equities when they8217re near retirement age is doing something not very advisable, to put it lightly. In my opinion, those who advise pension funds should especially keep this section of the book in mind, since for some people, the long-term may be coming to an end, and what matters is not only steady returns, but to make sure the strategy doesn8217t fall off a cliff and destroy decades of hard-earned savings. Part 3: This part is also one that is a very important read. First off, it lays out in clear terms that the long-term forward-looking valuations for equities are at rock bottom. That is, the expected forward 15-year returns are very low, using approximately 75 years of evidence. Currently, according to the book, equity valuations imply a negative 15-year forward return. However, one thing I will take issue with is that while forward-looking long-term returns for equities may be very low, if one believed this chart and only invested in the stock market when forecast 15-year returns were above the long term average, one would have missed out on both the 2003-2007 bull runs, and the one since 2009 that8217s just about over. So, while the book makes a strong case for caution, readers should also take the chart with a grain of salt in my opinion. However, another aspect of portfolio construction that this book covers is how to construct a robust (assets for any economic environment) and coherent (asset classes balanced in number) universe for implementation with any asset allocation algorithm. I think this bears repeating: universe selection is an extremely important topic in the discussion of asset allocation, yet there is very little discussion about it. Most researchtopics simply take some 8220conventional universe8221, such as 8220all stocks on the NYSE8221, or 8220all the stocks in the SampP 5008221, or 8220the entire set of the 50-60 most liquid futures8221 without consideration for robustness and coherence. This book is the first source I8217ve seen that actually puts this topic under a magnifying glass besides 8220finger in the air pick and choose8221. Part 4: and here8217s where I level my main criticism at this book. For those that have read 8220Adaptive Asset Allocation: A Primer8221. this section of the book is basically one giant copy and paste. It8217s all one large buildup to 8220momentum rank min-variance optimization8221. All well and good, until there8217s very little detail beyond the basics as to how the minimum variance portfolio was constructed. Namely, what exactly is the minimum variance algorithm in use Is it one of the poor variants susceptible to numerical instability inherent in inverting sample covariance matrices Or is it a heuristic like David Varadi8217s minimum variance and minimum correlation algorithm The one feeling I absolutely could not shake was that this book had a perfect opportunity to present a robust approach to minimum variance, and instead, it8217s long on concept, short on details. While the theory of 8220maximize return for unit risk8221 is all well and good, the actual algorithm to implement that theory into practice is not trivial, with the solutions taught to undergrads and master8217s students having some well-known weaknesses. On top of this, one thing that got hammered into my head in the past was that ranking also had a weakness at the inclusionexclusion point. E. G. if, out of ten assets, the fifth asset had a momentum of say, 10.9, and the sixth asset had a momentum of 10.8, how are we so sure the fifth is so much better And while I realize that this book was ultimately meant to be a primer, in my opinion, it would have been a no-objections five-star if there were an appendix that actually went into some detail on how to go from the simple concepts and included a small numerical example of some algorithms that may address the well-known weaknesses. This doesn8217t mean Greekmathematical jargon. Just an appendix that acknowledged that not every reader is someone only picking up his first or second book about systematic investing, and that some of us are familiar with the 8220whys8221 and are more interested in the 8220hows8221. Furthermore, I8217d really love to know where the authors of this book got their data to back-date some of these ETFs into the 90s. Part 5: some more formal research on topics already covered in the rest of the book8211namely a section about how many independent bets one can take as the number of assets grow, if I remember it correctly. Long story short You easily get the most bang for your buck among disparate asset classes, such as treasuries of various duration, commodities, developed vs. emerging equities, and so on, as opposed to trying to pick among stocks in the same asset class (though there8217s some potential for alpha there8230just8230a lot less than you imagine). So in case the idea of asset class selection, not stock selection wasn8217t beaten into the reader8217s head before this point, this part should do the trick. The other research paper is something I briefly skimmed over which went into more depth about volatility and retirement portfolios, though I felt that the book covered this topic earlier on to a sufficient degree by building up the intuition using very understandable scenarios. So that8217s the review of the book. Overall, it8217s a very solid piece of writing, and as far as establishing the why, it does an absolutely superb job. For those that aren8217t familiar with the concepts in this book, this is definitely a must-read, and ASAP. However, for those familiar with most of the concepts and looking for a detailed 8220how8221 procedure, this book does not deliver as much as I would have liked. And I realize that while it8217s a bad idea to publish secret sauce, I bought this book in the hope of being exposed to a new algorithm presented in the understandable and intuitive language that the rest of the book was written in, and was left wanting. Still, that by no means diminishes the impact of the rest of the book. For those who are more likely to be its target audience, it8217s a 55. For those that wanted some specifics, it still has its gem on universe construction. Overall, I rate it a 45. Thanks for reading. Happy new year. This post will be a quick one covering the relationship between the simple moving average and time series momentum. The implication is that one can potentially derive better time series momentum indicators than the classical one applied in so many papers. Okay, so the main idea for this post is quite simple: I8217m sure we8217re all familiar with classical momentum. That is, the price now compared to the price however long ago (3 months, 10 months, 12 months, etc.). E. G. P(now) 8211 P(10) And I8217m sure everyone is familiar with the simple moving average indicator, as well. E. G. SMA(10). Well, as it turns out, these two quantities are actually related. It turns out, if instead of expressing momentum as the difference of two numbers, it is expressed as the sum of returns, it can be written (for a 10 month momentum) as: MOM10 return of this month return of last month return of 2 months ago 8230 return of 9 months ago, for a total of 10 months in our little example. This can be written as MOM10 (P(0) 8211 P(1)) (P(1) 8211 P(2)) 8230 (P(9) 8211 P(10)). (Each difference within parentheses denotes one month8217s worth of returns.) Which can then be rewritten by associative arithmetic as: (P(0) P(1) 8230 P(9)) 8211 (P(1) P(2) 8230 P(10)). In other words, momentum 8212 aka the difference between two prices, can be rewritten as the difference between two cumulative sums of prices. And what is a simple moving average Simply a cumulative sum of prices divided by however many prices summed over. Here8217s some R code to demonstrate. With the resulting number of times these two signals are equal: In short, every time. Now, what exactly is the punchline of this little example Here8217s the punchline: The simple moving average is8230fairly simplistic as far as filters go. It works as a pedagogical example, but it has some well known weaknesses regarding lag, windowing effects, and so on. Here8217s a toy example how one can get a different momentum signal by changing the filter. With the following results: While the difference of EMA10 strategy didn8217t do better than the difference of SMA10 (aka standard 10-month momentum), that8217s not the point. The point is that the momentum signal is derived from a simple moving average filter, and that by using a different filter, one can still use a momentum type of strategy. Or, put differently, the maingeneral takeaway here is that momentum is the slope of a filter, and one can compute momentum in an infinite number of ways depending on the filter used, and can come up with a myriad of different momentum strategies. Danke fürs Lesen. NOTE: I am currently contracting in Chicago, and am always open to networking. Contact me at my email at ilya. kipnisgmail or find me on my LinkedIn here. This post will outline a first failed attempt at applying the ensemble filter methodology to try and come up with a weighting process on SPY that should theoretically be a gradual process to shift from conviction between a bull market, a bear market, and anywhere in between. This is a follow-up post to this blog post. So, my thinking went like this: in a bull market, as one transitions from responsiveness to smoothness, responsive filters should be higher than smooth filters, and vice versa, as there8217s generally a trade-off between the two. In fact, in my particular formulation, the quantity of the square root of the EMA of squared returns punishes any deviation from a flat line altogether (although inspired by Basel8217s measure of volatility, which is the square root of the 18-day EMA of squared returns), while the responsiveness quantity punishes any deviation from the time series of the realized prices. Whether these are the two best measures of smoothness and responsiveness is a topic I8217d certainly appreciate feedback on. In any case, an idea I had on the top of my head was that in addition to having a way of weighing multiple filters by their responsiveness (deviation from price action) and smoothness (deviation from a flat line), that by taking the sums of the sign of the difference between one filter and its neighbor on the responsiveness to smoothness spectrum, provided enough ensemble filters (say, 101, so there are 100 differences), one would obtain a way to move from full conviction of a bull market, to a bear market, to anything in between, and have this be a smooth process that doesn8217t have schizophrenic swings of conviction. Here8217s the code to do this on SPY from inception to 2003: And here8217s the very underwhelming result: Essentially, while I expected to see changes in conviction of maybe 20 at most, instead, my indicator of sum of sign differences did exactly as I had hoped it wouldn8217t, which is to be a very binary sort of mechanic. My intuition was that between an 8220obvious bull market8221 and an 8220obvious bear market8221 that some differences would be positive, some negative, and that they8217d net each other out, and the conviction would be zero. Furthermore, that while any individual crossover is binary, all one hundred signs being either positive or negative would be a more gradual process. Apparently, this was not the case. To continue this train of thought later, one thing to try would be an all-pairs sign difference. Certainly, I don8217t feel like giving up on this idea at this point, and, as usual, feedback would always be appreciated. Danke fürs Lesen. NOTE: I am currently consulting in an analytics capacity in downtown Chicago. However, I am also looking for collaborators that wish to pursue interesting trading ideas. If you feel my skills may be of help to you, let8217s talk. You can email me at ilya. kipnisgmail, or find me on my LinkedIn here . Post navigation Categories

No comments:

Post a Comment