Opine sur l'optimisation: le problème Alpha Predator ™

Par: Blockforce Capital Research

Dans notre précédent article [APM I], nous avons dévoilé le modèle Alpha Predator ™ (APM) pour le trading systématique d’actifs numériques; capitalisant sur la complexité et la flexibilité pour capturer l'alpha et surperformer les marchés. Cependant, bien que l’Alpha Predator soit un prédateur fantasmagorique multidimensionnel, il s’agit en même temps d’une bête bienveillante cherchant à étendre sa prolifération alpha sur les restes fertiles de l’écosystème amélioré du marché qui reste dans son sillage. En utilisant ces semences alpha pour développer le secteur des chaînes de blocs pour les investisseurs de tous types, nous devons d’abord faire appel à des algorithmes d’apprentissage automatique afin d’optimiser le meilleur chemin possible vers la germination.

Pour rappel, voici l’arbre de décision de l’APM que nous avons déjà montré dans l’APM I:

Nous avons de nombreux choix à faire pour déterminer la manière dont APM prend les décisions, allant de la racine (direction du marché) en haut aux feuilles (les oscillateurs stochastiques) en bas. Dans leur forme actuelle, ce sont ces oscillateurs stochastiques [en savoir plus ici, et ici] qui prennent en fin de compte les décisions de négociation et nous souhaitons optimiser leurs paramètres pour prendre les meilleures décisions possibles.

Techniquement, APM a des paramètres dynamiques connus en physique sous le nom de degrés de liberté, et nous devons trouver le choix optimal pour eux. Chaque degré de liberté est une direction indépendante dans laquelle le système peut évoluer, et optimal est ce qui nous procure le retour sur investissement le plus élevé à un niveau de risque maîtrisé. Nous devons trouver le délicat équilibre auquel tout est lié pour y parvenir. Nous effectuons des recherches dans l'espace des paramètres et testons les performances en exécutant des backtests, qui appliquent l'APM aux données de prix historiques et en mesurent les performances.

Faisons un compte rapide des degrés de liberté basé sur la version actuelle de l’APM décrite dans le graphique:

Pour les diagnostics de marché, nous avons Direction, Volatility et Spread. Dans un autre article, nous parlerons également des détails de ces diagnostics. Pour l'instant, nous comptons leurs paramètres: la direction en a cinq, la volatilité en prend quatre et la propagation en prend également quatre, pour un total de 13 degrés de liberté. Un paramètre typique est le choix de la période d'échange sous-tendant un diagnostic. Cette période pourrait être de 30 minutes. Les autres paramètres sont alors souvent des multiples entiers de cette période sur laquelle tous les calculs sont effectués. En outre, il peut également s'agir de valeurs de seuil supérieures ou inférieures à certaines conditions.

13 degrés de liberté, 10 billions de possibilités et l'âge de l'univers

Restons un moment avec les diagnostics et comptons. Nous voulons trouver des choix de paramètres qui nous donnent la meilleure description possible du marché. Nous pouvons le faire - en principe - par essais et erreurs. Disons que pour chacun des paramètres de diagnostic, nous voulons essayer 10 valeurs différentes pour voir où cela mène. Nous pourrions alors essayer toutes les combinaisons possibles et garder une trace des meilleures. Comptons où cela nous mène:

Direction a 5 paramètres avec 10 choix chacun. Cela revient à 10 x 10 x 10 x 10 x 10 = 10⁵ = 100 000 pneus différents. Pas mal. Les paramètres de volatilité avec dix choix nous amènent à 10 000. Même chose pour Spread. Encore une fois, cela ne semble pas trop grave.

Cependant, voici le piège: Direction, Volatility et Spread travaillent de concert pour déterminer l’arbre de décision d’APM. Donc, nous avons affaire à 100 000 x 10 000 x 10, 00 = 10¹³, ou en mots, 10 000 milliards de choix différents que nous devrions essayer!

Il ne faut jamais sous-estimer l'énormité des trillions. Par exemple, un billion de dollars en billets superposés dépasserait la distance entre la Terre et le Soleil, et 10 000 milliards représentent une estimation du nombre total de galaxies dans l'univers [pour en savoir plus ici]. Pour Alpha Predator, avec ces 10 billions de choix parmi lesquels choisir, si chaque calcul prend 10 secondes et que nous utilisons un seul ordinateur, nous y serions pendant un peu plus de 3 millions d’années. De plus, il ne s'agit que des diagnostics de marché.

En progressant le long de l’arbre de décision, chaque branche mène à 18 feuilles différentes et sur chaque feuille se trouve un oscillateur stochastique qui prend les décisions commerciales. Nous avons généralement quatre paramètres pour chaque oscillateur stochastique. Heureusement, chaque oscillateur étant indépendant des autres, l'ajout des 18 feuilles au problème le rend «seulement» 18 000 fois plus difficile: 54 milliards d'années pour tester tous les paramètres possibles de l'arbre de décision APM.

54,8 milliards d'années sont plus longs que l'âge de l'univers (13,8 milliards d'années)! Bien que définis par nos tempéraments de patients raffinés, nous sommes limités ici par l’âge de l’Univers. Nous n’avons donc pas le choix. Nous aurons besoin d’un meilleur moyen d’optimiser la GPA beaucoup, beaucoup plus tôt.

Apprentissage automatique via l'optimisation bayésienne

Heureusement, notre équipe de scientifiques en informatique et en données possède une solide expérience en apprentissage automatique. Telle est la discipline scientifique et technique en plein essor qui exploite la puissance des ordinateurs modernes et des techniques de modélisation mathématique avancées pour permettre aux algorithmes informatiques d’apprendre et de prendre des décisions éclairées.

La plupart des algorithmes d'apprentissage machine ont des paramètres inconnus qui doivent être ajustés de la meilleure façon possible. La meilleure façon possible est définie comme une fonction de perte (voir Fig. 1), que vous souhaitez minimiser. Dans notre cas, cela peut être le négatif des rendements cumulatifs. Ainsi, afin de minimiser la fonction de perte, nous devons optimiser les paramètres. Cependant, lorsqu'il s'agit de bêtes fantasmagoriques non différenciables, nous devons faire appel à une méthode particulière d'apprentissage automatique appelée optimisation bayésienne.

L’optimisation bayésienne est un peu différente des routines standard telles que la méthode de Newton ou BFGS à mémoire limitée, car c’est une méthode d’optimisation par apprentissage automatique. La raison de l’utiliser au lieu de quelque chose de plus standard est qu’APM est une fonction étrange. Compte tenu des données, nous optimisons les paramètres d’APM afin d’optimiser les rendements. Il ne se prête pas à des approches d'optimisation plus courantes car son exécution prend beaucoup de temps (minutes, par rapport à quelques secondes dans l'approche traditionnelle), et vous ne pouvez pas utiliser le dégradé de la fonction d'origine (vous avez vraiment besoin du dégradé afin de faire de petits pas au max / min). L'optimisation bayésienne construit cette fonction de substitution, qui est lisse et différentiable. La construction de la fonction de substitution est l’apprentissage automatique. Optimiser la fonction de substitution au minimum est l’optimisation.

Fig. 1 Un exemple de surface de substitution bidimensionnelle. La plus petite perte est obtenue au minimum de la surface de substitution, la région la plus sombre en bleu, où 𝜃_1 = -2 et 𝜃_2 = 2.

Voilà comment cela fonctionne. Mathématiquement, le résultat (par exemple, le rendement total, la réduction maximale [en savoir plus ici et ici] ou toute autre métrique de performance de votre choix) d'un backtest APM est une fonction f (x) de variables x = {x1, x2, x3, x4,…} représentant les différents degrés de liberté d’APM. Pour plus de simplicité, restons-en à Total Return = f (x). Nous voulons maximiser les rendements totaux en recherchant les paramètres x générant le maximum global de f (x).

La raison pour laquelle Bayes Optimization travaille pour ce problème repose sur deux hypothèses: il existe un certain degré de régularité dans l’espace des paramètres et ce niveau de régularité est isotrope (étant identique partout). La quantité de lissage ou le «niveau de similarité» entre les régions voisines de l'espace de paramètres est appris au cours du processus d'optimisation, de sorte que la première hypothèse peut être vérifiée dans une certaine mesure. Le point suivant dans l'espace des paramètres est choisi par un équilibre entre deux objectifs, l'exploration et la maximisation. La fonction de substitution est dominée par l’incertitude dans les régions de l’espace paramétrique qui n’ont pas été explorées. Parfois, il choisira un point à proximité qui augmente de f (x), parfois, il tentera un point dans une région qui n’a pas encore été explorée.

En tant que données d'entrée dans le processus d'optimisation, nous devons fournir la plage de valeurs possible que chacun des x paramètres peut prendre. Par exemple, nous pouvons décider de pondérer une quantité indicatrice sur n périodes de marché, dans lesquelles n peut varier de 100 à 300. Notre plage pour ce paramètre est donc comprise entre 100 et 300. Nous définissons une plage pour tous les paramètres. Cela nous donne un hypercube de haute dimension définissant l'espace dans lequel l'optimiseur fonctionnera. De plus, nous pouvons imposer des contraintes sur les relations entre les paramètres. Par exemple, nous pouvons imposer qu'un paramètre soit toujours plus petit qu'un autre, ce qui est essentiel lorsque vous travaillez avec une moyenne mobile à long terme et à court terme.

Nous préparons une optimisation bayésienne en échantillonnant les valeurs de paramètre x de l'hypercube de manière à ce que toutes les régions de l'hypercube soient représentées. Nous courons ensuite APM pour calculer f (x). Cet exemple donne à l'optimiseur un ensemble initial de x et f (x) avec lesquels travailler. Encore une fois, notre objectif est de trouver la valeur de x qui maximise f (x).

Ensuite, en fonction de l'ensemble initial de x et de f (x), l'optimiseur construit un modèle statistique décrivant approximativement la manière dont f dépend de x. Cela s'appelle un modèle de substitution. Le modèle de substitution est ensuite utilisé pour prédire une nouvelle valeur de x ayant une forte probabilité d’augmenter f (x). APM est exécuté avec ce nouveau x et le f (x) résultant est enregistré et utilisé à l'étape suivante.

Initialement, les prévisions ne sont pas très précises, mais le processus est répété. À chaque répétition, plus d'informations sont ajoutées au modèle de substitution et celui-ci s'améliore.

Il apprend!

De cette manière, nous pouvons trouver des paramètres optimaux pour APM avec seulement quelques centaines d’évaluations de f (x) par rapport aux milliards nécessaires si nous utilisions une approche simple et brutale sans apprentissage automatique.

L'optimisation bayésienne est une technique robuste, il n'est donc pas surprenant qu'elle se manifeste dans de nombreux domaines de la science et de l'ingénierie. Par exemple, l'optimisation bayésienne a été utilisée pour optimiser les configurations pour les études expérimentales et pour trouver les meilleurs paramètres de modèles prédictifs pour la dynamique des fluides ou la géophysique. Notre travail avec APM montre comment l’optimisation bayésienne peut être un puissant outil de finance quantitative.

Conclusion

Alors que le prédateur s’éloigne lentement, derrière le jardin en plein développement de prolifération d’alpha qu’il cultive patiemment, nous avons le temps de reprendre notre souffle et de contempler ce que nous avons appris. En utilisant la technique d'apprentissage automatique de l'optimisation bayésienne, nous pouvons minimiser la fonction de perte de la surface de substitution mathématique que le modèle prédateur alpha couvre dans l'espace des paramètres, ce qui nous permet d'optimiser les rendements de nos investissements à des niveaux de risque contrôlés. Cette optimisation et la mise en œuvre de la GAP ne sont qu’une partie de notre écosystème quantitatif de prédateurs alpha de Blockforce Capital, dans lequel nous utilisons également l’arbitrage et notre modèle de rotation de jetons exclusif [à traiter dans les prochains articles].

En attendant, surveillez votre pas lorsque vous quitterez le jardin, car le prédateur se cache.

Blockforce Capital ne vise pas à ce que les informations présentées aux présentes servent de base à toute décision d'investissement. Les informations sont données sous forme de résumé et ne prétendent pas être complètes. Le présent document a pour seul objectif d'informer et ne constitue en aucun cas une offre ou une sollicitation d'achat ou de vente de titres, d'autres investissements ou de services, ni d'attirer des fonds ou des dépôts, et aucun titre ne peut être offert ou vendu. à toute personne dans toute juridiction dans laquelle une offre, sollicitation, achat ou vente serait illégal en vertu des lois de cette juridiction. Une telle offre ne serait faite qu'aux investisseurs qualifiés qualifiés au moyen de documents d'offre formels, dont les conditions régiraient à tous égards. Ces informations ne constituent pas des conseils de placement généraux ou personnels, et ne tiennent pas compte de la situation financière, des objectifs de placement ou des conditions financières des personnes qui les ont lues. Vous êtes prié de ne pas utiliser ces informations pour prendre une décision d'achat de sécurité. Les performances passées ne garantissent pas les résultats futurs.

Publié à l'origine sur www.blockforcecapital.com.