Simulation de Monte Carlo : Projection de ma gestion février 2024 – octobre 2025
Évaluer et rendre transparent
À la clôture d’un octobre mouvementé, j’ai réalisé une Simulation de Monte Carlo afin d’évaluer, à partir des données, la qualité de ma gestion depuis que j’ai commencé à investir avec du capital réel le 1er février 2024. La fenêtre d’observation de cette série s’achève le 30 octobre 2025. Cet exercice me fournit une référence objective, la barre que je veux franchir à chaque itération, et apporte de la transparence à celles et ceux qui copient mon portefeuille sur eToro.
Pourquoi Monte Carlo
Parce qu’elle ne devine pas : elle traduit ce qui s’est déjà produit en probabilités. À partir des rendements mensuels, j’estime la moyenne et la volatilité et, avec ces paramètres, je simule des milliers de trajectoires plausibles. Cela me permet d’auditer mon processus selon un critère cohérent et comparable dans le temps.
Hypothèses et limites
Les trajectoires sont générées à une fréquence mensuelle à partir de paramètres estimés sur n=21 (févr. 2024→oct. 2025). Les résultats sont conditionnés par ces données et hypothèses ; ils ne constituent pas une prévision. Pour refléter l’incertitude et les queues de distribution, on emploie un bootstrap empirique (quantiles/CVaR) et on examine la stabilité des percentiles avec des fenêtres hors échantillon croissantes. Toute lecture du risque doit tenir compte de possibles changements de régime.
Simulation de Monte Carlo
Données d’entrée
| Fenêtre | Observations | Moyenne mensuelle (μ) | Volatilité mensuelle (σ) |
|---|---|---|---|
| 1 févr. 2024 au 30 oct. 2025 | 21 | 1,69 % | 3,51 % |
Pour connaître des détails plus précis sur mes rendements et mon portefeuille, consulte mon profil eToro.
Paramètres de la simulation
| Horizon | Mois | Itérations | Bandes affichées | Base | Fréquence |
|---|---|---|---|---|---|
| 5 ans | 60 | 1000 | 50 % (P25–P75), 80 % (P10–P90), 90 % (P05–P95) | Facteur 1 au départ | Mensuelle |
| 10 ans | 120 | 5000 | 50 % (P25–P75), 80 % (P10–P90), 90 % (P05–P95) | Facteur 1 au départ | Mensuelle |
Résultats de la simulation
La simulation décrit une trajectoire centrale de croissance cohérente avec l’amélioration observée entre 2024 et 2025. La médiane projetée est ascendante et les bandes usuelles restent contenues, ce qui suggère que la méthode actuelle génère des rendements d’une bonne stabilité pour le niveau de risque assumé.
- Cohérence à la hausse : le schéma central des trajectoires coïncide avec l’amélioration interannuelle de l’échantillon (moyenne mensuelle approximative 1,20 % en 2024 contre 2,22 % en 2025 et fréquence plus élevée de mois positifs). Cela confirme que l’exécution récente a été plus solide.
- Risque contenu : les queues négatives demeurent modérées sur les horizons de 5 et 10 ans. Le scénario conservateur maintient une croissance cumulée non nulle, en ligne avec un profil de risque moyen proche de 4 en 2025.
- Asymétrie favorable : l’éventail présente un biais à droite. Il existe des scénarios de résultat élevé à faible probabilité tandis que la médiane se maintient, ce qui indique que les mois exceptionnels tirent vers le haut sans compromettre la base.
- Performance relative validée : le YTD 2025 dépasse les principaux indices mondiaux et la simulation suggère que cette performance ne dépend pas d’un seul mois exceptionnel, mais d’une distribution de résultats conforme à l’échantillon.
- Implication opérationnelle : maintenir la discipline des rééquilibrages et l’absence d’effet de levier. Pour la prochaine mise à jour, l’objectif est d’élever la médiane et de resserrer la bande P25–P75, avec une attention particulière au 5e centile comme indicateur de contrôle des baisses peu fréquentes.


Éléments à considérer pour la suite
La contrainte actuelle est la taille de l’échantillon ; à mesure que davantage de mois sont observés, les estimations se stabilisent (l’erreur décroît d’environ ~1/√n) et la simulation gagne en fiabilité. On peut améliorer cela en ré-estimant avec une fenêtre glissante qui intègre chaque nouveau mois et en appliquant un shrinkage vers un indice de référence tant que n reste faible, de sorte que l’« ancre » perde du poids à mesure que la preuve s’accumule et que la variabilité de la moyenne et de la volatilité diminue sans sur-ajustement. On peut aussi perfectionner le traitement des queues et des quantiles : avec davantage d’observations, les percentiles et le CVaR deviennent moins instables ; cela se fait via un bootstrap empirique pour quantifier l’incertitude des quantiles et, lorsque les dépassements sont suffisants, via la théorie des valeurs extrêmes (peaks over threshold) afin d’ancrer les événements rares. La dépendance temporelle est mieux captée car une série plus longue permet d’estimer avec moins d’erreur l’autocorrélation et la dynamique de volatilité ; ici, il est pertinent d’utiliser un block bootstrap (taille de bloc guidée par l’ACF) ou un GARCH simple et de simuler à partir des résidus pour reproduire séquences et clustering. Le mélange de périodes dissemblables se réduit en détectant les changements de régime : avec plus d’historique, les détecteurs gagnent en puissance, les paramètres sont estimés par régime et les scénarios combinés selon leur probabilité, ce qui évite le biais de mélange. Enfin, la calibration continue s’affermit en vérifiant la couverture P5–P95 et le PIT sur des fenêtres out-of-sample croissantes ; en cas d’écarts persistants, on ajuste les hypothèses. Avec davantage de mois, ces pratiques produisent des bandes de scénarios plus honnêtes et des métriques opérationnelles plus stables et utiles pour décider.
Note importante
Ce n’est pas une prédiction. Si le régime de marché change, les probabilités changent aussi. En revanche, elle offre un cadre probabiliste de résultats possibles, avec des probabilités estimées au moment de la simulation et valides dans les conditions de marché dans lesquelles les données ont été obtenues. C’est une référence pour comparer ma gestion dans le temps, pas une garantie.
