Titre original : Pourquoi les marchés de prédiction sous-estiment les parlay – l’angle mort de la corrélation
Traduction et synthèse : BitpushNews
Préface
Sur des plateformes comme Polymarket, la majorité des gens (y compris moi autrefois) ont tendance à estimer la valeur d’un « parlay » (combinaison de plusieurs événements) en multipliant simplement les probabilités de chaque événement.
Par exemple :
Probabilité que l’événement A se produise P(A) = 80%
Probabilité que l’événement B se produise P(B) = 70%
Alors, la probabilité totale du parlay = 80% × 70% × 60% = 33,6%
(Note : Parlay est un terme utilisé dans les jeux d’argent et l’investissement, en français on parle souvent de « pari combiné » ou « pari multiple ». Définition : vous misez sur deux ou plusieurs événements indépendants. Règle : vous ne gagnez que si tous vos choix sont corrects. Si l’un d’eux est faux, tout le pari est perdu.)
Cela paraît simple, n’est-ce pas ?
Le problème ne réside pas dans le calcul mathématique, mais dans l’hypothèse implicite.
Ce calcul suppose que chaque événement est indépendant des autres. Cela signifie que le résultat de A n’a aucune influence sur B. Mais en réalité, ce n’est pas toujours le cas.
Par exemple :
La décision d’une réunion de la Réserve fédérale influence fortement la suivante.
La victoire d’un candidat présidentiel dans certains États clés indique ses chances dans d’autres États, affectant ainsi la probabilité globale de la victoire.
Dans la pratique, la majorité des événements valant la peine d’être combinés sont liés. Ignorer cette corrélation conduit souvent à surestimer ou sous-estimer la valeur réelle du pari.
Cet article propose un cadre simple pour apprendre à évaluer ces parlay de façon plus scientifique, à l’image de la tarification des options multi-pièces en finance traditionnelle.
Pourquoi y a-t-il des erreurs de tarification ?
À mon avis, la plupart des outils de marché de prédiction se concentrent sur « l’exécution » plutôt que sur « l’analyse de la corrélation ». De plus, ces marchés sont encore en développement. Si le pari combiné est courant dans les paris sportifs, leur tarification sur des événements sociaux ou économiques reste immature, car le marché est encore en phase d’émergence.
Étude de cas : Décision de la Fed sur les taux d’intérêt
(illustration 1 : La Fed a tendance à répéter ses actions, avec 83% de chances de « maintien » après un maintien précédent)
En utilisant les données de la Fed de Saint-Louis (FRED) (de 1994 à début 2026), j’ai construit une matrice de transition, pour analyser la probabilité que la décision suivante soit la même que la précédente.
Les résultats sont clairs :
Maintenir → Maintenir : probabilité de 83,1%
Baisser → Baisser : probabilité de 69,2%
Augmenter → Augmenter : probabilité de 62,5%
Il est évident que la Fed fonctionne avec une certaine « cohérence ». En tant qu’organisme basé sur des données, elle tend à répéter ses actions jusqu’à un « changement de régime » (regime shift).
La force de cette « cohérence » ?
Pour tester cela, j’ai créé un modèle simulant 1000 « univers parallèles » où chaque réunion est indépendante (similaire à un lancer de pièce). En utilisant les statistiques historiques, j’ai fixé :
Probabilité de maintien : 66%
Probabilité de baisse : 15%
Probabilité d’augmentation : 19%
sans lien entre les décisions.
(illustration 2 : La cohérence réelle de la Fed est 2 à 3 fois supérieure à celle d’un modèle aléatoire)
Dans cette simulation indépendante, la durée moyenne d’un même mouvement (maintien, baisse ou hausse) est de seulement 2,9 réunions pour le maintien, et 1,2 pour baisse ou hausse.
En comparant avec la réalité :
Maintenir : réel 5,4 réunions vs simulation 2,9 (x 1,9)
Baisser : réel 3,3 vs simulation 1,2 (x 2,8)
Augmenter : réel 2,6 vs simulation 1,2 (x 2,1)
La cohérence réelle est 2 à 3 fois supérieure à ce qu’un modèle indépendant prévoirait. La baisse des taux, par exemple, est presque trois fois plus persistante que dans un modèle aléatoire. La raison : quand la Fed commence à baisser, c’est souvent pour faire face à une détérioration économique persistante. Elle ne peut pas tout régler en une seule réunion. Elle baisse, évalue, et si la situation ne s’améliore pas, elle baisse à nouveau.
Le simple calcul multiplicatif pour un pari combiné ignore totalement cette corrélation. La réalité montre une cohérence 2 à 3 fois plus forte.
Que se passe-t-il après deux réunions consécutives ?
Se baser uniquement sur la dernière réunion ne suffit pas. Pour évaluer un « triplet » (trois événements), il faut analyser la probabilité conditionnelle en fonction des deux réunions précédentes.
L’analyse peut se diviser en deux parties :
Poursuivre la même trajectoire
@image.png@
(illustration 3 : Après deux mêmes actions, la probabilité de continuer est quasi certaine)
On voit clairement que, lorsque la Fed répète la même décision deux fois, la probabilité qu’elle fasse la même chose une troisième fois est très élevée :
Deux fois maintien → troisième maintien : 87%
Deux fois hausse → troisième hausse : 84%
Deux fois baisse → troisième baisse : 68% (un peu moins)
Il est aussi important de noter que dans la matrice, aucune case n’est à 0%. La Fed n’a jamais, après deux hausses consécutives, soudainement réduit ses taux, ni vice versa. Elle passe toujours par une étape de « pause » (maintien). Se rendre compte de cela permet d’éliminer toute une série de modèles naïfs qui supposent des changements brusques et improbables.
Après un changement de régime
(illustration 4 : Après un changement de régime, la dynamique est très différente)
C’est la partie la plus intéressante pour les traders. Tous les changements de direction ne se valent pas :
Maintenir → Baisser → Baisser : probabilité de 75%. Dès que la Fed commence à baisser, le « verrou » est ouvert, et la probabilité de continuer à baisser est très forte.
Baisser → Maintenir → Maintenir : 100%. Historiquement, après une pause de baisse, la Fed ne revient pas immédiatement à la baisse.
Maintenir → Augmenter → Maintenir : 79%. La première hausse après une période de stabilité est souvent une étape d’expérimentation.
Augmenter → Maintenir → Augmenter / Maintenir : 60% / 40%. La pause lors d’une hausse est plus incertaine que lors d’une baisse.
Ce déséquilibre est la clé. La valeur d’un « maintien → baisse → baisse » est bien plus élevée que ce que le simple modèle multiplicatif indiquerait. À l’inverse, « baisse → maintien → baisse » a une valeur quasi nulle. La simple séquence d’événements ne suffit pas : leur ordre change tout.
Que signifie une tarification globale ?
Ce qu’il faut retenir, c’est qu’il ne faut pas utiliser une moyenne aveugle des probabilités, mais plutôt s’appuyer sur les probabilités conditionnelles observées dans l’histoire.
Par exemple, pour « trois maintiens consécutifs » :
Conclusion : le marché valorise cette séquence à 34%, alors que la probabilité réelle est d’environ 6,4%. Surévaluation par le marché d’un facteur supérieur à 5.
Est-ce qu’on peut en tirer profit ?
J’ai effectué un backtest simple. Depuis 1994, chaque fois qu’un couple ou triplet de réunions de la Fed était sous-évalué (tarifé en dessous de la vraie probabilité), j’ai misé 100 dollars.
(illustration 7 : Exemple de gains cumulés sur des doubles parlay)
(illustration 8 : Exemple de gains cumulés sur des triples parlay)
Depuis 1994, en misant 100 dollars sur chaque sous-évaluation, on aurait gagné 169 000 dollars sur les doubles, et plus d’un million sur les triples. Les pics de gains correspondent aux cycles de relâchement monétaire en 2001, 2008, 2020, et 2024-2025, où la cohérence des actions de la Fed était forte, mais le marché la sous-estimait.
La forme en « escalier » de la courbe montre que c’est dans ces cycles que l’on gagne de l’argent. Cependant, il faut noter que dans les années 1990-2000, il n’y avait pas encore de marchés prédictifs suffisamment matures pour exploiter ces opportunités.
Où d’autre peut-on appliquer cette approche ?
L’étude de la Fed est un exemple classique, car les données sont abondantes et la corrélation forte. Mais la méthode s’applique à tout événement lié :
La primaire présidentielle : si un candidat gagne un État, ses chances dans d’autres États proches changent.
La cryptomonnaie et les actions de croissance/macro : la tendance du Bitcoin est liée à la perception du risque macroéconomique. Parier que « Bitcoin > X » et « Nasdaq > Y » a une valeur supérieure à la simple multiplication des probabilités, car ces événements partagent des facteurs communs.
Dans tous les cas, la démarche est la même : analyser les données historiques, mesurer la vraie corrélation, utiliser des données plus précises que des moyennes aveugles, et comparer avec le prix du marché.
Conclusion
Les marchés de prédiction sont encore à un stade embryonnaire. La majorité des petits investisseurs utilisent encore une approche naïve : « je multiplie les probabilités et je prie ».
Ce cadre nécessite de connaître le contexte spécifique, mais la question fondamentale reste : le résultat du premier événement peut-il vous donner une information sur le suivant ? Si oui, le prix naïf du parlay est erroné, et l’analyse historique vous indique précisément où se trouve l’erreur.
L’étude de la Fed montre que cet avantage est réel et mesurable. Mais ce principe est universel : dans tout contexte où des événements liés sont traités comme indépendants, il existe des opportunités non exploitées.
Le seul vrai défi : être capable de voir ces corrélations et d’agir en conséquence.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les "pièges" du marché prévisionnel : pourquoi votre portefeuille que vous achetez perd toujours
Auteur : Terry Lee
Titre original : Pourquoi les marchés de prédiction sous-estiment les parlay – l’angle mort de la corrélation
Traduction et synthèse : BitpushNews
Préface
Sur des plateformes comme Polymarket, la majorité des gens (y compris moi autrefois) ont tendance à estimer la valeur d’un « parlay » (combinaison de plusieurs événements) en multipliant simplement les probabilités de chaque événement.
Par exemple :
Alors, la probabilité totale du parlay = 80% × 70% × 60% = 33,6%
(Note : Parlay est un terme utilisé dans les jeux d’argent et l’investissement, en français on parle souvent de « pari combiné » ou « pari multiple ». Définition : vous misez sur deux ou plusieurs événements indépendants. Règle : vous ne gagnez que si tous vos choix sont corrects. Si l’un d’eux est faux, tout le pari est perdu.)
Cela paraît simple, n’est-ce pas ?
Le problème ne réside pas dans le calcul mathématique, mais dans l’hypothèse implicite.
Ce calcul suppose que chaque événement est indépendant des autres. Cela signifie que le résultat de A n’a aucune influence sur B. Mais en réalité, ce n’est pas toujours le cas.
Par exemple :
Dans la pratique, la majorité des événements valant la peine d’être combinés sont liés. Ignorer cette corrélation conduit souvent à surestimer ou sous-estimer la valeur réelle du pari.
Cet article propose un cadre simple pour apprendre à évaluer ces parlay de façon plus scientifique, à l’image de la tarification des options multi-pièces en finance traditionnelle.
Pourquoi y a-t-il des erreurs de tarification ?
À mon avis, la plupart des outils de marché de prédiction se concentrent sur « l’exécution » plutôt que sur « l’analyse de la corrélation ». De plus, ces marchés sont encore en développement. Si le pari combiné est courant dans les paris sportifs, leur tarification sur des événements sociaux ou économiques reste immature, car le marché est encore en phase d’émergence.
Étude de cas : Décision de la Fed sur les taux d’intérêt
(illustration 1 : La Fed a tendance à répéter ses actions, avec 83% de chances de « maintien » après un maintien précédent)
En utilisant les données de la Fed de Saint-Louis (FRED) (de 1994 à début 2026), j’ai construit une matrice de transition, pour analyser la probabilité que la décision suivante soit la même que la précédente.
Les résultats sont clairs :
Il est évident que la Fed fonctionne avec une certaine « cohérence ». En tant qu’organisme basé sur des données, elle tend à répéter ses actions jusqu’à un « changement de régime » (regime shift).
La force de cette « cohérence » ?
Pour tester cela, j’ai créé un modèle simulant 1000 « univers parallèles » où chaque réunion est indépendante (similaire à un lancer de pièce). En utilisant les statistiques historiques, j’ai fixé :
sans lien entre les décisions.
(illustration 2 : La cohérence réelle de la Fed est 2 à 3 fois supérieure à celle d’un modèle aléatoire)
Dans cette simulation indépendante, la durée moyenne d’un même mouvement (maintien, baisse ou hausse) est de seulement 2,9 réunions pour le maintien, et 1,2 pour baisse ou hausse.
En comparant avec la réalité :
La cohérence réelle est 2 à 3 fois supérieure à ce qu’un modèle indépendant prévoirait. La baisse des taux, par exemple, est presque trois fois plus persistante que dans un modèle aléatoire. La raison : quand la Fed commence à baisser, c’est souvent pour faire face à une détérioration économique persistante. Elle ne peut pas tout régler en une seule réunion. Elle baisse, évalue, et si la situation ne s’améliore pas, elle baisse à nouveau.
Le simple calcul multiplicatif pour un pari combiné ignore totalement cette corrélation. La réalité montre une cohérence 2 à 3 fois plus forte.
Que se passe-t-il après deux réunions consécutives ?
Se baser uniquement sur la dernière réunion ne suffit pas. Pour évaluer un « triplet » (trois événements), il faut analyser la probabilité conditionnelle en fonction des deux réunions précédentes.
L’analyse peut se diviser en deux parties :
Poursuivre la même trajectoire
@image.png@
(illustration 3 : Après deux mêmes actions, la probabilité de continuer est quasi certaine)
On voit clairement que, lorsque la Fed répète la même décision deux fois, la probabilité qu’elle fasse la même chose une troisième fois est très élevée :
Il est aussi important de noter que dans la matrice, aucune case n’est à 0%. La Fed n’a jamais, après deux hausses consécutives, soudainement réduit ses taux, ni vice versa. Elle passe toujours par une étape de « pause » (maintien). Se rendre compte de cela permet d’éliminer toute une série de modèles naïfs qui supposent des changements brusques et improbables.
Après un changement de régime
(illustration 4 : Après un changement de régime, la dynamique est très différente)
C’est la partie la plus intéressante pour les traders. Tous les changements de direction ne se valent pas :
Ce déséquilibre est la clé. La valeur d’un « maintien → baisse → baisse » est bien plus élevée que ce que le simple modèle multiplicatif indiquerait. À l’inverse, « baisse → maintien → baisse » a une valeur quasi nulle. La simple séquence d’événements ne suffit pas : leur ordre change tout.
Que signifie une tarification globale ?
Ce qu’il faut retenir, c’est qu’il ne faut pas utiliser une moyenne aveugle des probabilités, mais plutôt s’appuyer sur les probabilités conditionnelles observées dans l’histoire.
Par exemple, pour « trois maintiens consécutifs » :
(illustration 5 : Les combinaisons de mêmes actions sont systématiquement sous-évaluées, celles avec changement de direction sont surévaluées)
Détection en temps réel du marché
Prenons l’exemple de Polymarket :
(illustration 6 : La distribution des cotes et la probabilité réelle)
Premier cas : maintien – maintien – maintien (fortement sous-évalué)
Deuxième cas : maintien – maintien – baisse (fortement surévalué)
Est-ce qu’on peut en tirer profit ?
J’ai effectué un backtest simple. Depuis 1994, chaque fois qu’un couple ou triplet de réunions de la Fed était sous-évalué (tarifé en dessous de la vraie probabilité), j’ai misé 100 dollars.
(illustration 7 : Exemple de gains cumulés sur des doubles parlay)
(illustration 8 : Exemple de gains cumulés sur des triples parlay)
Depuis 1994, en misant 100 dollars sur chaque sous-évaluation, on aurait gagné 169 000 dollars sur les doubles, et plus d’un million sur les triples. Les pics de gains correspondent aux cycles de relâchement monétaire en 2001, 2008, 2020, et 2024-2025, où la cohérence des actions de la Fed était forte, mais le marché la sous-estimait.
La forme en « escalier » de la courbe montre que c’est dans ces cycles que l’on gagne de l’argent. Cependant, il faut noter que dans les années 1990-2000, il n’y avait pas encore de marchés prédictifs suffisamment matures pour exploiter ces opportunités.
Où d’autre peut-on appliquer cette approche ?
L’étude de la Fed est un exemple classique, car les données sont abondantes et la corrélation forte. Mais la méthode s’applique à tout événement lié :
Dans tous les cas, la démarche est la même : analyser les données historiques, mesurer la vraie corrélation, utiliser des données plus précises que des moyennes aveugles, et comparer avec le prix du marché.
Conclusion
Les marchés de prédiction sont encore à un stade embryonnaire. La majorité des petits investisseurs utilisent encore une approche naïve : « je multiplie les probabilités et je prie ».
Ce cadre nécessite de connaître le contexte spécifique, mais la question fondamentale reste : le résultat du premier événement peut-il vous donner une information sur le suivant ? Si oui, le prix naïf du parlay est erroné, et l’analyse historique vous indique précisément où se trouve l’erreur.
L’étude de la Fed montre que cet avantage est réel et mesurable. Mais ce principe est universel : dans tout contexte où des événements liés sont traités comme indépendants, il existe des opportunités non exploitées.
Le seul vrai défi : être capable de voir ces corrélations et d’agir en conséquence.