Première partie : Une nouvelle architecture pour l’infrastructure financière
Stablecoin repousse les limites du “moyen de paiement”
L’année dernière, le volume des transactions en stablecoins a atteint 46 000 milliards de dollars. Que signifie ce chiffre ? Plus de 20 fois le volume de PayPal, trois fois celui du réseau mondial de paiement Visa, proche de l’ampleur annuelle des transferts de l’ACH (Automated Clearing House) aux États-Unis. Avec une telle envergure, un transfert en stablecoin prend moins d’une seconde et coûte moins d’un cent de dollar.
Mais le véritable goulot d’étranglement ne se situe pas sur la blockchain, mais dans l’entrée et la sortie de devises fiat en dollars numériques. Une nouvelle génération de startups s’attaque à ce problème : certaines utilisent la cryptographie pour assurer la confidentialité lors de la conversion, d’autres s’intègrent aux réseaux de paiement régionaux, ou construisent des couches de portefeuilles interopérables globalement et des solutions de paiement pour commerçants. Lorsque ces infrastructures seront matures, de nouveaux cas d’usage émergeront : les travailleurs transfrontaliers pourront régler leur salaire en temps réel, les commerçants recevront des monnaies mondiales sans compte bancaire, et la couche applicative pourra effectuer des règlements de valeur en quelques secondes. Les stablecoins évolueront d’un outil financier de niche vers une couche fondamentale pour le règlement sur Internet.
De “l’actif en chaîne” à la “création native”
L’intérêt des institutions financières pour la tokenisation d’actifs comme les actions américaines, les matières premières ou les indices est en hausse, mais beaucoup de projets RWA (Real World Assets) reproduisent essentiellement la logique financière traditionnelle — ce qu’on appelle la “conception mimétique”. En revanche, les dérivés natifs cryptographiques comme les contrats perpétuels disposent souvent d’une liquidité plus profonde et d’une mise en œuvre plus simple. Sur les marchés émergents, les options à zéro jour sur actions sont généralement plus actives que le marché au comptant, ce qui en fait un terrain idéal pour expérimenter la “perpétualisation”.
Concernant les stablecoins, la véritable innovation en 2026 ne sera pas seulement leur enregistrement sur la chaîne, mais la génération native d’actifs de crédit directement sur la blockchain. Aujourd’hui, la majorité des stablecoins fonctionnent comme de “banques étroites” — détenant uniquement des actifs très sûrs et liquides. C’est efficace à court terme, mais insuffisant pour soutenir toute l’économie en chaîne à long terme. Certains gestionnaires d’actifs et protocoles expérimentent des prêts natifs en chaîne, garantis par des actifs hors chaîne. Cependant, la tokenisation de ces prêts hors chaîne reste peu efficace. La vraie solution consiste à lancer dès l’origine des créances en chaîne — cela réduit les coûts de service de prêt, simplifie la gestion et augmente l’accessibilité. La conformité et la normalisation restent des défis, mais des équipes travaillent déjà dessus.
La banque va bientôt connaître une révolution technologique
La majorité des banques utilisent encore des systèmes logiciels datant des années 60-90. La deuxième génération de systèmes bancaires centraux est apparue dans les années 80-90 (comme GLOBUS de Temenos ou Finacle d’Infosys), et reste dominante. Ces systèmes sont vieillissants, leur mise à jour ne suit pas la demande. La majorité des actifs mondiaux sont stockés dans ces “comptes d’il y a plusieurs décennies” — des systèmes mainframe écrits en COBOL, basés sur des traitements par lots plutôt que sur des API.
Bien qu’ils aient été longuement éprouvés, réglementés et intégrés profondément dans des processus complexes, ils freinent l’innovation. Ajouter des fonctionnalités comme le paiement en temps réel peut prendre des mois, voire des années, en raison de la dette technique et des obstacles réglementaires. Les stablecoins et la tokenisation d’actifs offrent une nouvelle voie pour les institutions traditionnelles : sans modifier ces vieux systèmes, elles peuvent construire de nouveaux produits et servir de nouveaux clients via des infrastructures en chaîne. Cela devient une nouvelle voie d’innovation pour les institutions.
La démocratisation de la gestion de patrimoine à l’ère de l’IA
Pendant longtemps, la gestion patrimoniale personnalisée n’était accessible qu’aux clients fortunés, en raison du coût élevé des conseils sur-mesure et de la gestion multi-actifs. Mais avec la tokenisation accrue d’actifs, la capacité de l’IA à exécuter et rééquilibrer en temps réel, et la baisse des coûts de conseil, la donne change.
D’ici 2025, les institutions financières traditionnelles augmenteront leur allocation en actifs cryptographiques, mais ce n’est que le début. En 2026, de plus en plus de plateformes axées sur “l’accumulation de richesse” (et non seulement la garde d’actifs) émergeront, notamment des fintechs comme Revolut, Robinhood, ou des exchanges comme Coinbase, qui tireront parti de leur stack technologique. Des outils DeFi comme Morpho Vaults pourront automatiquement répartir les actifs sur les marchés de prêt/rentabilité optimaux, constituant une base pour le portefeuille. La détention d’actifs liquides sous forme de stablecoins ou de fonds du marché monétaire tokenisés, au lieu de monnaies fiat, étendra encore les possibilités de rendement. Les investisseurs particuliers pourront plus facilement accéder à des actifs peu liquides comme le private equity, les entreprises pré-IPO ou le crédit privé — la tokenisation en améliorant l’accès tout en maintenant la conformité. Lorsqu’un portefeuille équilibré inclut toutes ces classes d’actifs (obligations, actions, private equity, investissements alternatifs) tokenisées, le rééquilibrage pourra se faire automatiquement, sans transferts bancaires.
Deuxième partie : L’IA, l’identité et la circulation de la valeur
De “Connais ton client” à “Connais ton agent”
Le goulot d’étranglement de l’économie IA se déplace de l’intelligence vers l’identité. Dans les services financiers, “l’identité non humaine” dépasse déjà en ratio celle humaine (96:1), mais ces identités restent des “fantômes sans compte bancaire” qui ne peuvent pas être acceptés. La capacité la plus urgente est : comment reconnaître réellement un agent IA (KYA). Comme les humains ont besoin d’un score de crédit pour obtenir un prêt, les agents IA ont besoin de preuves cryptographiques signées pour fonctionner — ces preuves doivent relier l’agent à son mandant, ses contraintes et ses responsabilités.
Avant que cette infrastructure n’émerge, les commerçants continueront à bloquer les agents au niveau du pare-feu. Après des décennies à construire l’infrastructure KYC, il ne reste que quelques mois pour résoudre le KYA.
Internet devient le nouveau “système bancaire”
Une fois que les agents IA seront déployés à grande échelle, de plus en plus d’activités commerciales ne dépendront plus des clics des utilisateurs, mais s’exécuteront automatiquement en arrière-plan, modifiant la façon dont la valeur circule. Dans un système basé sur “l’intention” plutôt que sur des instructions étape par étape, lorsque l’agent IA déplace automatiquement des fonds pour satisfaire un besoin, remplir une obligation ou déclencher un résultat, la valeur doit circuler aussi vite et librement que l’information.
C’est là que blockchain, smart contracts et nouveaux protocoles entrent en jeu. Les smart contracts peuvent déjà régler en quelques secondes des dollars dans le monde entier. En 2026, de nouveaux primitives comme x402 permettront de programmer et de réagir à ces règlements : les agents pourront instantanément et sans permission s’échanger des frais de données, du temps GPU ou des coûts API — sans factures, réconciliations ou traitements par lots ; les développeurs pourront intégrer directement dans leurs mises à jour logicielles des règles de paiement, des plafonds et des audits — sans intégrer de système fiat, ouvrir des comptes commerçants ou se connecter à une banque ; les marchés prédictifs pourront se régler en temps réel lors d’événements — les cotations, les transactions d’agents, la liquidation des profits mondiaux seront effectuées en quelques secondes, sans intermédiaires ni bourses.
Lorsque la valeur circule ainsi, le “flux de paiement” ne sera plus une couche opérationnelle indépendante, mais le comportement même du réseau : la banque deviendra le canal de base d’Internet, et les actifs deviendront une infrastructure. Si la monnaie devient un “paquet de données” routé par Internet, alors Internet ne se contentera pas de supporter le système financier — il en sera la colonne vertébrale.
La recherche concrète avec l’IA devient réalité
En tant qu’économiste mathématique, en janvier dernier, je m’interrogeais encore sur comment faire comprendre à un modèle IA grand public un workflow de recherche. En novembre, je pouvais déjà lui donner des instructions comme à un doctorant, et parfois obtenir des réponses totalement nouvelles et correctes.
Plus largement, l’IA est utilisée pour de véritables tâches de recherche — notamment en raisonnement, où le modèle peut non seulement aider à découvrir, mais aussi résoudre de façon autonome des problèmes de niveau équivalent à ceux du concours Putnam. On ne sait pas encore quels domaines en bénéficieront le plus, ni comment, mais l’IA favorise une nouvelle “recherche en polyèdre” : la capacité à formuler des hypothèses entre différentes idées, et à extrapoler rapidement à partir de résultats intermédiaires.
Ces réponses ne sont pas toujours exactes, mais peuvent pointer dans la bonne direction (au moins en topologie). C’est un peu comme exploiter la “hallucination” du modèle : quand il est suffisamment “intelligent”, ses collisions dans l’espace abstrait peuvent produire du contenu sans sens, mais parfois, comme la pensée non linéaire humaine, elles mènent à de véritables découvertes.
Ce mode de raisonnement nécessite de nouveaux workflows IA — pas seulement la collaboration entre agents, mais une “série d’agents en boucle” : des modèles multilayers qui évaluent des modèles antérieurs, distillent ce qui a de la valeur. Certains écrivent des articles avec cette méthode, d’autres pour la recherche de brevets, la création artistique ou (malheureusement) la conception de nouvelles attaques contre des smart contracts. Pour que cette “poupée russe d’agents en boucle” soit réellement utilisée en recherche, deux défis doivent être relevés : l’interopérabilité entre modèles, et la manière de reconnaître et de récompenser équitablement la contribution de chacun — deux problèmes résolubles par cryptographie.
La “taxe invisible” sur les réseaux ouverts
L’essor des agents IA impose une taxe invisible sur les réseaux ouverts, érodant leur base économique. Ce dilemme vient de la séparation entre le “contexte” (Context) et la “couche d’exécution” (Execution) d’Internet : les agents IA extraient des données de sites de contenu dépendants de la publicité, offrant commodité aux utilisateurs, mais contournant systématiquement ces sources de revenus (publicité et abonnements).
Pour éviter que les réseaux ouverts soient dévorés (et détruire l’écosystème de contenu dont l’IA dépend), il faut déployer massivement des mécanismes techniques et économiques : nouveaux modèles de sponsoring, systèmes de propriété granulaire ou autres modèles de redistribution. Les protocoles d’autorisation IA existants ont montré leur insuffisance — la majorité des paiements aux fournisseurs de contenu ne représente qu’une petite partie du trafic perdu à cause de l’IA.
Les réseaux ouverts ont besoin d’un nouveau cadre technico-économique pour faire circuler la valeur automatiquement. La grande transition de l’année prochaine sera le passage d’autorisations statiques à des modèles de rémunération en temps réel, à l’usage. Cela implique de tester et d’étendre ces systèmes — peut-être via des micropaiements basés sur la blockchain et des standards de propriété granulaire — pour compenser automatiquement chaque entité ayant contribué au succès d’une tâche agent.
Troisième partie : Confidentialité, sécurité et primitives cryptographiques
La confidentialité devient la “barrière la plus forte” de la cryptographie
La confidentialité est la capacité clé pour transférer la finance mondiale sur la blockchain, et presque toutes les blockchains existantes en manquent. Pour la plupart, la confidentialité a longtemps été une “fonction additionnelle”. Mais aujourd’hui, la confidentialité en soi peut suffire à différencier une chaîne de toutes les autres.
Plus important encore, la confidentialité peut produire un effet de verrouillage au niveau de la couche chaîne — un “effet réseau de confidentialité”, surtout à une époque où la compétition en performance n’est plus un différenciateur. Grâce aux protocoles cross-chain, si tout est public, la migration entre chaînes coûte presque rien. Mais la confidentialité change cela : transférer des tokens entre chaînes est facile, mais le faire en “secret” est difficile. Tout mouvement de la chaîne privée vers la chaîne publique peut permettre à quiconque d’observer la blockchain, le mempool ou le trafic réseau, et d’inférer votre identité. Même entre chaînes privées, la migration peut révéler des métadonnées temporelles ou de montant, facilitant le traçage.
Inversement, les nouvelles chaînes sans différenciation (dont le coût tend vers zéro à cause de la concurrence, car l’espace de bloc devient homogène) considèrent la confidentialité comme un vrai effet réseau. La réalité est : une chaîne sans écosystème florissant, sans application phare ou avantage de distribution, a peu de chances d’attirer utilisateurs ou développeurs, ni de fidéliser. Sur une chaîne publique, si l’interopérabilité est libre entre chaînes, le choix de la chaîne est peu important. Mais dès qu’on entre dans une chaîne privée, le choix devient crucial — car une fois dedans, on est moins enclin à migrer ou à exposer des risques. Cela peut conduire à un modèle de “gagnant prend tout”. La confidentialité étant essentielle pour la majorité des applications réelles, seules quelques chaînes privées domineront probablement la majorité de l’économie cryptographique.
L’avenir quantique de la communication décentralisée
Dans la transition vers l’ère du calcul quantique, de nombreuses applications de communication cryptée (Apple, Signal, WhatsApp) ont fait d’énormes progrès. Mais le problème est : tous les outils de communication grand public dépendent de serveurs privés gérés par une seule organisation. Ces serveurs sont vulnérables aux fermetures gouvernementales, portes dérobées ou demandes de livraison de données.
Si un gouvernement peut simplement fermer un serveur, si une entreprise détient la clé du serveur, ou si un “serveur privé” existe, alors à quoi sert la cryptographie quantique ? Les serveurs privés exigent de “faire confiance à quelqu’un” ; mais sans serveur, il n’y a plus besoin de faire confiance à personne. La communication ne doit pas dépendre d’un intermédiaire centralisé. Elle doit reposer sur des protocoles ouverts, sans faire confiance à quiconque. Pour cela, le réseau doit être décentralisé : pas de serveurs privés, pas d’applications uniques, tout le code en open source, une cryptographie de haut niveau (y compris résistante au quantique).
Dans un réseau ouvert, personne — ni individu, ni entreprise, ni organisation à but non lucratif, ni État — ne peut nous empêcher de communiquer. Même si un pays ou une entreprise ferme une application, 500 autres apparaîtront le lendemain. Même si un nœud est arrêté, la blockchain, par ses incitations économiques, le remplacera immédiatement. Quand chacun contrôle ses clés et ses informations, comme il contrôle son argent, tout change. Les applications peuvent venir ou partir, mais l’utilisateur contrôle toujours ses messages et son identité — il possède ses messages, pas l’application. Cela concerne non seulement la résistance quantique ou la cryptographie, mais aussi la propriété et la décentralisation. Sans ces deux éléments, nous ne faisons que construire une “cryptographie inviolable mais facilement désactivable”.
“Secret as a Service” : une nouvelle norme pour la gestion des données
Derrière chaque modèle, agent ou système automatisé, il y a un point commun : les données. Mais aujourd’hui, la majorité des pipelines de données — entrées et sorties des modèles — sont opaques, modifiables et non audités. Pour certains usages consommateurs, cela peut suffire, mais pour les industries manipulant des données sensibles (finance, santé), c’est loin d’être acceptable.
C’est aussi le principal obstacle à la tokenisation complète d’actifs réels par les institutions. Comment innover de manière sûre, conforme, autonome et globale tout en protégeant la vie privée ? La réponse commence par le contrôle d’accès aux données : qui contrôle les données sensibles ? Comment circulent-elles ? Qui (ou quel système) peut y accéder ? Sans contrôle d’accès, ceux qui veulent préserver leur vie privée doivent dépendre de services centralisés ou construire des systèmes complexes — coûteux, lents, et qui empêchent une gestion efficace des données en chaîne par les institutions financières.
Avec des agents intelligents capables d’autonomiser la navigation, le trading et la prise de décision, les utilisateurs et institutions ont besoin de garanties cryptographiques, pas de “confiance aveugle”. Il faut donc “Secret as a Service” : des technologies permettant de définir des règles d’accès aux données programmables et natives ; le chiffrement côté client ; une gestion décentralisée des clés — en précisant qui peut déchiffrer quoi, dans quelles conditions, pour combien de temps… tout cela en chaîne.
En combinant cela avec des systèmes de données vérifiables, le “secret” deviendra une infrastructure publique fondamentale d’Internet, et non un simple patch d’urgence. La confidentialité deviendra une partie intégrante de l’infrastructure, et non une fonction additionnelle.
De “Code is Law” à “Normes are Law”
Les attaques récentes en DeFi, même sur des protocoles matures avec des équipes solides et des audits rigoureux, ont révélé une réalité inquiétante : la pratique de la sécurité reste empirique et “ad hoc”. Pour que la DeFi atteigne une maturité sécuritaire, il faut passer d’un mode “bug-centric” à une conception basée sur des propriétés, d’un “faire de son mieux” à une approche systématique et “de principe” :
Sécurité statique / avant déploiement (tests, audits, vérification formelle)
L’avenir consiste à prouver systématiquement que des invariants globaux sont respectés, plutôt que de vérifier manuellement des propriétés locales sélectionnées. De plus en plus, des outils d’IA assistent à la rédaction de spécifications, à la proposition d’invariants, et à l’automatisation de la majorité des preuves formelles autrefois coûteuses et manuelles.
Sécurité dynamique / après déploiement (monitoring en temps réel, exécution en temps réel, etc.)
Après déploiement, ces invariants deviennent des barrières actives : la dernière ligne de défense. Encodés en assertions en temps réel, ils exigent que chaque transaction respecte des conditions de sécurité. Autrement dit, on ne suppose plus que “tous les bugs sont capturés avant déploiement”, mais que le code lui-même exécute ces propriétés de sécurité, et peut automatiquement annuler toute transaction violant ces invariants.
Ce n’est pas qu’une théorie — cela a un impact concret. La majorité des attaques passées aurait pu être empêchée par ces vérifications en temps réel. Ainsi, la vieille idée “Code is Law” évolue vers “Norms are Law”. Même face à de nouvelles attaques, celles-ci devront respecter les mêmes propriétés de sécurité du système ; le champ d’attaque se réduit, laissant peu de possibilités ou des possibilités quasi impossibles.
Quatrième partie : Innovation applicative et construction du futur
La montée en puissance des marchés prédictifs : taille, couverture, intelligence
Les marchés prédictifs sont désormais mainstream. L’année prochaine, ils croîtront en taille, en couverture et en intelligence grâce à la convergence entre cryptographie et IA, mais cela apportera aussi de nouveaux défis communs.
D’abord, davantage de types de contrats seront disponibles. À l’avenir, on pourra non seulement faire des cotations en temps réel sur des élections ou des événements géopolitiques, mais aussi sur chaque détail ou combinaison d’événements complexes. Avec la publication de ces nouveaux contrats et leur intégration dans l’écosystème médiatique (déjà en cours), la société doit faire face à une question : comment équilibrer la valeur de ces informations, et concevoir des systèmes de prédiction plus transparents et audités ? La cryptographie peut fournir des outils.
Pour gérer un volume accru de contrats prédictifs, il faut de nouveaux mécanismes de “alignement de la vérité” (truth alignment). Les mécanismes d’arbitrage centralisés (l’événement a-t-il eu lieu ? Comment le confirmer ?) ont leurs limites, comme le montrent des cas controversés tels que l’élection de Zelensky ou la présidentielle au Venezuela. Pour étendre la taille et la valeur des marchés prédictifs, la gouvernance décentralisée et les oracles LLM seront des outils clés pour trancher les controverses et établir la vérité.
Les capacités de l’IA ne se limitent pas aux LLM. Des agents IA peuvent opérer de façon autonome sur des plateformes prédictives, scrutant le monde à la recherche de signaux, cherchant un avantage à court terme. Cela aidera à découvrir de nouvelles façons de penser et à prévoir “ce qui va se passer”. (Des projets comme Prophet Arena ont déjà montré un enthousiasme initial.) En plus d’agir comme des “analystes politiques avancés” consultables, ces agents IA peuvent aussi aider à comprendre à rebours les facteurs prédictifs fondamentaux de phénomènes sociaux complexes.
Les marchés prédictifs remplaceront-ils les sondages ? Non, ils les amélioreront. Les données de sondage pourront même devenir une entrée pour les marchés prédictifs. En tant que politologue ou économiste, je suis heureux de voir ces deux écosystèmes coexister, avec une forte diversité. Mais cela nécessite de nouvelles technologies : l’IA pour améliorer la recherche, la cryptographie pour prouver que les répondants sont humains et non des machines, apportant ainsi plus d’innovation.
L’essor des “médias de droits”
Le modèle traditionnel des médias (notamment l’“objectivité”) montre des fissures. Internet donne la parole à tous, et de plus en plus d’acteurs s’adressent directement au public. Ironiquement, le public n’est pas respecté parce qu’il a des intérêts, mais parce qu’il en a.
Ce qui est vraiment nouveau, ce n’est pas les réseaux sociaux, mais : les outils cryptographiques permettant des promesses vérifiables publiquement. Quand l’IA réduit le coût de création de contenu à zéro — chaque opinion, chaque identité (réelle ou virtuelle) peut être dupliquée à l’infini — “dire quelque chose” ne suffit plus à établir la confiance. Les actifs tokenisés, les verrouillages programmables, les marchés prédictifs et l’historique en chaîne offrent une base de confiance plus solide :
Les commentateurs peuvent exprimer leur point de vue et prouver qu’ils ont “mis de l’argent réel en jeu” ; les podcasteurs peuvent verrouiller des tokens pour montrer qu’ils ne vont pas “faire monter le prix puis décharger” ; les analystes peuvent lier leurs prévisions à des marchés publics régulés, créant des enregistrements audités.
C’est la première étape de ce que j’appelle les “médias de droits” : un nouveau type de média, qui embrasse une “mentalité d’intérêt” et fournit des preuves vérifiables. Dans ce modèle, la crédibilité ne vient pas d’une “apparence de neutralité” ou de “déclarations sans fondement”, mais d’hypothèses de risque vérifiables publiquement. Les médias de droits ne remplaceront pas les médias traditionnels, mais les compléteront. Ils offrent un nouveau signal : pas “faites-moi confiance, je suis neutre”, mais “regardez ce que je suis prêt à risquer, vous pouvez vérifier si je dis la vérité”.
La cryptographie pour un monde hors-chaîne
Depuis des années, SNARK (preuves cryptographiques de calcul vérifiable) n’était utilisé que dans l’univers blockchain. La raison est simple : produire une preuve coûte jusqu’à 1 million de fois plus cher que d’exécuter le calcul directement. Cela a du sens si le coût peut être supporté par des milliers de vérificateurs, mais pas ailleurs.
Tout cela va changer. D’ici 2026, les zkVM (machines virtuelles à preuves zéro connaissance) ramèneront le coût à environ 10 000 fois celui de l’exécution, avec une consommation mémoire de quelques centaines de Mo : assez rapide pour tourner sur un smartphone, assez bon marché pour être omniprésent.
Pourquoi 10 000 fois ? Parce que la puissance de calcul parallèle d’un GPU haut de gamme est environ 10 000 fois celle d’un CPU de laptop. D’ici 2026, un seul GPU pourra générer en temps réel une preuve d’exécution CPU. Cela réalise la vision longtemps évoquée dans la littérature : la “cloud vérifiable” à portée de main.
Si votre charge de travail tourne déjà dans le cloud CPU, sans besoin de beaucoup de puissance, ni d’optimisation GPU, ni pour des raisons historiques, vous pourrez bientôt obtenir une preuve cryptographique de la correction du calcul à un coût raisonnable. La preuve elle-même sera optimisée pour GPU, votre code n’aura pas besoin d’être modifié.
Cinquième partie : Régulation, gouvernance et vision à long terme
Les transactions ne sont qu’un “point de transit”, pas la fin des entreprises cryptographiques
Aujourd’hui, à l’exception des stablecoins et de quelques infrastructures clés, presque tous les projets cryptos à succès se tournent vers le trading ou s’y préparent. Que se passerait-il si “toutes les entreprises cryptos devenaient des plateformes de trading” ? Beaucoup de participants feraient la même chose, se cannibalisant, et il ne resterait que quelques gagnants.
Se précipiter vers le trading trop tôt ou trop vite comporte le risque de perdre la possibilité de construire des activités plus résistantes et durables. Je comprends la tentation des fondateurs cherchant un équilibre financier, mais poursuivre un “PMF immédiat apparent” a un coût. En particulier dans la crypto, la dynamique des tokens et la culture spéculative poussent à la gratification instantanée, au mépris de problèmes de produit plus profonds. C’est en quelque sorte un “test de barbe à papa”.
Le trading n’est pas un problème, c’est une fonction essentielle du marché. Mais ce n’est pas une fin en soi. Les fondateurs qui se concentrent vraiment sur le PMF (“P” pour Product-Market Fit) sont souvent les vrais grands gagnants.
La synchronisation de la technologie et du droit pour libérer tout le potentiel de la blockchain
Au cours des dix dernières années, l’un des plus grands obstacles à la construction de réseaux blockchain aux États-Unis a été l’incertitude réglementaire. La loi sur les valeurs mobilières a été appliquée de manière large, forçant les fondateurs à adopter un cadre “d’entreprise” plutôt qu’un cadre “réseau”. Pendant des années, “réduire le risque juridique” a remplacé “stratégie produit” ; les ingénieurs ont été remplacés par des avocats.
Ce mouvement a créé de nombreuses distorsions : inciter les fondateurs à éviter la transparence ; distribuer des tokens de manière arbitraire et peu conforme ; faire de la gouvernance une mise en scène ; concevoir des structures organisationnelles pour éviter le risque juridique ; forcer les tokens à n’avoir aucune valeur économique ou modèle d’affaires ; et pire, des projets moins conformes avancent plus vite.
Mais aujourd’hui, la législation sur la structure du marché crypto américain est plus proche que jamais d’une approbation, et pourrait éliminer ces distorsions dès l’année prochaine. Une fois adoptée, cette loi encouragera la transparence ; établira des standards clairs ; et remplacera la “roulette réglementaire” par des structures de financement, d’émission de tokens et de décentralisation bien définies.
Après la loi GENIUS, la croissance des stablecoins explosera ; et la législation sur la structure du marché crypto aura un impact plus profond — cette fois sur le fonctionnement même du réseau. En d’autres termes, cette régulation permettra à la blockchain de fonctionner comme elle doit : ouverte, autonome, composable, neutre et décentralisée.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
17 transformations majeures de l'industrie de la cryptographie en 2026 : de la mise à niveau de l'infrastructure à la reconstruction de l'écosystème
Première partie : Une nouvelle architecture pour l’infrastructure financière
Stablecoin repousse les limites du “moyen de paiement”
L’année dernière, le volume des transactions en stablecoins a atteint 46 000 milliards de dollars. Que signifie ce chiffre ? Plus de 20 fois le volume de PayPal, trois fois celui du réseau mondial de paiement Visa, proche de l’ampleur annuelle des transferts de l’ACH (Automated Clearing House) aux États-Unis. Avec une telle envergure, un transfert en stablecoin prend moins d’une seconde et coûte moins d’un cent de dollar.
Mais le véritable goulot d’étranglement ne se situe pas sur la blockchain, mais dans l’entrée et la sortie de devises fiat en dollars numériques. Une nouvelle génération de startups s’attaque à ce problème : certaines utilisent la cryptographie pour assurer la confidentialité lors de la conversion, d’autres s’intègrent aux réseaux de paiement régionaux, ou construisent des couches de portefeuilles interopérables globalement et des solutions de paiement pour commerçants. Lorsque ces infrastructures seront matures, de nouveaux cas d’usage émergeront : les travailleurs transfrontaliers pourront régler leur salaire en temps réel, les commerçants recevront des monnaies mondiales sans compte bancaire, et la couche applicative pourra effectuer des règlements de valeur en quelques secondes. Les stablecoins évolueront d’un outil financier de niche vers une couche fondamentale pour le règlement sur Internet.
De “l’actif en chaîne” à la “création native”
L’intérêt des institutions financières pour la tokenisation d’actifs comme les actions américaines, les matières premières ou les indices est en hausse, mais beaucoup de projets RWA (Real World Assets) reproduisent essentiellement la logique financière traditionnelle — ce qu’on appelle la “conception mimétique”. En revanche, les dérivés natifs cryptographiques comme les contrats perpétuels disposent souvent d’une liquidité plus profonde et d’une mise en œuvre plus simple. Sur les marchés émergents, les options à zéro jour sur actions sont généralement plus actives que le marché au comptant, ce qui en fait un terrain idéal pour expérimenter la “perpétualisation”.
Concernant les stablecoins, la véritable innovation en 2026 ne sera pas seulement leur enregistrement sur la chaîne, mais la génération native d’actifs de crédit directement sur la blockchain. Aujourd’hui, la majorité des stablecoins fonctionnent comme de “banques étroites” — détenant uniquement des actifs très sûrs et liquides. C’est efficace à court terme, mais insuffisant pour soutenir toute l’économie en chaîne à long terme. Certains gestionnaires d’actifs et protocoles expérimentent des prêts natifs en chaîne, garantis par des actifs hors chaîne. Cependant, la tokenisation de ces prêts hors chaîne reste peu efficace. La vraie solution consiste à lancer dès l’origine des créances en chaîne — cela réduit les coûts de service de prêt, simplifie la gestion et augmente l’accessibilité. La conformité et la normalisation restent des défis, mais des équipes travaillent déjà dessus.
La banque va bientôt connaître une révolution technologique
La majorité des banques utilisent encore des systèmes logiciels datant des années 60-90. La deuxième génération de systèmes bancaires centraux est apparue dans les années 80-90 (comme GLOBUS de Temenos ou Finacle d’Infosys), et reste dominante. Ces systèmes sont vieillissants, leur mise à jour ne suit pas la demande. La majorité des actifs mondiaux sont stockés dans ces “comptes d’il y a plusieurs décennies” — des systèmes mainframe écrits en COBOL, basés sur des traitements par lots plutôt que sur des API.
Bien qu’ils aient été longuement éprouvés, réglementés et intégrés profondément dans des processus complexes, ils freinent l’innovation. Ajouter des fonctionnalités comme le paiement en temps réel peut prendre des mois, voire des années, en raison de la dette technique et des obstacles réglementaires. Les stablecoins et la tokenisation d’actifs offrent une nouvelle voie pour les institutions traditionnelles : sans modifier ces vieux systèmes, elles peuvent construire de nouveaux produits et servir de nouveaux clients via des infrastructures en chaîne. Cela devient une nouvelle voie d’innovation pour les institutions.
La démocratisation de la gestion de patrimoine à l’ère de l’IA
Pendant longtemps, la gestion patrimoniale personnalisée n’était accessible qu’aux clients fortunés, en raison du coût élevé des conseils sur-mesure et de la gestion multi-actifs. Mais avec la tokenisation accrue d’actifs, la capacité de l’IA à exécuter et rééquilibrer en temps réel, et la baisse des coûts de conseil, la donne change.
D’ici 2025, les institutions financières traditionnelles augmenteront leur allocation en actifs cryptographiques, mais ce n’est que le début. En 2026, de plus en plus de plateformes axées sur “l’accumulation de richesse” (et non seulement la garde d’actifs) émergeront, notamment des fintechs comme Revolut, Robinhood, ou des exchanges comme Coinbase, qui tireront parti de leur stack technologique. Des outils DeFi comme Morpho Vaults pourront automatiquement répartir les actifs sur les marchés de prêt/rentabilité optimaux, constituant une base pour le portefeuille. La détention d’actifs liquides sous forme de stablecoins ou de fonds du marché monétaire tokenisés, au lieu de monnaies fiat, étendra encore les possibilités de rendement. Les investisseurs particuliers pourront plus facilement accéder à des actifs peu liquides comme le private equity, les entreprises pré-IPO ou le crédit privé — la tokenisation en améliorant l’accès tout en maintenant la conformité. Lorsqu’un portefeuille équilibré inclut toutes ces classes d’actifs (obligations, actions, private equity, investissements alternatifs) tokenisées, le rééquilibrage pourra se faire automatiquement, sans transferts bancaires.
Deuxième partie : L’IA, l’identité et la circulation de la valeur
De “Connais ton client” à “Connais ton agent”
Le goulot d’étranglement de l’économie IA se déplace de l’intelligence vers l’identité. Dans les services financiers, “l’identité non humaine” dépasse déjà en ratio celle humaine (96:1), mais ces identités restent des “fantômes sans compte bancaire” qui ne peuvent pas être acceptés. La capacité la plus urgente est : comment reconnaître réellement un agent IA (KYA). Comme les humains ont besoin d’un score de crédit pour obtenir un prêt, les agents IA ont besoin de preuves cryptographiques signées pour fonctionner — ces preuves doivent relier l’agent à son mandant, ses contraintes et ses responsabilités.
Avant que cette infrastructure n’émerge, les commerçants continueront à bloquer les agents au niveau du pare-feu. Après des décennies à construire l’infrastructure KYC, il ne reste que quelques mois pour résoudre le KYA.
Internet devient le nouveau “système bancaire”
Une fois que les agents IA seront déployés à grande échelle, de plus en plus d’activités commerciales ne dépendront plus des clics des utilisateurs, mais s’exécuteront automatiquement en arrière-plan, modifiant la façon dont la valeur circule. Dans un système basé sur “l’intention” plutôt que sur des instructions étape par étape, lorsque l’agent IA déplace automatiquement des fonds pour satisfaire un besoin, remplir une obligation ou déclencher un résultat, la valeur doit circuler aussi vite et librement que l’information.
C’est là que blockchain, smart contracts et nouveaux protocoles entrent en jeu. Les smart contracts peuvent déjà régler en quelques secondes des dollars dans le monde entier. En 2026, de nouveaux primitives comme x402 permettront de programmer et de réagir à ces règlements : les agents pourront instantanément et sans permission s’échanger des frais de données, du temps GPU ou des coûts API — sans factures, réconciliations ou traitements par lots ; les développeurs pourront intégrer directement dans leurs mises à jour logicielles des règles de paiement, des plafonds et des audits — sans intégrer de système fiat, ouvrir des comptes commerçants ou se connecter à une banque ; les marchés prédictifs pourront se régler en temps réel lors d’événements — les cotations, les transactions d’agents, la liquidation des profits mondiaux seront effectuées en quelques secondes, sans intermédiaires ni bourses.
Lorsque la valeur circule ainsi, le “flux de paiement” ne sera plus une couche opérationnelle indépendante, mais le comportement même du réseau : la banque deviendra le canal de base d’Internet, et les actifs deviendront une infrastructure. Si la monnaie devient un “paquet de données” routé par Internet, alors Internet ne se contentera pas de supporter le système financier — il en sera la colonne vertébrale.
La recherche concrète avec l’IA devient réalité
En tant qu’économiste mathématique, en janvier dernier, je m’interrogeais encore sur comment faire comprendre à un modèle IA grand public un workflow de recherche. En novembre, je pouvais déjà lui donner des instructions comme à un doctorant, et parfois obtenir des réponses totalement nouvelles et correctes.
Plus largement, l’IA est utilisée pour de véritables tâches de recherche — notamment en raisonnement, où le modèle peut non seulement aider à découvrir, mais aussi résoudre de façon autonome des problèmes de niveau équivalent à ceux du concours Putnam. On ne sait pas encore quels domaines en bénéficieront le plus, ni comment, mais l’IA favorise une nouvelle “recherche en polyèdre” : la capacité à formuler des hypothèses entre différentes idées, et à extrapoler rapidement à partir de résultats intermédiaires.
Ces réponses ne sont pas toujours exactes, mais peuvent pointer dans la bonne direction (au moins en topologie). C’est un peu comme exploiter la “hallucination” du modèle : quand il est suffisamment “intelligent”, ses collisions dans l’espace abstrait peuvent produire du contenu sans sens, mais parfois, comme la pensée non linéaire humaine, elles mènent à de véritables découvertes.
Ce mode de raisonnement nécessite de nouveaux workflows IA — pas seulement la collaboration entre agents, mais une “série d’agents en boucle” : des modèles multilayers qui évaluent des modèles antérieurs, distillent ce qui a de la valeur. Certains écrivent des articles avec cette méthode, d’autres pour la recherche de brevets, la création artistique ou (malheureusement) la conception de nouvelles attaques contre des smart contracts. Pour que cette “poupée russe d’agents en boucle” soit réellement utilisée en recherche, deux défis doivent être relevés : l’interopérabilité entre modèles, et la manière de reconnaître et de récompenser équitablement la contribution de chacun — deux problèmes résolubles par cryptographie.
La “taxe invisible” sur les réseaux ouverts
L’essor des agents IA impose une taxe invisible sur les réseaux ouverts, érodant leur base économique. Ce dilemme vient de la séparation entre le “contexte” (Context) et la “couche d’exécution” (Execution) d’Internet : les agents IA extraient des données de sites de contenu dépendants de la publicité, offrant commodité aux utilisateurs, mais contournant systématiquement ces sources de revenus (publicité et abonnements).
Pour éviter que les réseaux ouverts soient dévorés (et détruire l’écosystème de contenu dont l’IA dépend), il faut déployer massivement des mécanismes techniques et économiques : nouveaux modèles de sponsoring, systèmes de propriété granulaire ou autres modèles de redistribution. Les protocoles d’autorisation IA existants ont montré leur insuffisance — la majorité des paiements aux fournisseurs de contenu ne représente qu’une petite partie du trafic perdu à cause de l’IA.
Les réseaux ouverts ont besoin d’un nouveau cadre technico-économique pour faire circuler la valeur automatiquement. La grande transition de l’année prochaine sera le passage d’autorisations statiques à des modèles de rémunération en temps réel, à l’usage. Cela implique de tester et d’étendre ces systèmes — peut-être via des micropaiements basés sur la blockchain et des standards de propriété granulaire — pour compenser automatiquement chaque entité ayant contribué au succès d’une tâche agent.
Troisième partie : Confidentialité, sécurité et primitives cryptographiques
La confidentialité devient la “barrière la plus forte” de la cryptographie
La confidentialité est la capacité clé pour transférer la finance mondiale sur la blockchain, et presque toutes les blockchains existantes en manquent. Pour la plupart, la confidentialité a longtemps été une “fonction additionnelle”. Mais aujourd’hui, la confidentialité en soi peut suffire à différencier une chaîne de toutes les autres.
Plus important encore, la confidentialité peut produire un effet de verrouillage au niveau de la couche chaîne — un “effet réseau de confidentialité”, surtout à une époque où la compétition en performance n’est plus un différenciateur. Grâce aux protocoles cross-chain, si tout est public, la migration entre chaînes coûte presque rien. Mais la confidentialité change cela : transférer des tokens entre chaînes est facile, mais le faire en “secret” est difficile. Tout mouvement de la chaîne privée vers la chaîne publique peut permettre à quiconque d’observer la blockchain, le mempool ou le trafic réseau, et d’inférer votre identité. Même entre chaînes privées, la migration peut révéler des métadonnées temporelles ou de montant, facilitant le traçage.
Inversement, les nouvelles chaînes sans différenciation (dont le coût tend vers zéro à cause de la concurrence, car l’espace de bloc devient homogène) considèrent la confidentialité comme un vrai effet réseau. La réalité est : une chaîne sans écosystème florissant, sans application phare ou avantage de distribution, a peu de chances d’attirer utilisateurs ou développeurs, ni de fidéliser. Sur une chaîne publique, si l’interopérabilité est libre entre chaînes, le choix de la chaîne est peu important. Mais dès qu’on entre dans une chaîne privée, le choix devient crucial — car une fois dedans, on est moins enclin à migrer ou à exposer des risques. Cela peut conduire à un modèle de “gagnant prend tout”. La confidentialité étant essentielle pour la majorité des applications réelles, seules quelques chaînes privées domineront probablement la majorité de l’économie cryptographique.
L’avenir quantique de la communication décentralisée
Dans la transition vers l’ère du calcul quantique, de nombreuses applications de communication cryptée (Apple, Signal, WhatsApp) ont fait d’énormes progrès. Mais le problème est : tous les outils de communication grand public dépendent de serveurs privés gérés par une seule organisation. Ces serveurs sont vulnérables aux fermetures gouvernementales, portes dérobées ou demandes de livraison de données.
Si un gouvernement peut simplement fermer un serveur, si une entreprise détient la clé du serveur, ou si un “serveur privé” existe, alors à quoi sert la cryptographie quantique ? Les serveurs privés exigent de “faire confiance à quelqu’un” ; mais sans serveur, il n’y a plus besoin de faire confiance à personne. La communication ne doit pas dépendre d’un intermédiaire centralisé. Elle doit reposer sur des protocoles ouverts, sans faire confiance à quiconque. Pour cela, le réseau doit être décentralisé : pas de serveurs privés, pas d’applications uniques, tout le code en open source, une cryptographie de haut niveau (y compris résistante au quantique).
Dans un réseau ouvert, personne — ni individu, ni entreprise, ni organisation à but non lucratif, ni État — ne peut nous empêcher de communiquer. Même si un pays ou une entreprise ferme une application, 500 autres apparaîtront le lendemain. Même si un nœud est arrêté, la blockchain, par ses incitations économiques, le remplacera immédiatement. Quand chacun contrôle ses clés et ses informations, comme il contrôle son argent, tout change. Les applications peuvent venir ou partir, mais l’utilisateur contrôle toujours ses messages et son identité — il possède ses messages, pas l’application. Cela concerne non seulement la résistance quantique ou la cryptographie, mais aussi la propriété et la décentralisation. Sans ces deux éléments, nous ne faisons que construire une “cryptographie inviolable mais facilement désactivable”.
“Secret as a Service” : une nouvelle norme pour la gestion des données
Derrière chaque modèle, agent ou système automatisé, il y a un point commun : les données. Mais aujourd’hui, la majorité des pipelines de données — entrées et sorties des modèles — sont opaques, modifiables et non audités. Pour certains usages consommateurs, cela peut suffire, mais pour les industries manipulant des données sensibles (finance, santé), c’est loin d’être acceptable.
C’est aussi le principal obstacle à la tokenisation complète d’actifs réels par les institutions. Comment innover de manière sûre, conforme, autonome et globale tout en protégeant la vie privée ? La réponse commence par le contrôle d’accès aux données : qui contrôle les données sensibles ? Comment circulent-elles ? Qui (ou quel système) peut y accéder ? Sans contrôle d’accès, ceux qui veulent préserver leur vie privée doivent dépendre de services centralisés ou construire des systèmes complexes — coûteux, lents, et qui empêchent une gestion efficace des données en chaîne par les institutions financières.
Avec des agents intelligents capables d’autonomiser la navigation, le trading et la prise de décision, les utilisateurs et institutions ont besoin de garanties cryptographiques, pas de “confiance aveugle”. Il faut donc “Secret as a Service” : des technologies permettant de définir des règles d’accès aux données programmables et natives ; le chiffrement côté client ; une gestion décentralisée des clés — en précisant qui peut déchiffrer quoi, dans quelles conditions, pour combien de temps… tout cela en chaîne.
En combinant cela avec des systèmes de données vérifiables, le “secret” deviendra une infrastructure publique fondamentale d’Internet, et non un simple patch d’urgence. La confidentialité deviendra une partie intégrante de l’infrastructure, et non une fonction additionnelle.
De “Code is Law” à “Normes are Law”
Les attaques récentes en DeFi, même sur des protocoles matures avec des équipes solides et des audits rigoureux, ont révélé une réalité inquiétante : la pratique de la sécurité reste empirique et “ad hoc”. Pour que la DeFi atteigne une maturité sécuritaire, il faut passer d’un mode “bug-centric” à une conception basée sur des propriétés, d’un “faire de son mieux” à une approche systématique et “de principe” :
Sécurité statique / avant déploiement (tests, audits, vérification formelle) L’avenir consiste à prouver systématiquement que des invariants globaux sont respectés, plutôt que de vérifier manuellement des propriétés locales sélectionnées. De plus en plus, des outils d’IA assistent à la rédaction de spécifications, à la proposition d’invariants, et à l’automatisation de la majorité des preuves formelles autrefois coûteuses et manuelles.
Sécurité dynamique / après déploiement (monitoring en temps réel, exécution en temps réel, etc.) Après déploiement, ces invariants deviennent des barrières actives : la dernière ligne de défense. Encodés en assertions en temps réel, ils exigent que chaque transaction respecte des conditions de sécurité. Autrement dit, on ne suppose plus que “tous les bugs sont capturés avant déploiement”, mais que le code lui-même exécute ces propriétés de sécurité, et peut automatiquement annuler toute transaction violant ces invariants.
Ce n’est pas qu’une théorie — cela a un impact concret. La majorité des attaques passées aurait pu être empêchée par ces vérifications en temps réel. Ainsi, la vieille idée “Code is Law” évolue vers “Norms are Law”. Même face à de nouvelles attaques, celles-ci devront respecter les mêmes propriétés de sécurité du système ; le champ d’attaque se réduit, laissant peu de possibilités ou des possibilités quasi impossibles.
Quatrième partie : Innovation applicative et construction du futur
La montée en puissance des marchés prédictifs : taille, couverture, intelligence
Les marchés prédictifs sont désormais mainstream. L’année prochaine, ils croîtront en taille, en couverture et en intelligence grâce à la convergence entre cryptographie et IA, mais cela apportera aussi de nouveaux défis communs.
D’abord, davantage de types de contrats seront disponibles. À l’avenir, on pourra non seulement faire des cotations en temps réel sur des élections ou des événements géopolitiques, mais aussi sur chaque détail ou combinaison d’événements complexes. Avec la publication de ces nouveaux contrats et leur intégration dans l’écosystème médiatique (déjà en cours), la société doit faire face à une question : comment équilibrer la valeur de ces informations, et concevoir des systèmes de prédiction plus transparents et audités ? La cryptographie peut fournir des outils.
Pour gérer un volume accru de contrats prédictifs, il faut de nouveaux mécanismes de “alignement de la vérité” (truth alignment). Les mécanismes d’arbitrage centralisés (l’événement a-t-il eu lieu ? Comment le confirmer ?) ont leurs limites, comme le montrent des cas controversés tels que l’élection de Zelensky ou la présidentielle au Venezuela. Pour étendre la taille et la valeur des marchés prédictifs, la gouvernance décentralisée et les oracles LLM seront des outils clés pour trancher les controverses et établir la vérité.
Les capacités de l’IA ne se limitent pas aux LLM. Des agents IA peuvent opérer de façon autonome sur des plateformes prédictives, scrutant le monde à la recherche de signaux, cherchant un avantage à court terme. Cela aidera à découvrir de nouvelles façons de penser et à prévoir “ce qui va se passer”. (Des projets comme Prophet Arena ont déjà montré un enthousiasme initial.) En plus d’agir comme des “analystes politiques avancés” consultables, ces agents IA peuvent aussi aider à comprendre à rebours les facteurs prédictifs fondamentaux de phénomènes sociaux complexes.
Les marchés prédictifs remplaceront-ils les sondages ? Non, ils les amélioreront. Les données de sondage pourront même devenir une entrée pour les marchés prédictifs. En tant que politologue ou économiste, je suis heureux de voir ces deux écosystèmes coexister, avec une forte diversité. Mais cela nécessite de nouvelles technologies : l’IA pour améliorer la recherche, la cryptographie pour prouver que les répondants sont humains et non des machines, apportant ainsi plus d’innovation.
L’essor des “médias de droits”
Le modèle traditionnel des médias (notamment l’“objectivité”) montre des fissures. Internet donne la parole à tous, et de plus en plus d’acteurs s’adressent directement au public. Ironiquement, le public n’est pas respecté parce qu’il a des intérêts, mais parce qu’il en a.
Ce qui est vraiment nouveau, ce n’est pas les réseaux sociaux, mais : les outils cryptographiques permettant des promesses vérifiables publiquement. Quand l’IA réduit le coût de création de contenu à zéro — chaque opinion, chaque identité (réelle ou virtuelle) peut être dupliquée à l’infini — “dire quelque chose” ne suffit plus à établir la confiance. Les actifs tokenisés, les verrouillages programmables, les marchés prédictifs et l’historique en chaîne offrent une base de confiance plus solide :
Les commentateurs peuvent exprimer leur point de vue et prouver qu’ils ont “mis de l’argent réel en jeu” ; les podcasteurs peuvent verrouiller des tokens pour montrer qu’ils ne vont pas “faire monter le prix puis décharger” ; les analystes peuvent lier leurs prévisions à des marchés publics régulés, créant des enregistrements audités.
C’est la première étape de ce que j’appelle les “médias de droits” : un nouveau type de média, qui embrasse une “mentalité d’intérêt” et fournit des preuves vérifiables. Dans ce modèle, la crédibilité ne vient pas d’une “apparence de neutralité” ou de “déclarations sans fondement”, mais d’hypothèses de risque vérifiables publiquement. Les médias de droits ne remplaceront pas les médias traditionnels, mais les compléteront. Ils offrent un nouveau signal : pas “faites-moi confiance, je suis neutre”, mais “regardez ce que je suis prêt à risquer, vous pouvez vérifier si je dis la vérité”.
La cryptographie pour un monde hors-chaîne
Depuis des années, SNARK (preuves cryptographiques de calcul vérifiable) n’était utilisé que dans l’univers blockchain. La raison est simple : produire une preuve coûte jusqu’à 1 million de fois plus cher que d’exécuter le calcul directement. Cela a du sens si le coût peut être supporté par des milliers de vérificateurs, mais pas ailleurs.
Tout cela va changer. D’ici 2026, les zkVM (machines virtuelles à preuves zéro connaissance) ramèneront le coût à environ 10 000 fois celui de l’exécution, avec une consommation mémoire de quelques centaines de Mo : assez rapide pour tourner sur un smartphone, assez bon marché pour être omniprésent.
Pourquoi 10 000 fois ? Parce que la puissance de calcul parallèle d’un GPU haut de gamme est environ 10 000 fois celle d’un CPU de laptop. D’ici 2026, un seul GPU pourra générer en temps réel une preuve d’exécution CPU. Cela réalise la vision longtemps évoquée dans la littérature : la “cloud vérifiable” à portée de main.
Si votre charge de travail tourne déjà dans le cloud CPU, sans besoin de beaucoup de puissance, ni d’optimisation GPU, ni pour des raisons historiques, vous pourrez bientôt obtenir une preuve cryptographique de la correction du calcul à un coût raisonnable. La preuve elle-même sera optimisée pour GPU, votre code n’aura pas besoin d’être modifié.
Cinquième partie : Régulation, gouvernance et vision à long terme
Les transactions ne sont qu’un “point de transit”, pas la fin des entreprises cryptographiques
Aujourd’hui, à l’exception des stablecoins et de quelques infrastructures clés, presque tous les projets cryptos à succès se tournent vers le trading ou s’y préparent. Que se passerait-il si “toutes les entreprises cryptos devenaient des plateformes de trading” ? Beaucoup de participants feraient la même chose, se cannibalisant, et il ne resterait que quelques gagnants.
Se précipiter vers le trading trop tôt ou trop vite comporte le risque de perdre la possibilité de construire des activités plus résistantes et durables. Je comprends la tentation des fondateurs cherchant un équilibre financier, mais poursuivre un “PMF immédiat apparent” a un coût. En particulier dans la crypto, la dynamique des tokens et la culture spéculative poussent à la gratification instantanée, au mépris de problèmes de produit plus profonds. C’est en quelque sorte un “test de barbe à papa”.
Le trading n’est pas un problème, c’est une fonction essentielle du marché. Mais ce n’est pas une fin en soi. Les fondateurs qui se concentrent vraiment sur le PMF (“P” pour Product-Market Fit) sont souvent les vrais grands gagnants.
La synchronisation de la technologie et du droit pour libérer tout le potentiel de la blockchain
Au cours des dix dernières années, l’un des plus grands obstacles à la construction de réseaux blockchain aux États-Unis a été l’incertitude réglementaire. La loi sur les valeurs mobilières a été appliquée de manière large, forçant les fondateurs à adopter un cadre “d’entreprise” plutôt qu’un cadre “réseau”. Pendant des années, “réduire le risque juridique” a remplacé “stratégie produit” ; les ingénieurs ont été remplacés par des avocats.
Ce mouvement a créé de nombreuses distorsions : inciter les fondateurs à éviter la transparence ; distribuer des tokens de manière arbitraire et peu conforme ; faire de la gouvernance une mise en scène ; concevoir des structures organisationnelles pour éviter le risque juridique ; forcer les tokens à n’avoir aucune valeur économique ou modèle d’affaires ; et pire, des projets moins conformes avancent plus vite.
Mais aujourd’hui, la législation sur la structure du marché crypto américain est plus proche que jamais d’une approbation, et pourrait éliminer ces distorsions dès l’année prochaine. Une fois adoptée, cette loi encouragera la transparence ; établira des standards clairs ; et remplacera la “roulette réglementaire” par des structures de financement, d’émission de tokens et de décentralisation bien définies.
Après la loi GENIUS, la croissance des stablecoins explosera ; et la législation sur la structure du marché crypto aura un impact plus profond — cette fois sur le fonctionnement même du réseau. En d’autres termes, cette régulation permettra à la blockchain de fonctionner comme elle doit : ouverte, autonome, composable, neutre et décentralisée.