Créée en 1930, la Banque des règlements internationaux (BRI) est la plus ancienne des organisations financières internationales. Localisée à Bâle, elle abrite une équipe d’économistes de talents dont les travaux, dans le contexte économique actuel, méritent d’être plus largement connus et commentés. Leur signe distinctif : débusquer les trop nombreux anachronismes théoriques qui encombrent la pensée économique institutionnelle et l’empêchent d’intégrer les nouvelles réalités d’une économie internationale transfigurée par la mondialisation. Il n’est pas interdit d’imaginer que c’est dans leur laboratoire que s’élabore la nouvelle pensée macroéconomique de l’univers mondialisé du XXIe siècle.
Il y a dix ans, au sortir de la grande récession, la conviction de tous les experts était que les pertes de la crise devaient être rapidement absorbées par une courte période de forte reprise (au plus en deux ans), comme cela se passait régulièrement avant. L’économiste américain Kenneth Rogoff venait de publier une étude magistrale où, avec sa femme Carmen Reinhart, elle aussi professeur à Harvard, il montrait, à partir d’une analyse de toutes les crises financières dans le monde depuis la guerre, que plus la récession était prononcée, plus la reprise qui suivait devait être forte1. Personne ne doutait que le même schéma allait se reproduire. Pourquoi en aurait-il été autrement ?
Mais ce n’est pas ce qui s’est passé. La reprise miracle tant attendue n’est jamais arrivée. La croissance est redevenue positive, mais à un rythme léthargique. En moyenne, depuis la crise, le taux de croissance US a été divisé par deux. En Europe, à part l’Allemagne, la déception a été encore plus grande : le PIB de la zone euro n’a retrouvé son niveau de 2007 qu’en 2016, soit neuf ans après le déclenchement de la crise (contre six ans pour les USA).
Plus parlante encore est la comparaison avec les années trente : combien savent que, malgré l’ampleur sans commune mesure du recul de la production européenne, celle-ci avait retrouvé son niveau de 1929 dès l’année 1935 ! Et qu’aux États-Unis, la reprise entre 1933 et 1941 s’était faite sur un rythme deux fois plus rapide que la croissance moyenne des années 2009 – 2017 (et cela malgré la rechute de 1937) ! A l’aune de ces comparaisons, la période d’après-crise ressemble de plus en plus à ce qu’il faut bien appeler une quasi-stagnation, une grande panne, voire – n’ayons pas peur du terme – une dépression larvée, comme en témoignent les conséquences politiques (la montée des contestation populistes).
Pourquoi une croissance en panne ?
A deux occasions, en 2011 et fin 2014, les américains ont cru que c’était arrivé, que la reprise tant désirée était vraiment en train de s’amorcer. Mais cela n’a jamais duré longtemps. Après l’élection de Donald Trump fin 2016, le climat économique s’était de nouveau nettement retourné. Pour la première fois depuis longtemps les européens sont alors, eux aussi, redevenus optimistes. Fin 2017, c’était même quasiment l’euphorie. Pour la première fois depuis très longtemps, nous disait-on, on assiste enfin à une reprise mondiale synchronisée. Même les chinois se mettaient de la partie. Jusqu’à fin 2018, les médias n’ont jamais été avares d’expression dithyrambique pour décrire l’ « insolente santé » de l’économie US qui connaissait – au moins en nombre de mois – la période d’expansion la plus longue de son histoire. Et puis, soudain, patatras ! De nouveau, à la surprise générale, de manière totalement non anticipée, changement de ton et de cap très brutal : depuis l’automne dernier l’activité mondiale est en plein ralentissement, une décélération qui, au mois de juin 2019, ne semblait toujours pas en voie de s’atténuer, accompagnée de signaux laissant entrevoir pour la fin 2019 une nouvelle panne de croissance sans doute plus sévère que la quasi-récession qui a marqué l’année 2016. La vraie reprise, la grande reprise, tant attendue et toujours annoncée, n’est toujours pas au rendez-vous. C’est la troisième fois que cela se produit en dix ans. Tout se passe comme si, depuis la crise, la croissance, dès qu’elle semble prendre quelque consistance, se heurtait désormais à un plafond indépassable qui l’étouffe aussitôt.
Pourquoi n’arrive-t-on pas à sortir de ce long épisode de mini-croissance et mini-cycles ? Quelle est la nature de ce plafond de verre qui casse ainsi tous les espoirs de reflation durable ?
L’explication la plus en vogue depuis quelques années est celle de la stagnation séculaire (secular stagnation) proposée par l’ancien conseiller économique du Président Bill Clinton, le professeur Lawrence Summers2.
Le thème n’est pas tout à fait nouveau. Summers reprend une vieille idée formulée par l’économiste américain Alvin Hansen dans les années trente – plus précisément, au lendemain de la rechute de 1937. Alvin Hansen est l’homme par qui la vulgarisation des idées de John Maynard Keynes s’est faite dans le monde anglo-saxon. A ce titre, c’est un personnage important, bien que peu connu, dans l’histoire des idées économiques.
La stagnation séculaire selon Lawrence Summers
Sa théorie était que la grande stagnation de l’entre-deux-guerres était une conséquence structurelle de l’épuisement des trois grands moteurs de la croissance américaine au XIXè siècle : 1. l’expansion territoriale, 2. la croissance démographique, 3. l’innovation technologique. A ses yeux les rigueurs de la dépression annonçaient la fin du miracle de la croissance portée par l’économie capitaliste.
Avec le retour de l’expansion économique après la fin de la guerre et durant les années cinquante, ses prédictions sont tombées dans l’oubli, et on n’en a plus jamais parlé. Du moins jusqu’en 2013, année où Lawrence Summers remet sa théorie à la mode en arguant que, s’il s’est apparemment trompé, c’est simplement parce qu’il avait plusieurs générations d’avance.
Pour Summers le fait économique le plus important de notre époque, celui qui commande tout et sans lequel ce que nous vivons depuis 2007 ne serait jamais arrivé, est la baisse tendancielle des taux d’intérêt. Celle-ci pré-date très largement les événements de 2008. Si les taux sont aujourd’hui quasiment à zéro, c’est l’aboutissement d’une longue évolution que les réactions des banques centrales à la crise ont certes accompagnée mais qui, en fait, a débuté dès la fin des années quatre-vingt, et qui est le produit de trois facteurs structurels de long terme : 1. le vieillissement de la population et la baisse de la natalité ; 2. l’accroissement des inégalités de revenus et de patrimoine (cf. Thomas Piketty) ; 3. la baisse du coût relatif du capital (liée notamment au développement des nouvelles industries technologiques à coûts marginaux quasiment nul, type Apple ou Google). A quoi il faudrait ajouter un quatrième élément dont Summers ne parle pas directement, mais qui constitue l’argument central d’une variante de sa théorie : le ralentissement depuis les années soixante-dix des progrès de la productivité, statistiquement documenté par le professeur Robert Gordon de North Western University qui y voit la confirmation de l’hypothèse d’Hansen sur l’épuisement des effets bénéfiques de la technologie (malgré tous les espoirs suscités par l’essor des technologies modernes de l’électronique, de l’informatique, des bio et nano-technologies, etc.)3.
Raisonnant en termes spécifiquement keynésiens, Summers considère que cette combinaison de facteurs longs entraîne un déficit structurel de la demande globale qui commande la croissance des économies modernes, et qui devrait perdurer bien au-delà de nos simples horizons conjoncturels. Ce déficit est resté pendant longtemps camouflé par un endettement croissant des ménages, des entreprises et des pouvoirs publics qui entretenait artificiellement leurs consommations (et donc l’emploi), mais au prix de déséquilibres financiers colossaux qui rendaient inévitables l’éclatement de la bulle. En théorie la crise aurait dû permettre, par le jeu des taux d’intérêt, de remettre les compteurs à zéro (reset comme le disent les anglo-saxons) et autoriser ainsi un nouveau départ. Mais ce mécanisme s’est trouvé neutralisé par le niveau excessivement bas auquel se trouvaient déjà les taux.
Summers se réfère ici à un concept central du modèle de représentation économique conventionnel hérité des travaux de l’économiste suédois Knut Wicksell, au début du XXè siècle. Il s’agit de la référence à l’existence d’un taux d’intérêt naturel hypothétique qui permettrait de définir l’état d’équilibre de l’économie correspondant à un processus de croissance considéré comme normal (plein emploi des ressources sans entraînement inflationniste) ; et, partant de là, d’en déduire dans quel sens il conviendrait d’agir sur les taux soit pour freiner l’économie (lorsque les taux observés sont inférieurs au taux naturel, auquel cas il faut les relever), soit pour la relancer (lorsque les taux observés lui sont supérieurs, et qu’il faut les baisser)4.
La difficulté est cependant que nous n’avons aucun moyen empirique pour nous dire avec précision à quel niveau se situe ce taux idéal qui sert, en quelque sorte, de boussole à la politique monétaire. Pour la contourner, les banques centrales ont donc développé une règle selon laquelle c’est l’inflation qui nous donne la réponse : si celle-ci tend à augmenter, c’est que les taux sont trop bas ; si elle tend à baisser et à se rapprocher elle-même de zéro – ou pire : passer en négatif, ce que l’on nomme déflation –, c’est que les taux sont trop hauts.
Malheureusement ce mécanisme ne fonctionne pas lorsque les taux nominaux sont déjà presque à zéro comme c’était le cas au sortir de la grande récession, et qu’en plus le rythme de l’inflation continue de décroître. D’un côté, nous avons une inflation très basse et en diminution dont la théorie nous dit que, pour la croissance, cela est signe de taux trop élevés, plus élevés que le taux naturel de référence, et qu’il faudrait donc encore les baisser. Mais de l’autre nous avons des taux qui sont à zéro et que l’on ne peut pas baisser davantage car s’ils devenaient négatifs les acteurs économiques trouveraient désormais plus intéressant de stocker des billets de banque dans leurs coffres ou sous leurs matelas plutôt que de contribuer au financement de l’économie en accordant aux entreprises des prêts qui leur coûteraient en définitive de l’argent. Depuis Keynes on appelle cela une trappe à liquidité.
La situation est bloquée. L’économie se trouve alors coincée dans une double dynamique négative de faible inflation et de stagnation durable pour la correction de laquelle les outils traditionnels d’action monétaire s’avèrent inutilisables ; avec la menace d’une dérive vers un processus apocalyptique de déflation cumulative auto-entretenue selon le célèbre schéma décrit dans les années trente par Stanley Fischer (debt deflation)5. Dans de telles circonstances (qui, nous dit Summers, s’appliquent à l’état dans lequel les économies capitalistes développées se sont installées depuis la crise), il n’y a plus qu’une solution possible : mobiliser tous les moyens des États en matière de grands travaux et d’investissements publics massifs pour relancer la demande globale et revenir à des rythmes d’inflation plus élevés qui permettraient de sortir du double piège de la trappe à liquidité et de l’endettement excessif. En l’absence d’une telle politique, il ne faut pas espérer de miracle : le risque d’une nouvelle crise financière, encore plus brutale et profonde, perdurera ; en tout état de cause le monde devra s’accoutumer à un nouvel univers durable (secular) de croissance lente.
Tel serait, selon Summers et ceux qui partagent ses analyses (entre autres le Prix Nobel Paul Krugman) le scénario qui rendrait le mieux compte de la profonde rupture économique observée depuis les événements de la grande crise financière.
Un édifice intellectuel problématique
Ce n’est qu’une hypothèse, mais une hypothèse dont l’empreinte sur les milieux décisionnaires progresse rapidement. C’est ce qui ressort par exemple des prévisions à moyen terme publiées par le Congress Budget Office américain ainsi que celles du Federal Reserve Board. Il semble bien que, sans faire de bruit, en révisant à la baisse d’année en année leurs évaluations de croissance potentielle pour les dix années suivantes, leurs experts se soient ralliés à une vision de l’avenir fortement influencée par les thèses de la stagnation séculaire. Même la vénérable Banque de France, en 2017, a organisé un colloque consacré à ce thème6.
Cette vision des choses fait pourtant l’objet de vives controverses qui se manifestent à travers les travaux des économistes de la Banque des Règlements Internationaux (la banque des banques centrales, localisée à Bâle)7, ou encore dans les arguments que les techno-optimistes, tels les professeurs Barry Einchengreen8 et Erik Brynjolfsson9, opposent aux inquiétantes analyses de Robert Gordon.
La plupart des critiques concernent la fiabilité des chiffres utilisés pour mesurer les progrès de la productivité. Ainsi que le documente de manière remarquable Jean-Pierre Chamoux dans son dernier ouvrage « L’ère du numérique10 », l’essor d’Internet, des réseaux et des industries de l’information, la dématérialisation des services rendus par les produits relationnels qui meublent désormais notre univers, la place centrale des activités liées à l’économie de la connaissance… tout cela bouleverse complètement les données et les habitudes de pensée d’un univers statistique historiquement lié aux structures et mécanismes de fonctionnement d’une société industrielle. Dans ce nouvel univers, il n’est plus certain que les vieux outils de mesure et de comptabilité progressivement mis au point pour donner un contenu quantitatif à des concepts aussi basiques que la valeur, la production, l’évolution des prix, l’investissement, la productivité, etc. soient adaptés aux nouvelles donnes du monde post-industriel et continuent de nous donner une image fiable de sa réalité économique. Ce qui conduit, comme le soulignent les auteurs d’une étude de la Brookings Institution, à ce que l’on est sérieusement en droit de se poser des questions sur la fiabilité des données de la productivité sur lesquelles se fondent Gordon et Summers pour asseoir leur hypothèse, sinon de fin du progrès technologique, du moins de son affaiblissement tendanciel de long terme11. La vérité ne serait-elle pas plus proche du sentiment contraire que nous avons généralement d’une profonde accélération de l’impact des nouvelles technologies sur notre environnement et nos modes de vie ?
La critique la plus fondamentale concerne cependant la nature même du logiciel interne qui informe le déroulement du narratif conçu par Summers. Celui-ci s’inscrit dans le droit fil du modèle de représentation post-keynésien qui, depuis l’armistice intervenue au cours des années quatre-vingt entre les keynésiens pur jus de l’après-guerre et leurs adversaires monétaristes, détermine l’essentiel de la pensée économique contemporaine, notamment l’architecture des gigantesques modèles économétriques qui, depuis cette époque, règnent en maîtres dans les organismes publics de prévision économique (comme la Fed) et les départements de recherche des grandes universités occidentales. Or cette économie mainstream repose sur un certain nombre d’hypothèses qui, quoique faisant généralement l’objet d’un authentique consensus scientifique de la part des milieux académiques, se trouvent aujourd’hui contestées, non seulement par des chercheurs porteurs d’un paradigme rival, mais également par des équipes – comme celle de la BRI – dont les travaux s’inscrivent pourtant dans le cadre interne de sa matrice disciplinaire12.
L’une de ces croyances est, par exemple, celle qui concerne le principe dit de neutralité de la monnaie. Le postulat des modèles contemporains est que les effets de la politique monétaire sont, par essence, de nature transitoire et donc que la dynamique des processus économiques à moyen et long terme dépend exclusivement du jeu de variables dites réelles (type démographie, investissement, épargne, productivité…). Ce qui explique que les modèles de simulation macroéconomique de cette génération, même les plus complexes et les plus détaillés, n’accordent en général aucune attention à la prise en compte de données financières qui pourtant, dans la vie active des entreprises, occupent une place si essentielle. La finance et la monnaie n’y sont conçues que des comme des artefacts voilant temporairement ce qui relève du véritable déroulement de la dynamique économique, et n’en faisant pas partie intégrante.
La leçon de la dernière grande crise financière est qu’une telle attitude n’est plus tenable. C’est ainsi que, depuis une dizaine d’années, les équipes du département d’analyses économiques et monétaires de la Banque des Règlements Internationaux ont entrepris d’étudier s’il était possible d’enrichir et d’améliorer les modèles de prévision économétrique en y incluant des équations de données monétaires et financières portant sur l’évolution du crédit, l’endettement des ménages, les prix des actifs (en particulier ceux de l’immobilier), la structure et l’évolution des bilans bancaires, ou encore l’exposition du système bancaire et non bancaire à des dettes et créances libellées en monnaies étrangères. Ces travaux ont débouché sur des essais de simulation réussis démontrant que de tels modèles auraient permis d’identifier à l’avance la montée des déséquilibres financiers de plus en plus massifs qui ont déclenché la crise – laissant ainsi le temps de prendre des dispositions qui auraient peut-être atténué la brutalité et l’ampleur du retournement des années 2007 – 200813.
Ceci est en soi un résultat remarquable. Mais ce qui l’est encore davantage est que ces travaux ont entraîné l’accumulation d’une masse considérable de données dont l’analyse et le traitement tendent à révéler le caractère pour le moins problématique (pour ne pas dire plus) des piliers intellectuels – tant théoriques qu’empiriques – sur lesquels s’appuie le scénario de la stagnation séculaire à la Summers.
Une critique sans concession
C’est par exemple le cas du concept de taux d’intérêt naturel dont nous avons vu qu’il s’agit d’une valeur purement virtuelle, que l’on ne peut pas mesurer directement, sinon par la voie de calculs complexes déduits d’un modèle théorique.
Les travaux des économistes de Bâle montrent que lorsqu’on reprend les procédures d’évaluation à partir d’un modèle économétrique incorporant les indicateurs monétaires et financiers qu’il ont mis au point pour en enrichir la portée, le résultat obtenu est très différent des chiffres habituellement avancés par les spécialistes de la question : le taux naturel serait très sensiblement supérieur, et en aucun cas ne serait négatif comme cela fut notamment affirmé par Janet Yellen sur la foi de travaux commissionnés par la Fed de San Francisco14. Ce qui veut dire que l’effet Trappe à liquidité, qui joue un rôle si central tant dans les arguments de Summers que dans ceux des banques centrales pour justifier leurs choix de politique monétaire (notamment leurs opérations de Quantitative easing), serait en fait beaucoup moins contraignant qu’on ne l’imagine habituellement.
Mais leur critique va plus loin et est d’une nature plus fondamentale. Dans une conférence présentée à Londres en septembre 2017, le leader du groupe, Claudio Borio, a révélé les résultats d’une autre étude alors non encore publiée visant à vérifier empiriquement sur près d’un siècle et demi, et sur un échantillon de 19 pays, si les seuls facteurs quantitatifs que sont la démographie, la croissance, la productivité, les inégalités de revenus, le prix relatif du capital et son produit marginal… suffisaient pour rendre compte de l’évolution des taux d’intérêt réels sur la longue période15. Cette hypothèse est essentielle pour confirmer le statut épistémologique du postulat sur lequel repose toute la construction théorique néo-keynésienne contemporaine : à savoir qu’il existerait bel et bien un taux d’intérêt abstrait qui, dans la longue période (disons une dizaine d’années), jouerait un rôle de pôle attracteur vers lequel convergeraient in fine tous les taux. Cette relation fonctionne relativement bien si l’on prend comme point de départ de l’observation les années 1980, période où s’amorce l’actuel mouvement long de baisse des taux jusqu’à nos jours. Or elle disparaît complètement dès que l’on passe à la très très longue période. A cette échelle il n’existe aucune constante qui ferait apparaître, par-delà les régimes et les différentes politiques monétaires qui se succèdent, des épisodes répétitifs de convergence (et de divergence). Il n’y a aucune correspondance statistiquement significative entre les facteurs cités et l’évolution des taux réels (hors inflation). Ce qui conduit Claudio Borio à mettre franchement en doute l'utilité même du concept et à y dénoncer l’exemple parfait d’une construction théorique de nature essentiellement circulaire qui ne saurait raisonnablement servir de fondement à une politique concrète.
Si Borio et ses collaborateurs ont raison, c’est plus qu’une pierre, mais un véritable rocher jeté au cœur même de l’arbre de décision (les algorithmes) dont dépend le fonctionnement du tableau de commandes des banques centrales : c’est une révélation, une découverte qui ruine notamment les arguments de tous ces experts pourtant bardés de diplômes, mais aussi de certitudes qui, comme Kenneth Rogoff, voudraient qu’elles interdisent le cash pour récupérer des capacités d’actions perdues. Et c’est toute la rationalité apparemment rigoureuse de la démonstration de Summers qui s’effondre avec, dans la foulée, la remise en cause de la pertinence de bien d’autres concepts clés de l’appareil de pensée et d’analyse traditionnel des banques centrales.
Adieu aux vaches sacrées du keynésianisme
Par exemple, la célèbre Courbe de Phillips dont il n’est que de lire les comptes rendus des réunions du FOMC, l’organisme interne dont dépendent toutes les grandes orientations monétaires de la Fed américaine, ou les déclarations de son Président (hier Yellen, aujourd’hui Jerome Powell), pour constater à quel point elle occupe plus que jamais une place essentielle dans la conception des politiques économiques contemporaines. C’est logique. A partir du moment où l’hypothèse d’un taux d’intérêt naturel sert d’ancrage à la politique des taux, et que l’on définit ce taux naturel par référence à une hypothétique situation de plein emploi, encore faut-il disposer d’un outil qui dise comment l’économie se situe effectivement par rapport à cet objectif. Cet outil c’est la courbe de Phillips qui le fournit par la relation qu’elle établit entre emploi et inflation16. Mais encore faut-il que cette relation soit fiable. Or l’équipe de la BRI a mené d’autres travaux centrés sur les pays membres du G7 qui révèlent que si on peut effectivement, en cherchant bien, trouver les traces d’une telle relation, celle-ci se révèle être en réalité de plus en plus ténue, et même carrément élusive, lorsqu’on analyse les données des vingt dernières années (principalement une conséquence de la mondialisation)17.
Il en va de même de cet article de foi qui, traditionnellement, fait de la déflation l’épouvantail par excellence de tous les économistes contemporains, Summers compris. Est-il vrai que toute baisse des prix est nécessairement une malédiction pour la croissance ? Absolument pas, répondent les économistes de la BRI en s’appuyant sur un énorme travail inédit de recherche historique portant sur plus de 140 années et couvrant 38 pays18. Il n’existe que des indices extrêmement faibles de corrélation liant décroissance et déflation, sauf pour la Grande dépression des années trente dont le traumatisme continue de hanter les mémoires de nos contemporains. La liaison est ambigüe et n’a rien d’automatique. Quant au célèbre processus de déflation par la dette dû à Irving Fisher, ils n’en trouvent pas davantage de preuve empirique, même pour la période de la Grande Crise19. Tant pis pour les vaches les plus sacrées de la pensée mainstream. A Bâle, la priorité va à la discipline de la recherche empirique qui, certes, n’est jamais définitive mais qui ne veut pas se laisser impressionner par les oukases d’une pensée politiquement correcte, même lorsqu’elle s’exprime par la voie des plus hautes personnalités de la profession.
A cet égard il vaut la peine de souligner qu’ils n’hésitent pas à reprendre à leur compte la distinction faite par les économistes non keynésiens de type Hayékien entre bonnes et mauvaises baisses de prix, les bonnes déflations étant celles qui résultent de gains de productivité exceptionnellement élevés. On trouve dans les travaux et conférences de Claudio Borio un certain nombre de références aux écrits du Friedrich Hayek ainsi qu’à d’autres sources liées à l’École d’économie dite « autrichienne » (Austrian Economics). Ce détail mérite d’être signalé tant cela est rarissime chez les économistes institutionnels évoluant dans la mouvance de l’économie mainstream ; un détail qui témoigne d’une ouverture d’esprit et de la pensée plutôt exceptionnelle dans ce milieu. Il n’est pas courant de voir des économistes de niveau et de réputation internationale afficher ainsi ce qui les relie à l’héritage de cette école de pensée libérale le plus souvent démonisée par la majorité de leurs collègues. Cela concerne notamment leur approche de la théorie des taux, ou encore les points de recoupement entre leur théorie du cycle financier et le concept autrichien de « malinvestissement20 ».
Autre exemple particulièrement significatif de leur non conformisme : la remise en cause de cette notion d’excès mondial d’épargne (Global savings glut) qui joue un si grand rôle dans le système d’interprétation macroéconomique auquel se réfèrent Summers et la classique triplette des gouverneurs de la Fed (Alan Greenspan, Ben Bernanke, et Yellen). Le problème de cette théorie est qu’elle est étroitement liée à une conception de l’économie internationale fondée sur des conventions économiques, comptables et juridiques qui ne sont plus en phase avec la réalité du monde issu de la mondialisation tant financière qu’économique21. Les économistes qui s’en réclament continuent de raisonner en fonction de modèles où tout se réduit à des problèmes de balances commerciales excédentaires ou déficitaires qu’on rééquilibre par des ajustements de parités entre monnaies dont on pose, par principe, que l’aire de circulation se confond avec l’espace circonscrit de leur économie nationale et de son propre système bancaire. Ce qui signifie par exemple que la collecte des statistiques internationales se fait uniquement en fonction d’un principe de résidence : les mouvements de fonds de la filiale à New York d’une grande banque (ou entreprise) française seront considérés comme des importations ou des exportations de capitaux américains, même lorsqu’il s'agit de transactions purement internes à la firme.
L’une des grandes initiatives de la BRI est d’avoir entrepris, dès le début des années 2000, de reconstruire la comptabilité des échanges internationaux sur la base d’un principe de nationalité : les mouvements internes à un groupe transnational sont consolidés avec les comptes du pays où se trouve son siège social. Le résultat est que la BRI dispose aujourd’hui d’une matrice des flux mondiaux (et non plus seulement des soldes) qui révèle un phénomène qui jusque-là restait totalement occulté : la montée en puissance, à partir de la fin des années 1990, d’un colossal volume d’échanges interbancaires, reflet d’une internationalisation de plus en plus poussée des activités bancaires et financières qui, par-delà les frontières, s’autonomisent de manière croissante par rapport à l’orbite territoriale restreinte des anciens marchés monétaires nationaux.
Pour Hyun Song Shin, l’un des membres les plus productifs du département de recherche économique et monétaire de la BRI, c’est ce phénomène – qu’il décrit comme un « Global banking glut » – qui fut le principal incubateur du déclenchement de la grande crise financière 2007 – 200822. Celle-ci, explique-t-il, puise son origine moins dans le comportement d’épargne des Chinois, des Japonais ou des Allemands, que dans l’extraordinaire noria de transferts interbancaires mise en place, au cours des années précédentes, par les grandes banques européennes pour se procurer auprès des fonds monétaires U.S. les liquidités dont elles avaient besoin pour acheter les subprimes américains qui, du fait des différences de réglementation entre les deux rives de l’Atlantique, leur permettaient (en principe) de mieux rémunérer leurs risques. Ponctuellement, la crise a ainsi été déclenchée par une accumulation de déséquilibres de maturité introduits dans les bilans bancaires européens par ce gigantesque trafic atlantique dont personne n’avait, à l’époque, les instruments d’observation pour en déceler l’émergence23.
De ces multiples travaux émerge une réponse alternative aux questions que suscite la crise des années 2010. Une réponse qui ancre son explication, non plus dans l’invocation de forces exogènes de très long terme sur lesquelles nous n’aurions aucune prise, mais dans des mécanismes endogènes générateurs de déséquilibres monétaires et financiers de grande amplitude et de longue durée, initiés par le caractère asymétrique des politiques monétaires dicté aux banques centrales – et en premier lieu à la plus importante d’entre elles, la Fed américaine – par la nature du modèle de pensée macroéconomique qui, depuis près de deux générations, guide leurs diagnostics et donc leurs décisions.
L’explication par le cycle financier
Brièvement résumée, la vision des économistes de la BRI s’ancre dans la mise en évidence, par des méthodes statistiques élaborées, qu’en parallèle du très classique cycle des affaires existerait un autre type de fluctuation économique s’étendant sur des périodes de temps plus longues (15 à 20 ans, au lieu des 8 années en moyenne du cycle conjoncturel habituel). Ce cycle financier serait la conséquence de ce que les banques centrales n’agissent pas avec la même célérité pour réagir à un emballement de la conjoncture que pour procéder à une relance de l’activité. Cette asymétrie est le produit de préoccupations politiques très légitimes (la crainte d’augmenter le chômage) dont la contrepartie est cependant un empilement cumulatif de déséquilibres financiers stimulés par le maintien de taux d’intérêts artificiellement bas entraînant, dans la longue période, une explosion non maîtrisée de la dette des ménages, des entreprises et de l’État. Ce petit jeu peut durer longtemps (en la circonstance il a duré plus de vingt ans), mais au prix d’un endettement de plus en plus instable et donc d’une fragilité financière de plus en plus critique. Un jour, inéluctablement, le système craque – pour une raison ou pour une autre, la cause immédiate (les subprimes) important finalement peu. C’est la crise. Celle-ci déclenche une seconde phase, elle aussi de longue durée, dominée par des contraintes d’assainissement et de désendettement des bilans, en particulier au niveau des banques et intermédiaires financiers dont les taux bas ont favorisé le gonflement des activités. S’ensuit un long processus déflationniste d’origine financière (financial drag) dont les symptômes visibles sont des résultats économiques constamment inférieurs aux prévisions, un ralentissement durable de la croissance, une quasi disparition de l’inflation, le blocage de l’investissement et des progrès de la productivité. Résultat : des marchés dont les anticipations (telles que reflétées par le cours des futures) restent négatives, une demande globale en panne, des problèmes d’emploi et de pouvoir d’achat qui perdurent (parfois camouflés sous le caractère douteux de certains calculs statistiques comme c’est le cas aux États-Unis), des difficultés politiques qui s’amplifient… Voilà où nous en sommes. Une peinture guère dissemblable de celle à laquelle conduit le narratif de la stagnation séculaire à la Summers, mais pour des raisons qui n’ont rien à voir – et donc des conclusions politiques, elles aussi, radicalement différentes.
Et ensuite ? Combien de temps cela va-t-il durer ? Les experts de la BRI ne sont guère bavards sur ce sujet. On est légitimement en droit de le regretter. Mais, après tout, ce n’est pas leur métier que de tomber dans la futurologie. En tant qu’employés des banques centrales il est principalement attendu d’eux qu’ils fassent des propositions pour éviter le retour de nouvelles catastrophes. Leurs recherches doivent servir à concevoir des outils susceptibles de limiter la répétition des engrenages qu’ils décrivent, ou du moins d’atténuer l’amplitude de leurs effets. C’est ainsi que leurs travaux débouchent sur des préconisations qui consistent à inscrire dans l’arsenal réglementaire la prise en considération de nouveaux indices et critères qui tiennent compte des processus qu’ils ont mis en évidence, cependant qu’ils n’hésitent pas à demander aux banques centrales – qui sont pourtant leurs employeurs, puisque ce sont elles-mêmes qui sont les actionnaires de la société anonyme qui sert de cadre légal à l’existence de la BRI – de cesser au plus vite de mettre l’inflation (ou plutôt l’absence d’inflation) au cœur de leurs préoccupations de politique monétaire.
Leur espoir est qu’une fois équipées d’instruments pour suivre au plus près l’évolution d’un petit nombre d’indicateurs financiers liés à l’endettement, au crédit, aux prix des actifs, aux dettes et créances en monnaies étrangères24, les banques centrales auront ainsi les moyens d’agir préventivement pour casser les ressorts du cycle financier. Ils sont convaincus que les nouveaux outils réglementaires introduits au lendemain de la grande crise financière (par exemple les ratios bilantiels et ratios de liquidité mis en place au titre de Bâle III et de la législation américaine Dodd-Frank) ne suffisent pas pour stabiliser le système puisqu’ils sont le produit d’un paradigme économique qui, jusqu’à présent, n’intègre aucun des éléments faisant l’objet de leurs études.
Un nouvel univers monétaro-bancaire
Le bilan du travail accompli en une dizaine d’années par les chercheurs de la BRI est considérable. Le nombre de travaux de recherche publiés chaque année a été multiplié par trois, et le nombre de chercheurs dépasse maintenant la soixantaine. Leur équipe figure désormais dans le top ten des départements de recherche affiliés aux grandes institutions internationales (type FMI et OCDE) ou à de grandes banques centrales (juste derrière la Fed de Chicago, et devant la Banque de France).
Un rapport d’audit externe réalisé en 201625 salue la remarquable qualité de leurs travaux, mais s’inquiète tout de même de leur tendance à soutenir (voire imposer) avant tout un point de vue maison sur l’ensemble des questions économiques et financières auxquelles ils s’intéressent, au détriment de ce que les trois membres de cette commission considèrent que devrait être une ouverture plus grande à des visions divergentes ou à des solutions alternatives. Sachant à quel point ils reprochent aux principaux courants représentatifs de la pensée économique dominante de rester encombrés d’anachronismes théoriques hérités des cloisonnements économiques qui caractérisaient le monde d’avant la mondialisation, sachant aussi combien ils se montrent extrêmement critiques des politiques menées par ceux qui en définitive sont leurs employeurs, une telle réserve n’est pas anodine. Elle prouve que leurs analyses sont encore loin de convaincre. Il n’est cependant pas interdit d’imaginer que c’est peut-être dans leur laboratoire que s’élabore la nouvelle macroéconomie qui, dans l’univers mondialisé du XXIè siècle, succédera finalement aux modèles des années soixante représentatifs d’un monde cloisonné.
Au-delà de leur analyse du cycle financier, leur contribution la plus significative à la science économique est incontestablement tout le travail investi pendant des années pour repenser et reconstituer la carte mondiale des flux monétaires et financiers internationaux (Cross border flows). Cette recherche leur a permis de mettre à jour des réalités empiriques que personne ne soupçonnait. Un exemple est la révélation de cette noria nord-Atlantique évoquée plus haut. Un autre est la découverte que les grands mouvements de la valeur du dollar (à la baisse ou à la hausse) sont beaucoup plus fonction de la croissance ou de la décroissance des flux de crédit bancaires et non-bancaires mondiaux que de l’état de la balance commerciale américaine et des décisions monétaires prises pour en réduire le déficit (par exemple en agissant sur les taux26). Ce qui, en clair, signifie que le soi-disant statut impérial du dollar s’est transformé en un traquenard qui est en train de coûter aux États-Unis leur indépendance monétaire (comme le démontrent les extraordinaires difficultés que la Fed rencontre pour mettre en œuvre ses projets de normalisation monétaire et de remontée des taux).
Mais il y a une autre raison pour insister sur l’importance de ces travaux. Ils nous apportent enfin la matière première empirique dont nous avons besoin pour bien percevoir à quel point la mondialisation industrielle et marchande des trente dernières années, sans tambours ni trompettes, a radicalement transformé la nature et le fonctionnement du système monétaire international que la plupart des économistes mainstream continuent de décrire en des termes théoriques qui n’ont plus grand chose à voir avec la réalité concrète du monde bancaire contemporain.
Les économistes de la BRI en tirent des informations pour concevoir des instruments d’observation et d’alerte qui devraient permettre aux responsables monétaires d’agir préventivement sur la formation des grands déséquilibres facteur d’instabilité financière. Ils sont dans leur rôle. C’est ce qu’on leur demande. Ils ne sont pas tendre avec la manière dont ils jugent l’action des banques centrales, et en particulier le logiciel intellectuel dominant qui leur inspire leurs décisions. C’est tout à leur honneur, et aussi à celui de la BRI elle-même qui fait ainsi preuve d'une réelle indépendance de pensée par rapport à ses mandants.
Il leur est professionnellement difficile d’aller ouvertement plus loin dans la critique même si, logiquement, le fil de leurs réflexions devrait les y mener. Pour ma part, je serai beaucoup plus radical. Leurs analyses me renforcent dans l’idée d’avancer une autre grille d’explication fondée sur l’hypothèse qu’au-delà même du thème de la stagnation séculaire, ou de l’explication de la crise par les mécanismes du cycle financier, les véritables raisons de l’actuelle panne de croissance se trouvent dans l’aveuglement des banques centrales et de leurs économistes face aux mutations de la monnaie et de l’ordre monétaro-bancaire issues des dynamiques de la mondialisation. Formulé brièvement, ce qui est en cause est l’incapacité idéologique de ceux-ci à penser le nouvel univers de la finance de marché – c’est à dire le Shadow banking – autrement que comme un détour de production financier inutile et improductif dicté par des manœuvres bassement mercantiles, au plus mauvais sens du terme27. C’est dans cet aveuglement et cette incapacité que résident actuellement les plus grandes menaces pour la prochaine décennie. Dommage que les économistes de Bâle ne soient pas plus explicites sur cette question alors qu’il est permis de penser qu’ils ne devraient pas être très loin de partager, au moins en partie, cette opinion.