Le Néolibéralisme et l’économie de marché.

Vendredi 2 juin 2006, par Paul Vaurs // Le Monde

L’économie de marché n’a jamais fonctionné sans organisations ni institutions. Pour faire fonctionner le marché, il faut connaître les caractéristiques de l’offre et obtenir des informations sur la demande afin de ne pas fixer les prix en aveugle, sur la nature et la qualité des produits. Les prix sont des « signaux » difficiles à interpréter : un apprentissage était nécessaire pour que les producteurs et les marchands en soient capables. Pour rendre le marché plus lisible et diminuer le risque, les opérateurs ont constitué des structures d’intermédiation, en un premier temps informelles, des réseaux de personnes. La construction de l’économie de marché au XIX° siècle, par établissement d’une continuité sociale de la consommation des produits et d’une continuité spatiale de leurs aires de vente, fut le résultat des efforts des producteurs et des intermédiaires. Les réseaux fondés sur la famille et une confiance développée par de longues relations mutuelles en ont été les principaux agents : réseaux d’information, de financement et de solidarité financière.

Ces réseaux combinaient la fonction commerciale, qui en raison des difficultés d’information et de la personnalisation des circuits de commercialisation dominait l’économie à l’époque proto-industrielle, et la fonction productive, sans qu’il soit toujours aisé de savoir à partir de quel pôle l’intégration se fit. Mais à long terme, dès la seconde moitié du XIX° siècle, l’évolution fut en faveur d’un pouvoir accru des industriels, assurant eux-mêmes la distribution ou affirmant leur individualité par les marques commerciales.

Les réseaux informels d’industriels et de négociants ont très tôt dans le XIX° siècle ressenti le besoin d’institutions. Celles-ci renforçaient la solidarité entre membres et permettaient de réaliser des économies sur les coûts d’information, en faisant un choix entre une concurrence qui utilisait les inégalités d’information comme arme, ou une mise en commun de l’information en partageant les coûts. Les entrepreneurs et négociants français ont ressenti un vide institutionnel au lendemain d’une révolution qui a rompu les corps intermédiaires qui structuraient les professions sous l’Ancien Régime. Ils se hâtèrent de réformer des institutions comme les chambres de commerce, dont une des fonctions était d’améliorer l’information sur les marchés intérieurs ou extérieurs, d’aider à la création de normes en matière de produits. Ces organisations professionnelles réduisaient le coût de l’information. Comme l’économie sur le coût d’information était d’autant plus grande que le marché envisagé était lointain, une situation d’équilibre instable s’établit dans la seconde moitié du XIXe siècle entre l’information sur les marchés étrangers, qui était mise en commun et dont le coût était partagé, et l’information sur le marché intérieur, qui était davantage laissée à l’initiative de chaque industriel ou marchand grossiste. Puisque l’information sur les marchés étrangers tendait à devenir un « bien public » - au sens de la théorie -, la logique incitait à faire supporter son coût par l’État, au travers des réseaux consulaires qui renseignaient sur les possibilités de vente dans les pays étrangers.

Facteurs de production et économie de marché au XIX° siècle.

L’hypothèse centrale de Polanyi était que l’économie de marché n’existe que pendant quelques décennies du XIX° siècle, où elle s’empare pour peu de temps du travail et de la monnaie. La pénurie ou l’abondance de main-d’œuvre expliquent grossièrement les différentiels importants de niveaux de salaires entre les États-Unis, la Grande-Bretagne, la France ou les pays d’Europe moyenne et méditerranéenne ; elles ont incité à adopter des méthodes de fabrication plus ou moins mécanisées de travail et consommatrices de capital. Mais les recherches montrent que le travail garde une spécificité ; l’expression « marchés du travail » est un raccourci de langage commode, qui ne saurait impliquer une assimilation à un marché de marchandises.

Les marchés du travail étaient très segmentés selon la qualification. Comme l’industrialisation dépréciait les qualifications anciennes et en exigeait d’autres, nouvelles ou rares, les entrepreneurs cherchaient à s’attacher la main-d’œuvre qu’ils formaient par des politiques de patronage qui contrariaient la formation d’un marché régional ou national fluide du travail. La dispersion régionale des salaires resta inchangée durant un siècle. L’ouvrier salarié de la grande industrie était minoritaire. Plus nombreux étaient les artisans des métiers, les travailleurs indépendants ou semi-indépendants, payés à façon par les donneurs d’ordres dont ils dépendaient. Les pratiques anciennes de rémunération subsistèrent durant tout le siècle dans la grande industrie où le passage de la rémunération de l’ouvrage réalisé, convenue d’avance, au salaire au temps ne se fit que lentement. L’amélioration des machines donna lieu à contestation : les patrons ne voulaient pas payer la même somme pour une tâche réalisée désormais plus vite alors que les ouvriers s’opposaient à toute baisse du « tarif ». La notion moderne du « salaire » mit la seconde moitié du siècle à s’imposer avec un contrôle croissant de l’activité des ateliers par les patrons. Elle fut alors vite soumise à une codification selon une nomenclature des professions, en même temps que l’État commençait à intervenir directement et indirectement dans le marché du travail.

La fin du XIX° siècle fut le moment où on s’approcha le plus d’un marché international des facteurs de production. Il existait de grands décalages entre les offres et les demandes nationales qui entraînaient des mouvements des hommes et des capitaux sans qu’aucune réglementation ne s’y opposât. Près de 40 millions d’Européens ont émigré outre-mer entre 1865 et 1915. La croissance démographique européenne créait un surplus de main-d’œuvre que la croissance industrielle n’était pas assez rapide pour employer. Les crises des agricultures européennes aggravèrent le sous-emploi. La baisse des coûts de transport permettait les migrations de masse. Dans les pays neufs, la main-d’œuvre faisait défaut et les salaires étaient élevés en raison de la productivité plus grande des agricultures extensives et du faible coût de la terre. En Asie, des migrations considérables eurent lieu à l’intérieur du continent même, vers l’Afrique de l’Est, vers les États-Unis. Les recherches ont pesé l’importance des facteurs d’attraction ou de répulsion et mis en valeur le rôle essentiel de la diffusion de l’information sur les conditions de travail et de vie dans les pays de destination. Ces migrations soutiennent l’hypothèse d’un marché mondial du travail où s’opérait une réallocation de la main-d’œuvre des pays à plus faible productivité et à plus faible niveau salarial vers les pays à plus forte productivité et à plus fort niveau salarial, en élevant la productivité moyenne de l’économie mondiale. Elles ne suffirent pas à amorcer une égalisation du coût du travail dans le monde.

Les entraves mises à l’immigration par le gouvernement américain dès le début des années 1920 freinèrent ces flux. D’importantes migrations jalonnent le XX° siècle : émigration vers la France dans les années 1920, migrations pour fuir le régime nazi, migrations devant l’avance de l’armée soviétique en 1945, puis de la partie Est de l’Allemagne vers l’Ouest, des pays méditerranéens vers les pays industriels occidentaux dans les années 1960 et 1970, des anciennes colonies vers les anciennes métropoles, du Mexique et des Caraïbes vers les États-Unis... Au XX° siècle, les raisons politiques, pèsent aussi lourd que les déterminants économiques ; les réglementations freinent la formation d’un marché international du travail tendant à rapprocher niveaux salariaux et législations sociales.

Un marché européen des capitaux existait dès le XVIII° siècle pour financer les dettes des États les plus dépensiers et les échanges de marchandises. Il reposait sur un réseau de relations personnelles et familiales entre négociants des principales places, Amsterdam, Londres, Paris... De nouveaux flux supposaient la mise en place d’un nouveau réseau, le déplacement des hommes, comme les banquiers suisses qui s’établirent à Paris dans les années 1780 pour trouver des placements pour les capitaux de leurs compatriotes. Mais ces flux de capitaux restaient limités, si on les mesure en pourcentage des P.N.B.

En revanche, au début du XX° siècle est arrivé à maturité un vaste marché international et libre des capitaux, qui servait à financer les États et surtout les investissements de transport, d’urbanisation, d’équipement industriel et de mise en valeur des ressources primaires dans le monde entier. En 1913, la valeur des actifs possédés à l’étranger par les sept principaux pays créanciers s’élevait à 108% de leur P.N.B., niveau qui ne sera plus atteint ensuite ; leurs exportations annuelles de capitaux atteignaient 5% de leur P.N.B. L’ampleur de ces flux permettait une relative intégration des marchés financiers et des marchés de l’argent. Les taux d’intérêt étaient interdépendants, sans que d’amples mouvements de capitaux à court terme ne viennent exercer un effet déstabilisateur - comme plus tard dans les années 1920. La stabilité de l’économie des grands pays industriels rendait en effet possible le fonctionnement d’un système de change à parité fixe.

Concurrence et économie de marché.

Si l’on définit l’économie de marché comme une économie de concurrence pure et parfaite où aucun agent n’a le pouvoir d’influer sur les prix, cette économie n’a jamais existé. Mais la théorie de la concurrence monopolistique ou imparfaite, développée dans l’entre-deux-guerres par Joan Robinson et Edward Hastings Chamberlin, introduit dans le fonctionnement du marché ces situations plus proches de la réalité. Ces développements théoriques ne sont pas sans rapport avec une évolution de la stratégie des entrepreneurs face au marché, d’une stratégie défensive à une stratégie de maîtrise.

Si les entrepreneurs ont, depuis le XVIII° siècle, toujours cherché à segmenter les marchés de produits par qualités différentes, par marques, par niches, afin d’augmenter leurs parts de marché, la logique de la concentration resta dominée jusqu’à la fin du XIX° siècle par le souci de diminuer les risques du marché, la vulnérabilité devant la fluctuation conjoncturelle. L’expérience leur a appris que dans les secteurs où la prévision de la demande était la plus difficile - les biens de consommation comme le textile, soumis aux effets de mode et sensibles aux fluctuations des revenus -, les grosses entreprises intégrées manquaient de souplesse et s’adaptaient mal. En revanche, la structure la plus souple et la plus résistante lors des crises qui revenaient avec régularité était un réseau d’entreprises dirigées par les différents membres d’une famille, capables de s’entraider, comme dans l’industrie textile du nord de la France ou de l’Alsace. La concentration à l’œuvre dès le milieu du XIXe siècle dans les secteurs comme l’extraction minière et la sidérurgie était davantage due aux difficultés de financer et d’amortir de lourds investissements qu’au désir d’acquérir un pouvoir sur le marché.

Les grandes entreprises à structure multidivisionnaire qui préfiguraient le XX° siècle, dans lesquelles à côté des départements de production les départements de gestion et de commercialisation gagnaient en importance, apparurent à la fin du XIX° siècle aux États-Unis non seulement dans les secteurs lourds pour améliorer les capacités de financement en période de dépression mais aussi dans les secteurs de biens de large consommation, comme la conserverie ou la fabrication des cigarettes. L’hypothèse d’Alfred Chandler est que cette nouvelle structure visait à remplacer la « main invisible du marché » par la « main visible des managers ». De même que les compagnies ferroviaires, les premières grandes entreprises avaient eu à résoudre principalement des problèmes de coordination. Elles essayaient d’organiser le marché en coordonnant les flux de marchandises, par exemple en ne laissant pas les dépôts régionaux fixer par tâtonnement leurs offres par rapport aux demandes locales mais en centralisant toutes les informations afin de répartir au mieux l’offre globale de produits parfois périssables, comme les produits alimentaires. Capables d’étendre leurs ventes en stimulant la demande, ces grandes entreprises n’ont sans doute pas été capables de remplacer les mécanismes du marché en les intériorisants. Au contraire elles n’ont pas restreint le jeu des mécanismes du marché ; leur objectif était plutôt d’en rendre le fonctionnement plus lisible afin d’en tirer profit.

Devant le caractère ambigu de la relation entre concentration et économie de marché, les deux pays où la concentration était la plus rapide à la fin du XIXe siècle ont pu adopter des législations divergentes. Aux États-Unis, la réaction contre des entreprises cherchant à monopoliser le marché à l’abri de législation de certains États qui leur étaient très favorables conduisit à l’adoption de plusieurs mesures antitrust à partir du Sherman Act de 1890. En Allemagne, où la tradition de l’organisation des professions restait vivace, le législateur, sensible aux avantages de l’organisation des marchés de produits par les ententes, fut au contraire très favorable à la cartellisation.

L’État est-il l’ennemi de l’économie de marché ?

Écrivant dans les années 1940, Polanyi pouvait avec raison avoir l’impression que les libres mécanismes du marché étaient irrémédiablement entravés par l’action de l’État non seulement dans les pays totalitaires, mais aussi dans les pays démocratiques où la crise avait révélé que l’économie de marché, loin de s’autoréguler, menait plutôt à l’anarchie économique et au désastre si les États n’intervenaient pas. L’horizon de pensée du libéral von Hayek ou de Schumpeter était le même : deux questions le résument. Toute planification, voire toute intervention de l’État, n’ouvre-t-elle pas la voie au totalitarisme qui est la négation de l’économie de marché ainsi que le pensent les néo-libéraux ? Ou bien l’économie de marché ne déstructure-t-elle pas la société, si elle n’est fortement encadrée ou tempérée par l’intervention de l’État ? La théorie keynésienne vint apporter la caution de l’efficacité économique au puissant courant qui, après 1945, voulut faire des sociétés occidentales des sociétés plus humaines et plus protégées, puisque les grands ajustements macro-économiques ne pouvaient se réaliser, selon elle, sans l’action de l’État. La programmation souple à la française ou l’économie sociale de marché à l’allemande sont caractéristiques de ce consensus des années 1950-1960 sur la nécessité non seulement que l’État corrige les excès de l’économie de marché pour maintenir la cohésion sociale, mais aussi qu’il en contrôle les mécanismes pour qu’ils fonctionnent bien et qu’une croissance optimale soit atteinte.

La problématique des années 1980-1990 est tout autre. Sur le terrain de l’efficacité économique, elle adopte une position contraire. En dehors de la masse monétaire dont il est convenu que les États doivent être capables de la maîtriser, un quasi-consensus se fait sur l’efficacité des mécanismes du marché pour réguler l’économie. Les points d’affrontement portent sur le degré de réglementation du marché du travail, entre ceux qui pensent que les rigidités institutionnelles à la baisse des salaires sont cause de chômage volontaire et ceux qui croient qu’un niveau minimal de ressources est un objectif important qu’un pays développé se doit d’assurer à sa population.

Le terme de néolibéralisme désigne le renouvellement des thèses économiques libérales à partir de la fin des années 1970.

Les théories économiques libérales s’étaient d’abord développées à l’intérieur de l’économie politique classique, dont les figures de proue furent Adam Smith et David Ricardo. Elles ont été prolongées tout au long du XX° siècle au sein du courant néoclassique. Des ses origines, ce courant est composé de nombreuses écoles. Les trois plus importantes sont : l’école de Lausanne, fondée par Léon Walras, l’école autrichienne, fondée par Karl Menger, et l’école anglaise, fondée par William Stanley Jevons. Au-delà des nuances non négligeables qui les caractérisent, le dénominateur commun des approches néoclassiques est de représenter le monde comme une somme de marchés interdépendants sur lesquels des agents économiques rationnels effectuent leurs calculs compte tenu de l’information dont ils disposent, celle-ci étant plus ou moins parfaite et véhiculée par le système de prix.

Les renouvellements de la théorie libérale se sont attachés à développer certains domaines de la théorie traditionnelle, ou à compléter les zones d’ombre laissées par les premiers libéraux néo-classiques dont les représentations manquaient souvent de réalisme. L’objectif des nouvelles théories est en premier lieu positif ; il vise à améliorer le caractère opérationnel de la théorie, c’est-à-dire à lui permettre de rendre compte de phénomènes observables non intégrés jusqu’alors dans les représentations théoriques. L’ambition est en deuxième lieu normative ; elle veut fournir les recommandations de politique économique jugées nécessaires pour enrayer le chômage et l’inflation caractéristiques des années 1970.

Les thèses néolibérales ont, en large partie, inspiré les politiques économiques appliqués par la plupart des pays occidentaux durant les deux dernières décennies du XX° siècle. Ces politiques ont elles-mêmes contribue à dessiner les contours des régimes de croissance économique qui caractérisent l’économie mondiale actuelle.

Les théories néolibérales ne constituent pas un ensemble parfaitement cohérent. Quatre courants, ayant exercé une influence particulière sur les politiques économiques pratiqués durant les années 1980 et 1990 peuvent être répertoriés. L’économie de l’offre a voulu développer une théorie de la dépense publique et du taux d’imposition optimal. Le monétarisme s’est focalisé sur les normes de croissance de la masse monétaire. Ce courant a tenté d’expliquer la persistance de rigidités de salaire et de prix sur les marchés. Le courant néo-institutionnaliste a cherché à produire une théorie générale des institutions ou structures de gouvernance observables dans l’économie.

L’économie de l’offre veut montrer que la part croissante prise par l’État dans l’économie compromet inévitablement le dynamisme économique. Cette omniprésence de l’État se manifeste par le poids des dépenses publiques dans le P.I.B., dont le caractère excessif est susceptible de produire deux effets pervers.

Le premier effet produit par la prise en charge de l’État est un effet d’éviction. Les dépenses et investissements publics ont tendance à remplacer les dépenses et investissements privés, dont l’efficacité est supposée meilleure car elle est guidée par l’incitation sélective, inhérente à la concurrence sur les marchés.

Le deuxième effet de l’accroissement des dépenses publiques est qu’elles tendent à augmenter indéfiniment le besoin de financement de l’État et se traduisent, au final, par un alourdissement continu de la ponction fiscale.

L’augmentation des impôts entraîne elle-même trois conséquences. D’abord, elle diminue l’incitation à travailler et à investir, ce qui laisse craindre un ralentissement de l’activité économique et de la croissance. Ensuite, elle favorise l’extension du travail au noir, qui échappe au fisc, ou encore l’évasion des hauts revenus vers des zones à fiscalité avantageuse. Enfin, les sources de l’épargne privée risquent de se tarir si la fiscalité sur le capital est trop lourde. L’insuffisance d’épargne raréfie alors le capital, ce qui en renchérit le coût ; les taux d’intérêt sont poussés à la hausse.

 Si l’économie se situe sur la pente descendante de la courbe, cela signifie que le taux d’imposition est trop élevé. L’investissement s’en trouve découragé, le travail au noir et l’évasion des capitaux favorisés, ce qui contribue à ralentir encore la croissance et donc les recettes fiscales. De même, si l’on considère que les anticipations des agents sont « rationnelles », qu’il prévoient les conséquences des mesures de politique économiques, toute augmentation des dépenses publiques suscitera un effondrement de l’incitation au travail, car les agents anticipent un futur alourdissement des prélèvements.

Pour les économistes de l’offre, la condition nécessaire pour relancer la croissance est de réduire les dépenses publiques. Cette mesure permet d’abaisser le taux d’imposition jusqu’à ce taux optimal capable d’encourager l’épargne et l’incitation au travail et de provoquer une reprise de l’investissement privé.

La réforme fiscale proposée repose sur une idée-force. Cette dernière consiste à réduire, voire à supprimer la progressivité de l’impôt. La progressivité de l’impôt signifie que la contribution fiscale d’une personne physique s’élève proportionnellement à mesure que son revenu augmente. Par exemple, des tranches marginales faibles pour les bas revenus, et fortes pour les hauts revenus, témoigneraient d’une forte progressivité. Pour les libéraux, les hauts revenus sont perçus comme la récompense du talent individuel et une gratification méritée de l’initiative privée. À ceux qui invoquent l’injustice ou l’iniquité, les économistes de l’offre répondent que la réduction de la progressivité de l’impôt ne peut, au final, que bénéficier à la communauté dans son ensemble. Les bénéficiaires de hauts revenus sont en effet ceux qui entreprennent et créent des richesses au bénéfice de tous, notamment en termes de créations d’emploi. Enfin, la condition sine qua non de l’investissement est la présence d’une épargne préalable, dont l’abondance réduit la rareté du capital et donc son coût, c’est-à-dire le taux d’intérêt. Il est donc irrationnel, dans cette perspective, de taxer les revenus dont la propension à épargner est forte.

La réforme fiscale radicale préconisée par les économistes de l’offre consiste à instaurer un taux d’imposition unique et réduit (estimé à 7% aux États-Unis) pour tous les revenus, sur la base d’une assiette élargie. Dans les faits, les réformes libérales effectivement mises en œuvre au cours des années 1980 et 1990 aux États-Unis et en Europe ont réduit le nombre de tranches d’imposition et leur taux marginal, diminuant ainsi la progressivité de l’impôt, tout en allégeant la fiscalité des sociétés.

Le monétarisme est la version moderne de la « théorie quantitative de la monnaie » de Irving Fisher (1867-1947), elle est fondatrice du point de vue libéral sur la monnaie. Cette théorie quantitative postule que la monnaie est neutre, c’est-à-dire que la variation de la masse monétaire n’exerce aucune influence sur la production et l’emploi.

Cette théorie opère une dichotomie entre la sphère monétaire et la sphère réelle. La production et l’emploi sont des grandeurs réelles qui ne dépendent que de leurs déterminants réels, et en premier lieu du prix relatif des biens échangés : un agent économique n’a aucune raison de demander un bien en quantité supplémentaire si son prix par rapport aux autres biens ne diminue pas. Dans la sphère réelle, ce sont des utilités marginales, exprimées en prix relatifs, qui règlent les échanges de biens et de services entre les agents. La monnaie ne sert que d’unité de compte. Elle n’exerce d’influence que sur le niveau général des prix et en aucun cas sur la structure des prix relatifs, celle à partir de laquelle les agents effectuent leurs calculs.

En transposant ce raisonnement sur le marché du travail, on en déduit que le niveau de l’emploi ne dépend que du coût réel du travail par rapport au coût du capital (les deux facteurs entrant dans la combinaison productive). Si ce coût relatif ne varie pas, l’économie se fixe spontanément sur le long terme à sa position d’équilibre. L’emploi ne peut augmenter (sous certaines conditions) que si le coût relatif du travail diminue par rapport au coût du capital. L’injection de monnaie n’exerce aucun effet sur le coût relatif des facteurs et donc sur l’emploi. Elle ne produit que des effets inflationnistes. D’où le théorème de Fisher : toute injection de monnaie exerce un effet nul sur la production mais un effet proportionnel sur le niveau général des prix.

Les théories monétaristes constituent le courant ayant eu l’influence la plus forte, tant sur le plan académique que sur le plan politique. Elles ont pour ambition d’actualiser la thèse quantitativiste traditionnelle tout en maintenant les propriétés des modèles néo-classiques, et en particulier l’hypothèse d’une neutralité de long terme de la monnaie. Au plan normatif, elles cherchent à démontrer l’inefficacité des politiques keynésiennes d’action par la demande globale. Celles-ci, pour avoir accru démesurément la quantité de monnaie en circulation (notamment en maintenant des taux d’intérêt réel négatifs ou en finançant les dépenses publiques par création monétaire) et alourdi le coût du travail, sont rendues responsables du chômage et de l’inflation caractéristiques des années 1970. Pour défaire rigoureusement les thèses keynésiennes, les monétaristes se devaient de fournir une explication à la corrélation, constatée durant les Trente Glorieuses, entre l’accroissement de la masse monétaire (consécutive à l’exécution des politiques keynésiennes de relance de la demande) et la croissance de l’emploi. Autrement dit, il fallait expliquer comment la monnaie, malgré sa neutralité de long terme, pouvait à court terme pénétrer la sphère réelle.

Un célèbre économiste de l’université de Chicago introduit certaines hypothèses essentielles qui seront ensuite longuement reprises et discutées dans la communauté des économistes, notamment par le courant dit des « nouveaux classiques ».

La première hypothèse est l’hypothèse du taux de chômage naturel (encore appelé chômage d’équilibre). Ce taux, défini comme le « taux de chômage qui n’accélère pas l’inflation », correspond à la position d’équilibre de long terme de l’économie. Il est stable et unique : il n’a aucune raison de bouger tant que la structure des prix et coûts relatifs ne se modifie pas dans l’économie.

La deuxième hypothèse porte sur les anticipations des agents ; elle concerne plus exactement les anticipations des travailleurs. Friedman développe sur ce point l’hypothèse d’anticipations adaptatives : contrairement aux entreprises, les ménages anticipent imparfaitement les effets d’une variation de la masse monétaire. Les entreprises savent que toute politique d’expansion monétaire (une baisse des taux d’intérêt par exemple) induit une augmentation proportionnelle du niveau général des prix, ce qu’ignorent les salariés. Ces derniers formulent leurs revendications salariales de façon adaptative, compte tenu de l’inflation (plus faible que l’inflation courante) constatée durant la période précédente.

Les travailleurs pensent avoir obtenu une augmentation de salaire, alors qu’ils sont victimes d’une illusion monétaire : l’augmentation du salaire nominal est plus faible que l’inflation courante. Il en résulte une baisse du coût relatif réel du travail (le salaire réel) par rapport au coût du capital. Les entreprises sont donc incitées à accroître le niveau de l’embauche, ce qui réduit le taux de chômage effectif en dessous de son taux « naturel ». Les politiques d’expansion monétaire ne peuvent fonctionner qu’en présence d’erreur d’anticipation des salariés. Ces derniers, ne percevant pas tout de suite qu’elles sont inflationnistes, ne réclament pas immédiatement l’indexation des salaires sur les prix. Le salaire réel baisse alors temporairement, provoquant l’embauche des entreprises. Mais au final, les salariés finiront par réclamer une indexation des salaires sur les prix effectifs. Le salaire réel retrouvera son niveau initial, engendrant un retour du taux de chômage à son taux « naturel » pour un niveau d’inflation supérieur. Les gouvernements peuvent certes tenter de maintenir le taux de chômage effectif en dessous de son taux naturel sur une succession de courts termes, mais cela ne peut se faire qu’au prix d’une accélération de l’inflation, sans effet au final sur l’emploi. C’est ce processus, enclenché par le « laxisme monétaire » des politiques keynésiennes des années 1960, qui expliquerait l’emballement inflationniste constaté durant les années 1970.

Le chômage est volontaire (il résulte du choix délibéré des agents lorsque le salaire proposé est jugé trop faible). Les agents anticipent parfaitement les effets inflationnistes des politiques d’expansion monétaire, qui n’opèrent même pas sur le court terme parce qu’elles sont anticipées par les travailleurs. Ces derniers indexent immédiatement leurs salaires sur l’inflation courante. La relance monétaire ne s’accompagne plus d’une baisse temporaire des salaires réels. Toute politique expansionniste d’inspiration keynésienne produit un effet nul dans la sphère réelle. On retrouve dans ces modèles les propriétés traditionnelles de neutralité à court et à long terme de la monnaie.

C’est pourquoi les politiques monétaires expansionnistes sont jugés inutiles et inflationnistes, donc nocives pour la valeur de la monnaie nationale et des actifs financiers. Mieux vaut respecter des règles de création monétaire stables puisque le « chômage naturel » dépend du coût relatif du travail et non de la quantité de monnaie en circulation. La lutte contre le chômage ne peut donc, ne passer que par une baisse du coût relatif du travail. Quant à la politique macro-économique, la règle d’or que proposent les monétaristes est de contrôler le rythme de progression de la masse monétaire en le faisan évoluer au même rythme que celui du P.I.B. Dans la réalité, les autorités ne peuvent que fixer des objectifs indicatifs sans véritablement contraindre la demande de crédit. Le contrôle de la masse monétaire s’avérant techniquement délicat, l’action monétaire passe essentiellement par la manipulation des taux d’intérêt à court terme.

Cette doctrine imprègne aujourd’hui l’action de nombre de gouverneurs de banques centrales, qu’elles soient indépendantes ou non. L’indépendance des banques centrales se situe cependant dans la logique du raisonnement monétariste : il vaut mieux dépolitiser la gestion de la monnaie et la confier à des décideurs indépendants qui ne seront pas tentés de manier la politique monétaire en fonction d’objectifs à court terme (notamment pour réduire temporairement le chômage effectif en dessous du taux naturel) et au gré des échéances électorales.

Dans tous ces modèles, le chômage est expliqué par un niveau excessif du salaire de ceux qui travaillent par rapport au salaire qui assurerait le plein-emploi. Ce chômage est supposé involontaire. C’est pourquoi certains protagonistes de ces travaux se définissent comme des néo-keynésiens. Leur conclusion est sensiblement différente des explications néo-classiques traditionnelles du chômage. Les rigidités salariales demeurent la cause du chômage. Mais, contrairement aux explications traditionnelles, les rigidités salariales ne sont pas la conséquence de causes exogènes irrationnelles (telles que l’influence sur les salaires des syndicats ou d’une législation sur le salaire minimal). Les rigidités sont ici endogènes (elles sont inhérentes au fonctionnement même d’un marché du travail imparfait) : en présence d’asymétries informationnelles (hypothèse jugée réaliste), ce sont les agents rationnels (employeurs et salariés) qui n’ont pas intérêt à une baisse des salaires. Ces modèles ont pour ambition de donner des fondements micro-économiques à l’hypothèse du chômage naturel, exposé antérieurement, dont ils contestent la nature volontaire.

Le courant néo-institutionnaliste regroupe un ensemble de travaux ayant pour objet l’explication des phénomènes institutionnels du capitalisme. Il est à l’origine des théories néo-libérales de l’entreprise. L’ouvrage d’Oliver Williamson (1985) tente d’en fournir la synthèse. Le postulat de départ est que l’économie n’est pas une somme de purs marchés, mais un ensemble d’institutions composées de marchés, d’organisations et de formes hybrides. Le courant néo-institutionnaliste cherche à aménager les hypothèses néo-classiques traditionnelles pour intégrer ces phénomènes observables que le Prix Nobel Ronald Coase invitait dès 1937 à ne pas négliger dans les représentations théoriques de l’économie.

Les politiques économiques néolibéraux.

Les considérations théoriques précédentes se retrouvent parfois dans l’argumentaire explicatif des politiques libérales à l’œuvre dans les deux dernières décennies du XXe siècle. Ces politiques ont reconnu la nécessité d’une ouverture des marchés de capitaux et, dans une moindre mesure, celle d’une ouverture du marché des biens et du marché du travail.

L’objectif des politiques néolibérales est de créer un environnement propice à l’afflux des mouvements de capitaux, source d’épargne disponible pour l’investissement. Les facteurs réputés susceptibles de créer un tel environnement sont présentés comme devant être les suivants : réduction du poids de l’État pour faire baisser les impôts, contrôle strict de l’évolution de la masse monétaire pour prévenir les anticipations inflationnistes, privatisation des monopoles publics pour asseoir des structures de droits de propriété capitalistes sur des marchés rendus concurrentiels, abaissement du coût du travail pour réduire le chômage structurel. Tels furent les piliers des politiques néolibérales qui se sont affirmées, avec des variantes selon les pays, durant les décennies de 1980 et de 1990.

En apparence cohérentes, les politiques néolibéraux n’ont pas toujours atteint leurs objectifs, elles se sont même avérées contradictoires les unes avec les autres lorsqu’elles furent appliquées simultanément.

Sous le premier mandat du président Reagan (1981-1984), les États-Unis ont ainsi éprouvé les difficultés de mener simultanément une politique monétariste en matière monétaire et une réduction des impôts obéissant aux préceptes des théories de l’offre. Les effets pervers du monétarisme se sont manifestés par une monnaie trop forte et des taux d’intérêt exorbitants qui, même s’ils ont attiré l’épargne spéculative mondiale, n’en ont pas moins déprimé l’investissement, les exportations, la croissance et l’emploi. Du coup, les rentrées fiscales firent défaut, d’autant que les baisses d’impôts bénéficiant aux entreprises et aux épargnants ne produisirent aucun effet, si ce n’est un creusement du déficit budgétaire.

Quant à la Grande-Bretagne, elle appliqua une politique monétaire similaire durant le premier mandat de Margaret Thatcher (1979-1983), qui avait choisi de retarder les baisses d’impôt pour ne pas creuser le déficit public. La croissance n’en fut pas moins contrainte par des taux d’intérêt excessifs et une monnaie surévaluée, ce qui provoqua la persistance d’un chômage important et ne permit pas d’enrayer le déclin industriel britannique, malgré la privatisation de nombreux monopoles publics.

L’Union européenne.

La plupart des pays membres de l’actuelle Union économique et monétaire (U.E.M.) adoptaient également durant la première moitié de la décennie 1990 la combinaison d’une politique monétaire restrictive et d’une politique budgétaire de réduction conjointe des dépenses publiques et des impôts. Dans le même temps, des directives structurelles assuraient la mise en œuvre de marchés concurrentiels : libéralisation des marchés de capitaux, harmonisation des conditions de la concurrence sur le marché des biens, incitations à la flexibilité des salaires et de l’emploi sur le marché du travail pour lutter contre le chômage.

Les difficultés rencontrées par les pays européens pour réduire le chômage et faire face au creusement des déficits sont essentiellement liées à une situation de croissance ralentie due à un processus de même nature que dans les cas anglo-saxons du début de la décennie 1980. La désinflation, la stabilité des monnaies européennes, des taux d’intérêt attractifs ont favorisé les placements financiers, mais ils ont réduit la demande de biens d’investissement et de consommation et désavantagé les industries exportatrices. La croissance atteignant alors rarement son taux potentiel (c’est-à-dire le taux de croissance permis par les capacités de production disponibles), cela a provoqué un déficit de rentrées fiscales au moment où se mettaient en place des réductions d’impôts bénéficiant à des catégories fortement contributrices. Dans le même temps, la multiplication des formes particulières d’emploi a certes accru la flexibilité du marché du travail, mais a rendu plus précaire la situation d’un nombre croissant de salariés.

Sans renier leur libéralisme en matière de flexibilité des marchés, les États-Unis depuis 1985 et la Grande-Bretagne depuis 1987 ont, à chaque signe de récession, renoncé au monétarisme, en réduisant substantiellement leurs taux d’intérêt, en dévaluant parfois leur monnaie et en faisant jouer au déficit budgétaire son rôle de soutien à la croissance. À la fin de la décennie de 1990, l’Europe a semblé prendre conscience des risques d’une croissance ralentie et financièrement instable. Un mouvement de baisse des taux d’intérêt s’est amorcé à la veille de l’entrée en vigueur de l’euro, tandis que commençait à poindre un débat portant sur la direction future de la politique budgétaire et fiscale communautaire ainsi que sur la régulation des marchés financiers.

Les régimes de croissance néo-libéraux.

Dans de nombreuses régions du monde, les politiques néo-libérales ont contribué à consolider un régime de croissance macro-économique qualifié de néo-libéral. Au cœur de ce régime d’accumulation se trouve la redéfinition du partage salaire profit en faveur des profits, à laquelle les politiques néolibéraux ont fortement contribué. En particulier, la réduction de la fiscalité pesant sur les entreprises, la désindexation des salaires sur les prix et une politique monétaire restrictive - les taux d’intérêt prohibitifs incitant au désendettement - ont autorisé ou incité les entreprises à restaurer leurs marges et leurs fonds propres. Ce mouvement n’a pas engendré une reprise significative de l’investissement et de l’emploi. Il a contribué à alimenter une épargne financière à caractère hautement spéculatif et extrêmement volatil.

Sur plan macro-économique, le régime de croissance est caractérisé par une inflation peu élevée, des taux d’investissement relativement bas et une consommation faible, alors que s’affirme une épargne excédentaire. Ces traits caractérisent l’économie européenne de la décennie 1990. Il en résulte une croissance structurellement faible et financièrement instable. Les marchés financiers sont certes dynamiques, mais ils sont menacés en permanence par un effondrement des cours, dû à un retournement des anticipations des gestionnaires de l’épargne, déplaçant leurs fonds d’une place financière à l’autre au jour le jour en fonction de critères de rentabilisation de très court terme. Cette volatilité est elle-même liée à une économie réelle où les perspectives des entreprises sont contraintes par un univers macro-économique ralenti.

Pérennité et disparité des zones économiques.

Pour réelle qu’elle soit, la mondialisation néo-libérale, qu’il faut entendre plus exactement comme la mise en place de la mobilité parfaite des capitaux, a néanmoins maintenu une partition du monde économique en trois zones. Cette triade, pour reprendre l’expression de Kenichi Ohmae, délimite les zones d’influence de trois monnaies, le dollar, le yen et l’euro, elles-mêmes arrimées à trois sphères réelles définissant le continent américain, le continent asiatique et l’Union européenne. Chacune de ces trois zones possède ses caractéristiques spécifiques. Au-delà de l’enchaînement macro-économique idéal typique propre au régime central d’accumulation néo-libéral décrit ci-dessus (duquel le cas européen se rapproche le plus), chaque zone rencontre des difficultés de nature distincte.

Aux États-Unis, l’instabilité chronique d’un tel régime de croissance, compte tenu de la volatilité des capitaux, a été bien comprise par les autorités monétaires à partir de la fin des années 1980 et, plus précisément, depuis la réunion des cinq pays les plus industrialisés à l’hôtel Plaza à New York en 1985. Chaque signe d’essoufflement de l’activité fait systématiquement l’objet, depuis lors, d’une prévention de la part des autorités monétaires américaines, prenant la forme d’une baisse des taux d’intérêt. Cette dernière soutient la consommation et l’investissement, a fortiori aux États-Unis où les agents qui n’épargnent pas sont extrêmement sensibles au coût de l’endettement. Elle peut également provoquer une légère dépréciation du dollar, qui aura pour avantage de stimuler les exportations. Au total, en dehors des inégalités sociales caractéristiques du modèle anglo-saxon, la situation américaine paraît « saine » en raison du pragmatisme monétaire des autorités. Les contraintes financières de court terme, imposés par les actionnaires aux projets industriels, les endettements d’une part croissante d’agents économiques et un déficit commercial chronique font néanmoins peser la menace d’un retournement possible.

L’Amérique latine a connu un processus de « libéralisation » sur tous les marchés. Les marchés financiers ont été déréglementés, les dépenses publiques ont été rationalisées, avec privatisations et suppressions de subventions, les barrières tarifaires on été fortement réduites. La situation latino-américaine se caractérise par des taux d’investissement et d’épargne peu dynamiques. En particulier, la faiblesse de l’investissement ne garantit pas un profit suffisant, ce qui pousse les entreprises à comprimer la part des salaires dans la valeur ajoutée et à « rationaliser » l’emploi pour améliorer la productivité du travail et réduire le coût salarial unitaire. La faiblesse des profits industriels est compensée par une « financiarisation » accrue des entreprises, rendant la rentabilité du capital sensible à la volatilité des marchés financiers. Cette volatilité est d’autant plus importante que la faiblesse des taux d’investissement n’améliore pas la compétitivité intérieure et extérieure des entreprises dans la concurrence internationale. La croissance est elle-même compromise par des politiques monétaire et budgétaire restrictives, que certains pays se sont engagés à poursuivre en contrepartie des aides du Fonds monétaire international. Le remboursement de la dette publique et extérieure se trouve ainsi compromis, et provoque de nouvelles vagues spéculatives contre les monnaies de la zone latino-américaine, à l’instar de la secousse boursière brésilienne de janvier 1999.

En Asie, le boom des années 1980 puis la crise financière de 1997-1998 ne trouve pas son origine sur le marché financier. Les entreprises ne se sont pas adressées aux marchés financiers, qui auraient ensuite sanctionné les mauvais placements. Elles ont financé leurs projets d’investissements en empruntant à des banques qui, au mépris des règles prudentielles, ont accordé des prêts sans compter. Ces projets ont alimenté un surinvestissement par rapport à la capacité d’absorption du marché asiatique. À l’occasion d’une crise immobilière en Thaïlande, les banques, insuffisamment capitalisées et porteuses de créances douteuses, se sont trouvées en état de cessation de paiement. Une spéculation contre le bath thaïlandais se produisit immédiatement (juillet 1997), entraînant une dévaluation de l’ensemble des monnaies de la zone.

Le Japon a particulièrement souffert de cette crise, qui a entraîné la diminution du pouvoir d’achat des pays appartenant à sa zone d’influence économique. Malgré des taux d’intérêt quasi nuls et nombre de plans de relance budgétaire, les pertes de débouchés extérieurs dans le Sud-Est asiatique ont difficilement été remplacées par la stimulation d’un marché intérieur trop étroit.

Les théories néo-libérales sont progressivement devenues dominantes dans la perception de la réalité économique. Elles ont produit des recommandations appliquées sous des formes diverses par les gouvernements. Le régime de croissance néo-libéral qui s’est installé dans certaines régions du monde est caractérisé par une croissance ralentie, financièrement instable et porteuse d’une épargne à caractère fortement spéculatif. La persistance du chômage et les risques financiers, incitent désormais les gouvernements, les institutions économiques internationales et les économistes à rechercher les voies d’une nouvelle régulation des marchés pour maîtriser les risques liés à la volatilité de l’épargne mondiale. Dans le même temps, le commencement du troisième millénaire pourrait être marqué par la résurgence d’une réflexion autour de la mise en œuvre, coordonnée à l’échelle supranationale, de politiques monétaire et budgétaire de soutien à la croissance.

Répondre à cet article