Recherche


Qui est en ligne

Nous avons 975 invités et aucun membre en ligne

Flux RSS

Copyright Joomla

Copyright © 2017 PCF Bassin Arcachon - Tous droits réservés
Joomla! est un Logiciel Libre diffusé sous licence GNU General Public

Economie 2017

L’économie est-elle une science ?

 

Jacques SapirPar  · 

 

La question de la scientificité de la science économique a donné lieu à de nombreux débats, de virulentes polémiques. Robert Shiller s’interrogeait il y a peu dans la presse sur la question de savoir si l’économie était une science[1]. Il y a de cela près de vingt ans, en 1999, deux éminents collègues, Antoine d’Autume et Jean Cartelier s’interrogeaient quand à eux pour savoir si l’économie pouvait tendre vers une « science dure »[2]. On peut, par ailleurs s’interroger sur la signification des sciences dites « dures » et, de ce point de vue, l’auteur du présent texte préfère de loin l’opposition entre sciences de la nature et sciences sociales, qui lui semble bien plus préférable. Il n’en reste pas moins que le problème est posé.

Pour tenter de clarifier les choses, ont va dans le texte qui suit explorer ce qu’est une science quand elle a à traiter de conjectures complexes et imbriquées, mais aussi des problème de la testabilité et de la scientificité, en abordant de manière critique de leg de Karl Popper. Cela permettra, du moins on l’espère, de redéfinir ce que devrait être une méthodologie opératoire pour définir non pas si l’économie est une science mais à quelles conditions les économistes peuvent avoir une pratique véritablement scientifique.

 

La question de la méthodologie

 

Soutenir que la méthodologie est importante, et qu’elle représente un pan de l’activité scientifique auquel on ne peut renoncer sans renoncer à la démarche scientifique elle-même, nous entraîne sur un autre terrain, celui de la vérification de conjecture et de leur testabilité. Le problème est ici particulièrement délicat en économie, et l’un des raisons en est la nature de conjectures utilisées.

 

Ceci va nous permettre d’aborder d’une part le fait qu’en économie on est le plus souvent confrontés à des conjectures complexes et, ensuite, de pouvoir discuter des critères de scientificité que l’on peut utiliser en économie.

 

Conjectures complexes et testabilité

 

Un exemple sur un des grands problèmes traité par l’économie va permettre d’illustrer le problème posé par les conjectures complexes et par la testabilité des dites conjectures. Un énoncé classique nous en donne un exemple. Pour un grand nombre de collègues il est évident que « L’inflation est partout et toujours un phénomène monétaire » [3]. Ce qui était conjecture autrefois est devenu aujourd’hui un dogme car, nous dit-on, largement prouvée par maintes études économétriques. La peur de passer pour un attardé s’efforçant de réinventer la roue est souvent suffisante pour clore sur ce point la discussion. Pourtant, les choses sont bien moins évidentes qu’on ne l’affirme. Outre quelques doutes que l’on peut avoir sur les travaux économétriques eux mêmes, le passage d’une observation à une affirmation devrait faire sourciller tout esprit un peu critique.

 

Cet énoncé, pourtant, vaut mieux que sa mythification ou son rejet pur et simple; il fonctionne en réalité comme les poupées russes emboîtées, et le processus de démontage de l’ensemble est hautement instructif quant aux fondements de l’économie. Soutenir l’existence d’un lien étroit et mécanique entre les variations de la masse monétaire et celles des prix revient à affirmer deux choses différentes, car en vérité on se repose sur une autre conjecture qui peut ainsi s’énoncer: les agents ont des comportements tels qu’un accroissement de moyens de paiement, toutes choses égales par ailleurs, nous conduit à la dévalorisation de ces moyens en comparaison du stock de biens et de services disponibles. Ce qu’il faut alors élucider c’est l’origine de ces comportements. Soit, donc, on affirme qu’ils sont donnés aux agents économiques. Dans ce cas l’énoncé initial n’est rien d’autre qu’une conséquence d’une hypothèse sur des caractéristiques immanentes à la nature humaine. Il existe un personnage, l’homo economicus, programmé de telle manière que, effectivement, un accroissement de l’offre de moyen de paiement entraînera une hausse des prix. Soit on affirme que ces comportements sont déterminés par le cadre institutionnel et le contexte dans lequel les agents se meuvent. Alors, l’énoncé initial n’a de validité que dans le cas où ces institutions, et ce contexte, sont réellement réunies. Cette distinction est extrêmement importante pour l’interprétation des résultats des tests économétriques.

 

Dans le premier cas, l’établissement d’une et une seule relation entre monnaie et inflation suffit pour valider l’énoncé initial. Dans le deuxième au contraire, il faudrait établir cette relation pour la totalité des configurations institutionnelles existantes, passées et à venir, pour qu’il y ait validation. A défaut de tester chaque de ces deux hypothèses sur les comportements, l’établissement d’une relation entre monnaie et prix renvoie à une indétermination théorique. En tous les cas, cette relation ne peut certainement pas permettre de trancher entre les hypothèses de comportement.

 

Cet exemple permet de montrer un point fondamental pour la compréhension du discours économique. Il repose presque toujours sur des conjectures complexes ou emboîtées qui ne sont donc jamais directement testables. Pour pouvoir avancer, il nous faut donc désemboîter les conjectures, les déconstruire. Alors est-il possible d’en tester certaines, et on verra par la suite que c’est le cas avec les hypothèses de comportement des agents. Mais cette possibilité est elle-même limitée. La testabilité des conjectures, dans un domaine ayant trait aux activités humaines, est toujours mise en cause par la multiplicité des paramètres et la nature de ces derniers.

 

Quand un enseignant en économie prononce devant ses élèves ou étudiants l’expression consacrée « toutes choses étant égales par ailleurs » [4], il ne fait que nier, à des fins pédagogiques ou démonstratives, cette multiplicité. Il suppose en effet que l’on puisse, dans les activités humaines, modifier un paramètre sans que l’ensemble des relations en soit affecté. Autrement dit que les opérateurs humains cessent de s’interroger sur leur propre futur et de se demander ce que pourrait impliquer pour eux un tel changement. Écrivant cela, on ne récuse pas d’emblée la modélisation, qui repose bien entendu sur cette clause « toutes choses étant égales par ailleurs ». Comme outil pédagogique, elle a bien des attraits. Mais, s’il faut utiliser une comparaison, un modèle n’est jamais qu’un simulateur. Et tout pilote qui s’entraîne sur un simulateur sait que le vol réel peut lui réserver bien des surprises, aussi perfectionnée que soit la machine dans laquelle il s’entraîne. La distinction entre un formalisme mathématique assis sur une axiomatique rigoureuse, et une approche permettant de rendre opérationnels des résultats, a fait l’objet d’un certain nombre de travaux en économie[5]. Ce qui est en cause ici, c’est le passage de la pédagogie à la démonstration. Il n’est d’ailleurs pas innocent que l’on puisse glisser aussi facilement du registre de l’enseignement à celui de la discussion et de la conviction. Dans une démonstration, on prétend emporter l’adhésion de ses égaux, alors que dans un enseignement on transmet dans un cadre hiérarchique des propositions que l’on est en droit de simplifier à loisir. User des méthodes de la pédagogie là où il y a discussion, c’est implicitement nier l’égalité initiale des statuts, et donc subvertir le principe même de la discussion.

 

Il convient, ensuite, de prendre en compte la nature des paramètres utilisés. Les statistiques économiques sont parfois des animaux bien étranges et bien malicieux pour celui qui n’y prend garde. un simple exemple permettra de saisir l’ampleur du problème. Imaginons un pays dont les habitants, à la période initiale, produisent deux biens. le premier sert à leur consommation alimentaire, et il est produit dans le cadre d’exploitations familiales et non commercialisé. Le second est entièrement vendu à l’étranger et sert à payer les autres dépenses. Supposons que, dans une seconde période, les habitants de ce pays, considérant les prix relatifs de ces deux bien sur le marché mondial, décident de ne plus produire que le second, et d’acheter aussi à l’étranger leur consommation alimentaire. Si on calcule le PIB de ce pays, on mesurera une forte croissance de la première à la deuxième période, sans que cela implique que la richesse réelle du pays ait augmenté dans les faits. Le paradoxe vient de ce que le PIB (ou le PNB) ne mesure que la production commercialisée. Imaginons maintenant que, au lieu de deux périodes, nous ayons deux pays différents. Le premier, celui où une large partie de la production est autoconsommée, apparaîtra dans les statistiques internationales, comme bien plus pauvre que le second. Et l’économiste, qui voudrait mesurer ce que l’ouverture sur le marché mondial apporte en richesse aux économies nationales pourra conclure, s’il n’y fait garde, que cet exemple prouve indiscutablement les bienfaits de l’ouverture.

 

Il faut donc se souvenir en permanence, quand on parle de tests économétriques, de “preuves” statistiques, que les statistiques ne sont pas la réalité, mais une traduction normalisée de la réalité. Elles ne sont pas, non plus, une pure manifestation de l’imagination du statisticien, personnage en réalité plus honnête qu’on ne le croit, et que les économistes ne veulent l’admettre.

 

Mais, elles ne font que traduire une certaine réalité en fonction d’une norme donnée. La question qu’il faut toujours se poser est de savoir si la norme utilisée a un sens compte tenu de la réalité que l’on veut traduire. Pour des pays dont le niveau de commercialisation des activités productives est comparable, il n’y a aucun danger à user du PIB. Mais, si les structures sociales et économiques sont hétérogènes, alors la question de la norme de traduction devient essentielle.

 

Or, l’utilisation des statistiques économiques comme “preuves” implique que l’on se livre à des comparaisons étendues, pour que les résultats soient généralisables. On est donc obligé, d’emblée, d’inclure des situations fortement hétérogènes.

 

 Critères de scientificité

 

Arrivé en ce point, il serait facile d’en déduire le non-lieu scientifique de l’économie. Mais une telle proposition, dont on peut comprendre les origines quand on observe à quel point le discours économique est instrumentalisé pour dire une chose et son contraire, repose en réalité sur une illusion: serait scientifique ce qui produirait de la Vérité. Or, et au contraire de la tradition issue de Karl Popper, il est difficilement admissible de croire en une progression régulière sur la base de l’interaction entre des conjectures réfutables et des expériences pertinentes[6]. De ce point de vue, la tradition méthodologique de l’économie standard ou dominante est lourdement fautive.

 

Les économistes néoclassiques se sont, dans leur grande majorité, ralliés dès 1938 aux thèses de Karl Popper[7]. Ils ont voulu chercher dans le principe de réfutation, le falsificationisme, une garantie de scientificité. La démarche de Popper est en effet attrayante au premier abord pour une économie découvrant les délices de l’économétrie et supposant qu’elle pourrait bientôt tester la totalité de ses conjectures. Ceci permettait aussi d’esquiver le débat sur le réalisme des hypothèses initiales, débat porté par les courants contestataires qu’ils soient institutionnalistes ou marxistes. Enfin, cette démarche était cohérente avec le parti-pris de rigueur axiomatique introduit par Walras à la fin du XIXème siècle [8]. La référence à Popper va rester un point obligé pour les quelques économistes de ce courant intervenant dans le domaine de la méthodologie[9]. Le modèle visé étant ici la science physique[10], avec en particulier la proposition de Paul Samuelson de prendre comme base de départ l’hypothèse ergodique[11], et l’objectif affiché celui d’obtenir pour l’économie le statut d’une science « dure »[12]. Dans le même temps, elle fonde l’instrumentalisme de Milton Friedman, qui récuse d’emblée tout débat sur le réalisme des hypothèses[13]. On passe alors, pour reprendre la formule de Bruce Caldwell à un empirisme logique qui succède au positivisme logique[14]. Cet instrumentalisme va se retrouver en dehors même du courant néoclassique; Oliver Williamson, l’un des « pères » du néo-institutionnalisme va ainsi encore prétendre en 1985 que le caractère potentiellement falsifiable d’une conjecture est plus important que son réalisme[15].

 

Le falsificationisme poppérien soulève cependant plus de problèmes qu’il ne peut en résoudre. Il se heurte tout d’abord à la conjecture de Duhem et Quine[16]. Cette dernière est particulièrement importante dans le cas qui nous conerne. Pour que la testabilité soit robuste au sens de Popper, il faudrait que l’on puisse tester les conjectures seules et que les méthodes d’évaluation des résultats ne soient dépendantes de la théorie que l’on veut tester. Ceci est très exactement le problème que l’on a évoqué à propos des sources de l’inflation. Ce problème, déjà important en physique, devient rédhibitoire en économie où les agrégats utilisés pour quantifier ne font que normaliser une réalité à partir de conjectures théoriques implicites[17]. Un second problème tient à la nature des prévisions par rapport au mode de testabilité. Dans la grande majorité des cas les prévisions sont qualitatives (la création monétaire est source d’inflation), alors que la vérification est quantitative[18]. Un troisième tient à la manière même dont Popper utilise la réfutation et la falsification. Pour lui la falsification doit engendrer un rapprochement des théories avec la réalité, et le progrès théorique doit se mesurer à la capacité à expliquer des faits nouveaux. Or, non seulement Popper lui-même admet que le premier critère est invalidable[19], mais de plus l’économie vérifie toujours ses conjectures sur des événements passés[20].

 

Dans ces conditions, on ne doit pas s’étonner d’une très large remise en cause de l’applicabilité de la méthodologie poppérienne[21].

 

Les limites de cette méthodologie ont entraîné un certain nombre d’économistes qui refusent d’abandonner l’empirisme logique à se pencher vers l’œuvre de Imre Lakatos[22]. Ce dernier propose de mettre l’accent sur des programmes de recherche qui seraient définis par un noyau dur d’hypothèses, réputées infalsifiables, et une ceinture protectrice d’hypothèses, elles falsifiables et réfutables, et pouvant être remplacées. La cohérence, et la scientificité d’un tel programme de recherche découlant de la capacité du noyau dur à engendrer des prévisions et de sa cohérence interne. Lakatos appelle ainsi dégénérescence d’un programme l’introduction, au sein du noyau dur, d’hypothèses ad-hoc.

 

Une telle démarche présente tout à la fois des différences substantielles et des ressemblances avec celle de Popper. La notion de noyau dur, l’idée que le progrès scientifique puisse venir de la corroboration de conjectures et non de leur réfutation marquent les différences. Néanmoins, l’accent mis sur la testabilité, ou la falsification, ainsi que l’idée de prévision, renvoient clairement au cadre poppérien.

 

Les économistes du courant standard, ou « mainstream », ont rapidement vu l’intérêt d’une telle approche. Le noyau dur du programme de recherche qualifié alors de scientifique (ce qui implique que les autres ne le sont pas…) est alors caractérisé par la théorie des préférences de l’agent, l’hypothèse d’individualisme méthodologique et la maximisation sous contrainte[23]. La définition d’un tel noyau dur est cependant loin d’être facile, compte tenu des tensions internes de ce courant[24].

 

Néanmoins, avant même que ces économistes aient commencé à se référer explicitement à la démarche de Lakatos, d’autres travaux en avaient montré les limites. Ainsi, on peut considérer que la part poppérienne chez Lakatos est tout aussi vulnérable que Popper lui-même au problème de Duhem-Quine, comme le montre l’impossibilité par exemple de trancher entre un programme de recherches monétariste ou keynésien sur la base des critères proposés par Lakatos[25]. Il faut aussi ajouter que, comme signalé à propos de Popper, le fait de l’économie procède par relecture successive de problèmes et d’événements et non par prévision et prédiction, rend inapplicable la méthodologie proposée par Lakatos[26]. Par ailleurs, si on applique cette méthodologie au courant dominant en économie, il est clair que ce dernier a procédé, depuis la fin des années soixante-dix, à l’introduction d’un certain nombre d’hypothèses ad-hoc dans son noyau dur, comme la prise en compte des institutions. En ce sens, on pourrait soutenir que, du point de vue de la démarche de Lakatos, le programme de recherche du courant standard ou mainstream est effectivement dégénéré.

 

Dans ces conditions, le constat d’une crise méthodologique au sein du courant dominant semble devoir être évident. Sheila Dow montre[27], dans une récente recension, que les différents auteurs du « mainstream » s’opposent désormais entre un camp se réfugiant dans une axiomatique irréaliste, dans la tradition ouverte par Friedman en 1953, et un autre recourant à l’empirisme, mais sans garde-fous si ce n’est que techniques en matière de procédures de vérifications[28]. Dans un tel contexte, on comprend alors l’intérêt que suscitent au sein de ce courant les théories déniant toute importance à la méthodologie, qu’il s’agisse des thèses sur la pure dimension rhétorique de l’économie, défendue par McCloskey, ou des positions de type post-moderne se réfugiant dans l’hyper-critique[29].

 

Or, ces deux approches ont pour effet immédiat de transformer l’économie en pure apologétique. Les thèses de McCloskey sur la dimension rhétorique soulèvent un problème réel. Il serait naïf de nier une dimension rhétorique au discours économique. Il n’en reste pas moins qu’en en faisant la seule dimension possible, il aboutit à cette merveilleuse thèse panglossienne que, les bonnes conjectures étant les plus convaincantes, la majorité a toujours raison car elle a été convaincue. Peut-être est-il bon, alors, de rappeler cette citation de W. Jevons, que tout chercheur en sciences sociales se devrait de connaître par cœur :

 

« Un calme despotique est le triomphe de l’erreur; dans la République des Sciences, la sédition et même l’anarchie sont dans le long terme favorables au plus grand bonheur du plus grand nombre » [30].

 

Il n’en reste pas moins cependant que, si la constante remise en cause des idées dominantes est nécessaire, il doit y avoir débat et non vacarme. Une situation où tout pourrait être soutenu sans conséquences, car sans procédures de vérification, ne serait pas moins despotique qu’un calme imposé par une main de fer despotique. Un débat sans procédures est un débat sans enjeu; ce n’est plus un débat. Voici donc à quel désastre pourrait aboutir la diffusion des thèses post-modernes, une dictature non moins dangereuse que celle du despote visible, au règne duquel le tyrannicide peut au moins mettre fin.

 

Refuser des procédures de vérifications au prétexte qu’elles sont imparfaites est un comportement qui relève de l’infantilisme. Il faut se pencher sur les méthodes permettant de limiter les imperfections, et d’améliorer les procédures, même si l’on sait que la perfection est un objectif hors d’atteinte. Depuis des millénaires, les médecins finissent par perdre leur bataille contre la maladie; leurs malades finissent bien par mourir. Ils n’en n’ont pas pour autant décidé que la médecine était une activité sans objet puisque son triomphe ultime, l’immortalité, était hors de portée. C’est le fond de la condition humaine que de mener des batailles qui sont le plus souvent perdues, ou qui au mieux n’engendrent que des succès temporaires et limités. Ce n’est pas pour autant qu’il faut cesser de se battre.

 

Pour une nouvelle méthodologie économique

 

Le processus de la recherche scientifique est donc d’une toute autre complexité que les simplifications positivistes ou post-modernistes dans lesquelles les économistes du courant dominant se réfugient actuellement. Ce comportement, qui s’allie à un mépris implicite ou affiché pour les questions de méthodologie, est une caractéristique de la décadence d’une certaine économie. Toute activité à vocation scientifique qui s’avère incapable de débattre des conditions de vérification de sa pratique se nie elle-même.

 

La robustesse d’un fait scientifique résulte, comme le rappelle opportunément Michel Callon, d’un alliage entre des réseaux humains, des pratiques reconnues, un intérêt de la part d’un utilisateur potentiel. Cette robustesse est donc forcément temporaire, toujours susceptible d’être minée par le doute quand les réseaux se décomposent et se transforment, les pratiques évoluent, les intérêts se déplacent[31]. Une partie de l’incompréhension engendrée par le statut des résultats en économie, vérités révélées ou simples affirmations idéologiques, tient dans les illusions qu’engendre l’aveuglement volontaire sur les modes de vérifications. Pour en sortir, il faut accepter la séparation radicale entre le statut d’une discipline dans la typologie générale des sciences, et la nature des pratiques des chercheurs opérant au sein de cette discipline. Savoir si, oui ou non, l’économie peut prétendre au statut de science dite « dure » n’a en réalité aucun intérêt, si ce n’est, mais dans un autre contexte, celui de valoriser l’économiste dans ses relations avec le décideur politique. Par contre, la question des pratiques des économistes est, elle, absolument fondamentale.

 

Critères de repérage

 

Un regard rétrospectif sur l’épistémologie de Keynes s’avère ici nécessaire si on veut pratiquer de manière efficace la distinction entre science et pratique scientifique[32]. En économie, la part des « évidences disponibles », c’est à dire des énoncés qui font si ce n’est l’unanimité de la profession, du moins qui sont admis par un grand nombre de chercheurs, jouent un rôle déterminant[33]. La controverse, et l’on retrouve ici un thème cher à Michel Callon, devient un élément décisif de la vérification de la pratique scientifique.

 

Cette controverse, et l’histoire des controverses passées, permet de séparer le poids d’un énoncé de sa probabilité. Par poids, il faut entendre, à la suite de Keynes lui-même[34], la quantité d’évidences disponibles pertinentes à un argument donné, et leur cohérence réciproque. Soutenir ainsi un énoncé par des évidences disponibles issues de champs méthodologiques opposés diminue au lieu de l’accroître le poids de l’énoncé. La probabilité d’un énoncé renvoie quant à elle au degré de vérification des évidences disponibles. Avoir une démarche scientifique, pour un économiste, ne peut donc signifier n’émettre que des conjectures testables et vérifiables. A ce compte, il serait silencieux la plupart du temps. Cela veut dire dans un premier temps évaluer, par les controverses présentes et passées, le poids des énoncés dont il se sert ou qu’il veut réfuter. Puis, quand il le peut, soumettre les évidences disponibles à l’épreuve de la vérification, tout en sachant que, du fait même de la nature de la discipline, cette dernière ne peut être que limitée et imparfaite. La vérification joue donc ici moins le rôle de l’établissement d’une preuve que de l’invalidation de certaines conjectures.

 

Si l’énoncé A, repose strictement[35] sur les évidences x, y, z, qui elles mêmes sont liées à des conjectures a, b et g, et que l’une de ces conjectures soit testable, la validation de l’une ne prouverait pas l’énoncé, mais l’invalidation de l’une serait suffisante pour amener au rejet de l’énoncé. Se plier à cette discipline ne garantit nullement que les résultats soient « vrais », mais établit la distinction entre une pratique scientifique de l’économie et une pratique idéologique, où les énoncés visent d’abord et avant tout à justifier des options métaphysiques ou politiques sous-jacentes[36]. Pour s’orienter au sein des controverses, des modes de repérages sont nécessaires pour déterminer quelles sont les évidences disponibles compatibles et celles qui ne le sont point. La question de la définition d’une orthodoxie (et par là même de diverses hétérodoxies) est à cet égard secondaire. Dans les rapports de force au sein d’une discipline largement institutionnalisée, ces distinctions sont importantes. Mais le lecteur de ce livre n’a pas, a-priori, à être concerné par les querelles intestines de la profession. Par contre, bien comprendre ce qui oppose sur le fond des courants qui sont par ailleurs riches et divers, est dans notre contexte, primordial.

 

Un mode de repérage a déjà été proposé au moment de l’affirmation de l’École des Conventions[37]. Il permet, à partir des deux axes constitués par le choix du mode de rationalité (maximisatrice ou procédurale) et par la place accordée aux notions de marché et d’organisation, de dégager des oppositions instructives entre ce qui est qualifié de Théorie Standard (i.e. la théorie de l’équilibre générale dans ses présentations les plus traditionnelles), les modifications progressives apportées par l’élargissement du programme de recherches de cette Théorie Standard, et différentes hétérodoxies. Pour élégant qu’il soit, en particulier dans sa discrimination entre les différentes formes de ce qui y est appelé la Théorie Standard, ce repérage souffre de deux défauts. Il est construit sur des objets (ou plus exactement des oppositions entre objets) et non sur des fondements de démarche, et il est muet quant aux délimitations des Théories Non-Standard. De manière à peu près contemporaine, des critères plus fondamentaux ont été proposés autour des notions de réalisme [38], et de l’opposition entre événement et processus [39].

 

Le réalisme processuel

La question du réalisme est centrale; elle fait rupture avec l’instrumentalisme défendu par M. Friedman. On est ici en présence d’un problème qui dépasse de loin l’économie et concerne la totalité des sciences sociales. Ce n’est certainement pas un hasard si l’importance du réalisme, d’un point de vue méthodologique, a été soulignée à partir de l’histoire sociale[40]. L’application de cette notion en économie a été tout autant négative que positive. Dans le versant négatif, elle permet d’articuler une critique ravageuse contre l’instrumentalisme[41], critique qui touche non seulement les monétaristes et les partisans des anticipations rationnelles, mais un grand nombre de positions de l’économie dominante, y compris le néo-institutionnalisme à la Williamson. Elle a un versant positif, en ce qu’elle décrit une approche qui, rompant avec l’empirisme logique, articule les niveaux d’abstraction[42].

On trouve ainsi chez Uskali Mäki la distinction entre le « réalisme par rapport au monde » (ou World realism), qui implique qu’une théorie économique ait pour objet la compréhension du monde tel qu’il est (et non tel que l’on souhaiterait qu’il fût), et le « réalisme de vérité » (ou Truth realism), qui implique que l’on juge d’une théorie dans sa confrontation au monde et pas seulement sur ses critères de cohérence interne ou de conformité aux axiomes initiaux[43]. Le critère de Mäki soulève bien entendu le problème de ce que l’on considère comme le « monde objectif ». Il est indiscutable qu’il peut donner lieu à une dérive positiviste. Si on l’interprète en terme de contexte, intégrant donc non seulement les institutions, mais aussi l’état des sciences et techniques et surtout l’ensemble des représentations que les acteurs ont, et d’eux-mêmes et des autres, et de leur position propre et du monde dans lequel ils se meuvent, la notion de « monde » ressemble plus à ce qu’une tradition française de lutte contre le positivisme a enseigné. Néanmoins, on peut déjà constater que le « réalisme de vérité » marque une opposition nette avec les approches instrumentales. En ce sens, il y a parallélisme entre ce que propose Mäki et la nécessité invoquée il y a peu de revenir à un contenu descriptif fort contre les stratégies purement axiomatiques qui n’ont en fait d’autre but que d’immuniser celui qui les emplois contre les rencontres dérangeantes avec le monde réel[44].

Le second critère permet par ailleurs de corriger les possibles dérives engendrées par le premier. Lawson[45], oppose ainsi, à l’intérieur du critère de « réalisme de vérité », la démarche où la vérification se fait à partir d’événement et celle où elle se fait sur la base d’une explicitation des processus, et donc des relations causales, qui ont donné naissance aux événements. La notion de processus, et surtout de procès, est au coeur de l’approche de Marx d’ailleurs tout comme elle est aussi centrale chez Keynes[46]. On ajoutera cependant que la détermination du processus ne peut être le seul critère de validation d’une théorie; il faut y ajouter les modes de construction (et leur critique) du processus dans cette théorie ainsi que le montre Michel Callon[47]. Sur la base de ces deux critères, une classification a été proposée par Sheila Dow, et qui a l’immense intérêt de bien préciser où sont les oppositions de paradigmes[48].

Réalisme par rapport au monde Non-réalisme par rapport au monde
Réalisme de vérité, par les processus Économie politique
Réalisme de vérité par l’événement Instrumentalisme néoclassique
Refus du réalisme de vérité Théorie néoclassique appliquée, non instrumentaliste Théorie pure de l’équilibre général, non-appliquée

 

L’auteur de cette classification intègre, dans ce qu’elle appelle l’Économie Politique, non seulement le Post-Keynesianisme[49], mais aussi certains courants marxistes, les institutionnalistes, des théories comportementalistes, les neo-autrichiens et même certains courants de l’école standard. En terme de discrimination au sein de ce que Favereau avait appelé la Théorie Non-Standard on n’a guère avancé, même si les critères sont incontestablement plus généraux et ne supposent plus l’hypothèse, lourde, de ne considérer que des théories se réclamant de l’individualisme méthodologique [50].

En fait, l’auteur de cette classification laisse volontairement de côté la question d’une meilleure définition à l’intérieur de l’Économie Politique. Elle soutient que l’unité d’une approche ne provient pas de ses méthodes qui doivent être diverses, mais de la vision globale qui les unit[51]. Cette vision globale, dans le cas des post-Keynesiens, est alors directement politique. La démarche de Sheila Dow semble critiquable ici, à moins de n’avoir que des définitions très larges et ouvertes des méthodes. L’empilement d’argumentaires collectés dans des cadres méthodologiques différents et parfois opposés est d’ailleurs une solution proposée par les économistes du courant dominant les plus conscients de la crise méthodologique de leur démarche[52]. Si une telle approche a incontestablement un intérêt par rapport à l’enfermement sectaire des partisans de l’instrumentalisme et de l’axiomatique à tout prix, elle peut aboutir à des incohérences qui détruisent le poids de l’énoncé que l’on veut établir.

Un exemple de cela peut être fourni par une anecdote arrivé à l’auteur de ces lignes en 1992. Il se souvient d’avoir entendu au FMI une autorité de cette organisation proférer que « …l ‘inflation est partout et toujours un phénomène macro-économique comme l’a montré Hayek« . Il se fait que Hayek a expliqué en fait le contraire; l’inflation traduit, pour lui, les frictions au niveau des ajustements micro-économiques des prix relatifs. On peut être en accord avec Hayek ou le contester; on peut considérer l’inflation comme un phénomène purement macro-économique ou non. On ne peut mélanger les deux registres sous peine d’incohérence. Tel est le danger de l’éclectisme.

Voila pourquoi on accorde aux critères de repérage une singulière importance. Ce n’est pas par souci de découper le monde en « bons » ou « mauvais » économistes, mais pour se souvenir que les arguments échangés dans les controverses ne sont par interchangeables. La cohérence de l’argumentaire est un des critères d’évaluation du poids d’un énoncé.

Éléments d’une méthodologie ouverte

 

Des éléments de critique de la méthodologie dominante, et de ses avatars, que l’on vient de présenter on peut dégager une direction alternative, aboutissant à un type de méthodologie ouverte. Pour y parvenir, il faut reprendre certains des problèmes évoqués, et en premier lieu celui de la sous-détermination, c’est à dire le fait que des données économiques peuvent être utilisées pour justifier des explications dans des cadres théoriques complètement différents. Uskali Mäki écrit ainsi:

« La thèse de la sous-détermination proclame que les données et la logique sont insuffisantes pour contraindre le scientifique à une décision unique en terme d’adhésion ou de rejet d’une théorie donnée. Comme nous savons que de telles décisions sont prises dans les faits, nous devons admettre que d’autres contraintes se glissent ici, si nous ne voulons admettre que le procès est complètement aléatoire« [53].

Cette remarque est particulièrement importante, car elle renvoie en fait au statut double, analyste et acteur, de l’économiste. Mäki suggère que d’autres contraintes finissent par s’introduire dans le cadre conceptuel de l’économiste. Si nous considérons ce dernier dans sa fonction d’analyste, ceci pose le problème de la nature du système qu’il observe et analyse. Pour qui, à la suite de Samuelson, considère que l’économie est assimilable à un système ergodique au sens fort du terme, alors même si les observations ne sont pas directement révélatrices de lois du système, elles n’en engendrent pas moins une convergence, sous l’hypothèse que le comportement de l’analyste soit lui-même rationnel[54]. Dès lors la sous-détermination n’est que temporaire. Supposons, maintenant, que l’économie n’admette que des ergodicités limitées, soit qu’elle n’existe que sous la forme de systèmes locaux et temporaires. Alors, la sous-détermination résulte d’une incapacité à collecter assez de données dans les plages de stabilité, et de l’impossibilité de comparer directement les données provenant de systèmes différents. La sous-détermination est ici structurelle et la non-convergence des interprétations ne relève pas d’un manque de rationalité mais bien d’une incapacité de fait à trancher sur la simple base des données. Si, enfin, on accepte de se placer dans l’hypothèse où l’économie ne relèverait jamais d’une hypothèse ergodique, et ce sous quelque forme que l’on puisse l’exprimer, alors la sous-détermination serait fondamentale , et la non-convergence ne résulterait pas d’une incapacité de fait, mais d’une impossibilité de principe.

Une méthodologie ouverte doit pouvoir fonctionner dans ces trois cas de figure, car supposer une adéquation de la méthodologie avec une de ces hypothèses, c’est supposer que nous connaissons déjà le résultat de notre programme de recherche au moment où nous en établissons les règles de fonctionnement.

Maintenant, si on admet que l’économiste n’est pas seulement un observateur mais aussi un acteur, et qu’il peut, à travers les conseils qu’il prodigue à un gouvernement, ou à une puissance privée de grande importance, peser sur les règles de fonctionnement du système, le problème se déplace. D’une part la nature de la rationalité de l’économiste change, puisqu’il est à la fois dans une posture d’analyse et de justification. D’autre part, si l’ergodicité du système peut être affectée par des changements de règles et d’institutions (ou plus précisément si nous ne pouvons exclure qu’il puisse en être ainsi), alors le statut des données collectées change à son tour, et ce d’autant plus que le projet analytique peut être remplacé par un projet normatif (comment faire en sorte que le système fonctionne comme j’ai prédit qu’il devait fonctionner). On voit donc pourquoi le test par les données ne saurait être le critère, ni unique ni central, d’une méthodologie économique. Ceci plaide évidemment pour l’adoption de la cohérence interne et du réalisme comme normes d’évaluation.Le rejet symétrique des thèses positivistes (le test est le critère suprême de scientificité) et relativistes (il n’est pas de vérité, rien que du discours) conduit à retenir l’articulation de trois critères pour définir une démarche scientifique en économie :

1. Il faut tout d’abord que les hypothèses soient réalistes. Cette exigence découle directement de l’impossibilité dans laquelle nous nous trouvons d’être sur de pouvoir tester une hypothèse, ou d’être sur de pouvoir interpréter le résultat du test de manière indiscutable. Cette impossibilité découle de la prise en compte de trois arguments ci-dessus évoqués: (a) le degré d’emboîtement des conjectures à tester, (b) le problème de Duhem-Quine et la non-neutralité des données utilisées dans le test par rapport à la conjecture qu’elle doivent vérifier ou invalider, (c) le caractère essentiellement qualitatif des prédictions et conjectures de l’économie, confronté au caractère quantitatif des données. Ceci condamne radicalement l’instrumentalisme.

Dire qu’une hypothèse doit être réaliste n’implique pas qu’elle soit vraie. Cela suppose simplement, mais ce simplement, on le verra, est lourd de conséquences, que l’on se refuse à axiomatiser dans le vide. Ainsi, supposer que les agents sont, en tout lieu, à toute heure, en mesure de calculer la totalité des conséquences possibles de l’interaction entre une décision et l’environnement, supposition qui est consubstantielle à l’hypothèse de rationalité maximisatrice, n’est pas réaliste. De même, supposer que le temps ne se manifeste pas sous la forme d’une contrainte dans le processus de traitement du signal avant qu’une décision soit prise, autrement dit qu’il est indifférent de prendre une décision donnée aujourd’hui ou demain, le premier ou le dernier, est une autre hypothèse irréaliste. L’exigence de réalisme est donc première; elle doit s’entendre au sens du réalisme processuel que l’on a évoqué plus haut.

2. Il faut ensuite que le raisonnement soit cohérent. Un raisonnement cohérent est un discours construit dans lequel on ne fait pas entrer, sous prétexte d’une explication conjoncturelle, un élément qui soit incompatible avec les prémisses. Si on suppose les marchés imparfaits, on ne peut plus invoquer par la suite un marché parfait. Si on suppose la connaissance des agents limitée, on ne peut invoquer une règle de comportement qui impliquerait, sous une forme ou une autre, une connaissance parfaite.

Un raisonnement cohérent n’est pas forcément juste. Il est des raisonnements cohérents qui, en raison du degré d’irréalisme des hypothèses de base sont évidemment faux. C’est le cas des raisonnements paranoïaques, par exemple. L’exigence de cohérence n’est en rien décisive ou suffisante; elle ne prend son sens que dans l’articulation avec l’exigence de réalisme.

3. Il faut enfin pratiquer une testabilité limitée. dire que l’on ne peut pas tout tester, ou que les résultats ne peuvent être tenus pour naturellement indiscutables, ne signifie pas qu’il faille renoncer à tester. Le chercheur doit pratiquer une testabilité limitée ou critique, qui repose sur deux préambules:

Il faut pouvoir décomposer un argument en conjectures simples. Ceci est loin d’être toujours possible, mais doit être tenté autant que faire se peut. Le simple processus de décomposition des argumentaires a déjà une valeur critique et analytique essentielle, en permettant la mise en évidence des interactions et rétroactions. La testabilité limitée s’oppose ici à l’emploi de la clause « toutes choses étant égales par ailleurs », qui implique que le système étudié soit simple, dans le sens où l’on puisse faire varier un élément sans modifier les relations de cet élément avec le reste. La testabilité limitée part du principe que les systèmes sont complexes et tente de les réduire en systèmes simples.

Il faut procéder à une construction explicite du test , c’est à dire à une analyse critique des sources des données, des processus qui les mettent à la disposition du chercheur, de leur contenu théorique implicite (par exemple dans l’utilisation des données de PNB/PIB), du degré de généralité du test et de la procédure du test. Cette construction doit être explicite, en ce sens qu’elle doit conduire à la formulation des hypothèses qui servent à tester et pas seulement des hypothèses que l’on teste. La testabilité limitée ne peut pas être une procédure générale et systématique. Elle s’insère dans les deux précédentes exigences de réalisme et de cohérence comme forme de rapport entre le chercheur et la réalité de l’objet sur lequel il travaille.

Une démarche qui associe et articule ces trois critères répond alors au méta-critère évoqué plus haut, la capacité à fonctionner quel que soit le degré d’ergodicité du système étudié. On rappelle que l’on peut être en présence de trois situations distinctes, celle où le système vérifie une hypothèse ergodique forte, celle ou n’est vérifiée qu’une hypothèse ergodique limitée et temporaire, et celle, enfin, de rejet de toute hypothèse ergodique. C’est dans le premier cas que la testabilité limitée prendra le plus de poids. Par rapport à une démarche instrumentaliste, on est au pire à égalité, et plus probablement avec un léger avantage, car la déconstruction des conjectures et des procédures assure une vérification instantanée des pratiques du chercheur, que ne permet pas l’instrumentalisme traditionnel. Si nous sommes dans le second cas, l’instrumentalisme est incapable d’engendrer une convergence des prévisions. La testabilité doit nécessairement être reléguée au second plan au profit des critères de cohérence et de réalisme. Si nous sommes dans la troisième situation, alors l’instrumentalisme est impossible par nature. Pour autant, en raison de la présence du couple cohérence/réalisme, le chercheur n’est pas dépourvu de moyens d’intelligence et de critique de sa pratique. La testabilité limitée a, ici, l’utilité de vérifier son impossibilité, ce qui serait impossible pour une démarche se fiant seulement et uniquement à la cohérence ou au réalisme.

La démarche que l’on propose n’implique donc aucune décision quant à la nature des situations auxquelles on va être confrontée. Cette méthodologie est donc ouverte au sens où elle ne présuppose pas la connaissance des résultats de la recherche pour en définir les règles. Elle est au moins égale, dans les trois situations possibles, à toute autre méthodologie qui serait spécialisée sur cette situation donnée.

Réhabilitation des méthodes non-formaliseés en économie

 

Une telle démarche permet aussi de réhabiliter l’enquête comme forme d’approche scientifique face à la seule modélisation. En fait l’enquête, si elle est bien menée, est souvent plus scientifique que la modélisation et permet de fournir des bases à cette dernière. On a souvent en effet reproché aux auteurs du courant institutionnaliste l’emploi de modes non-formalisés de théorisation, qualifiés de « storytelling » ou de « pattern modelling »[55]. Cette critique est en fait injustifiée[56], et l’enquête est une démarche largement usitée dans les sciences sociales et pour d’excellentes raisons[57].

Pour qu’une critique radicale de l’enquête soit possible, autrement dit pour qu’une méthode entièrement déductive soit substituable comme méthodologie aux pratiques de l’enquête, il faut pouvoir supposer que le système sur lequel on travaille est stable et simple, autrement dit qu’il vérifie une hypothèse ergodique forte. Mais cette supposition implique que l’on connaisse déjà le dénouement de la recherche entreprise. Si on refuse de préjuger de l’avenir, alors rien ne confère à la démarche axiomatique une supériorité sur tout autre démarche.

Par ailleurs, pour être maintenant recevable, une critique de l’enquête suppose que le mode d’enquête ne soit pas vérifiable. Cela peut se produire, et on peut être en présence de « storytelling » qui ne soit ni cohérent ni réaliste. Mais la pratique erronée de l’enquête ne disqualifie par la méthode en elle-même.

Enfin, si on suppose qu’il y a une probabilité, même faible, pour que le système que l’on étudie soit complexe, c’est à dire caractérisé non seulement par des interactions mais aussi par des rétroactions, alors le « storytelling » ou le « pattern modelling » bénéficient d’un important avantage comparatif sur tout autre méthode[58].

La démarche de l’enquête est ainsi un instrument important pour l’économiste. Les travaux théoriques qui ont marqué, en France, l’émergence d’un nouveau courant, L’École de la Régulation, ont été fondamentalement des enquêtes, sur les trajectoires historiques des économies américaine et française[59]. En un sens, on peut considérer que les auteurs de cette école ont pratiqué depuis plus de vingt ans le type de méthodologie que l’on défend ici. Une enquête, pour être réussie, doit associer le réalisme de ses hypothèses à la cohérence du raisonnement, tout en cherchant à pratiquer ce que l’on a qualifié de testabilité limitée.

Une nouvelle économie

L’exposé de ce texte, on l’aura compris, se situe donc explicitement dans le cadre co-défini par le « réalisme par rapport au monde » et par le « réalisme de vérité par les processus« . On soutient donc que la réalité économique n’est pas directement intelligible, ce qui renvoie à l’importance des énoncés et conjectures, et par là à celle des controverses présentes et passées. En ce sens, on se situe pleinement et consciemment au sein du paradigme subjectiviste, dans un rejet de tous les positivismes. En fait, les délimitations sont même plus précises. Leur explicitation fait néanmoins partie du corps même de l’argument, et apparaîtra de manière progressive au fur et à mesure que l’on va avancer dans les débats qui concernent l’économie décentralisée. Il s’agit, en procédant de manière à la fois critique et analytique, de montrer que le courant dominant, ou « mainstream », ne peut penser l’économie qu’à partir de la métaphore de la centralisation initiale. Or, il n’y a rien d’inéluctable à un tel résultat. Bien au contraire, on peut montrer qu’il existe une longue tradition de réfutations, plus ou moins pertinentes, de ce courant dominant, qui insistent sur l’irréductible décentralisation des agents, et présentent la centralisation comme un aléatoire résultat ex-post et non comme une hypothèse ex-ante .

Tenter de réfuter ce courant dominant conduit aussi à une évaluation critique des courants hétérodoxes qui se sont constitués. A cet égard, la confrontation entre les diverses écoles institutionnalistes et un bilan critique de la tradition autrichienne, se révèle riche d’enseignements. L’application des critères d’une méthodologie ouverte, tels qu’ils ont ici été définis, rend possible un approfondissement des critiques traditionnelles, et l’émergence de ce qui pourrait, à terme, constituer une synthèse.

Notes

[1] http://www.latribune.fr/opinions/tribunes/20131220trib000802153/l-economie-est-elle-une-science.html

[2] D’Autume A., et Cartelier J., L’économie devient-elle une science dure, Paris, Economica, 1999.

[3] Friedman M., The Counter-Revolution in Monetary Theory, Londres, Wincott memorial lecture, Institute of Economic Affairs. Occasional paper 33, Wincott memorial lectures, 1970.

[4] Ou clause Ceteris Paribus.

[5] Voir par exemple F.H. Hahn, « Keynesian economics and general equilibrium theory: reflections on some current debates » in G.C. Harcourt, (ed.), The Microfoundations of Macroeconomics , Macmillan, Londres, 1977. B.J. Loasby, The Mind ans Methods of the Economist: A critical appraisal of major economists in the XXth Century , Edward Elgar, Aldershot, 1989, en particulier chapitre 8. D.M. Haussman, The Inexact and Separate Science of Economics , op.cit..

[6] T.S. Kuhn, La Structure des Révolutions Scientifiques, Flammarion, coll. Champs, Paris, 1983, 2ème édition.

[7] Voir T.W. Hutchison, The Significance and Basic Postulates of Economic Theory, Macmillan, Londres, 1938.

[8] A. Insel, “Une rigueur pour la forme: Pourquoi la théorie néoclassique fascine-t-elle tant les économistes et comment s’en déprendre?”, in Revue Semestrielle du MAUSS, n°3, éditions la Découverte, Paris, 1994, pp. 77-94.

[9] Par exemple M. Blaug, The Methodology of Economics , Cambridge University Press, Cambridge, 1980.

[10] P. Mirowski, « How not to do things with metaphors: Paul Samuelson and the science of Neoclassical Economics », in Studies in the History and Philosophy of Science, vol. 20, n°1/1989, pp. 175-191. Pour une critique plus générale sur le modèle de scientificité de la physique, P. Mirowski, More heat than light, Cambridge University Press, Cambridge, 1990.

[11] P.A. Samuelson, “Classical and Neoclassical theory”, in R.W. Clower, (ed.), Monetary Theory, Penguin, Londres, 1969.

[12] J. Cartelier et A. D’Autume (eds), L’économie est-elle une science dure?, op.cit..

[13] M. Friedman, « The Methodology of Positive Economics », in M. Friedman, Essays in Positive Economics, University of Chicago Press, chicago, 1953, pp. 3-43.

[14] B. Caldwell, Beyond Positivism: Economic Methodology in the Twentieth Century, op.cit.. Voir aussi W. Mason, « Some negative thoughts on Friedman’s Positive Economics », in Journal of Post-Keynesian Economics, vol. 3, n°2/1981, pp. 235-55.

[15] O.E. Williamson, The Economic Institutions of Capitalism, Firms, Market, Relational Contracting, Free Press, New York, 1985, pp. 391-2.

[16] P. Duhem, The Aim and structure of Physical Theory, Princeton University Press, Princeton, NJ, 1954. W. Quine, « Two Dogmas of Empiricism », in W. Quine, From a Logical Point of View, Harvard University Press, Cambridge, Mass., 1953, pp. 20-46.

[17] D.W. Hands, « Popper and Lakatos in Economic Methodology », in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, op.cit., pp. 61-75. J.J. Klant, « Refutability », in Methodus , vol. 2, n°2/1990, pp. 34-51.

[18] D.W. Hands, « Popper and Lakatos in Economic Methodology », op.cit., p. 64.

[19] K. Popper, Realism and the Aim of Science, Rowman & Littlefield, Totowa, NJ, 1983, p. xxxv.

[20] D.W. Hands, « Popper and Lakatos in Economic Methodology », op.cit., p. 65.

[21] D.W. Hands, Testing, Rationality and Progress: Essays on the Popperian Tradition in Economic Methodology, Rowman & Littlefield, Latham, NJ, 1992. D.M. Hausman, « An Appraisal of Popperian Methodology » in N. de Marchi, (ed), The Popperian Legacy in Economics, Cambridge University Press, cambridge, 1988, pp. 65-85. U. Mäki, « Economic Methodology: complaints and guidelines », in Finnish Economic Papers, vol.3, 1990, n°1, pp. 77-84.

[22] I. Lakatos, « Falsification and the Methodology of Scientific Research Programmes », in I. Lakatos et A. Musgrave, (eds.), Criticism and the Growth of Knowledge, Cambridge University Press, Cambridge, 1970, pp. 91-196.

[23] E.R. Weintraub, General Equilibrium Analysis, Studies in Appraisal, Cambridge University Press, Cambridge, 1985. M. Blaug, « Ripensamenti sulla rivoluzione keynesiana », in Rassegna Economica, vol. 51, n°3, 1987, pp. 605-634.

[24] G. Fulton, « Research Programmes in Economics », in History of Political Economy, vol. 16, n°2, 1984, pp. 27-55.

[25] R. Cross, « The Duhem-Quine thesis, Lakatos and the Appraisal of Theories in Macroeconomics », in Economic Journal, vol. 92, n°2, 1982, pp. 320-340.

[26] D.W. Hands, « Popper and Lakatos in Economic Methodology », op.cit., p. 68. Voir aussi D.W. Hands, « Second Thoughts on Lakatos », in , History of Political Economy, vol. 17, n°1, 1985, pp. 1-16.

[27] S.C. Dow, « Mainstream Economic Methodology »,op.cit, p. 80-81.

[28] Voir sur ce point la discussion in O. Hamouda et R. Rowley, « Ignorance and the Absence of Probabilities », in C. Schmidt, (ed.), Uncertainty in Economic Thought, Edwar Elgar, Cheltenham, 1996, pp. 38-64.

[29] J. Doherty, E. Graham et M. Malek, (eds.), Post-modernism in Social Sciences, Macmillan, Londres, 1992; voir en particulier l’introduction à ce volume. B. Barnes et D. Bloor, « Relativism, rationalism and the sociology of lknowledge », in M. Hollis et S. Lukes, (eds.), Rationality and Relativism , Basil Blackwell, Oxford, 1982, pp. 21-47.

[30] W. Jevons, The Theory of Political Economy, Macmillan, Londres, 1871, p. 266.

[31] M. Callon, (sous la direction de), La Science et ses réseaux , op.cit., pp. 25-31.

[32] Sur cette épistémologie, on se réfèrera à A.M. Carabelli, On Keynes’s Method, Macmillan, Londres, 1988; R.M. O’Donnel, Keynes’s Philosophy, Economics and Politics: The Philosophical Foundations of Keynes’s Thought and their influences on his Economics and Politics , Macmillan, Londres, 1989.

[33] S.C. Dow, « The appeal of neoclassical economics: some insights from Keynes’s epistemology », in Cambridge Journal of Economics , vol. 19, n°5, 1995, pp. 715-733, p. 716.

[34] J.M. Keynes, A Treatise on Probability , republié in Collected Writings , vol. VIII, Macmillan, Londres, 1973; voir le chapitre 6.

[35] Au sens où la totalité de la chaîne rethorique doit être validée pour que le résultat final le soit.

[36] Sur ce point voir le grand ouvrage de Gunnar Myrdal dont les opinions, exprimées en 1929, restent parfaitement d’actualité aujourd’hui. G. Myrdal, The Political Element in the Development of Economic Theory , Transaction Publishers, New Brunswick et Londres, 1990; première édition en anglais, 1954; première édition en suédois, 1930.

[37] O. Favereau, « Marchés internes, Marchés externes », in Revue Économique, vol.40, n°2, mars 1989, pp. 273-328

[38] U. Mäki, « How to combine rethoric and realism in the methodology of economics » in Economics and Philosophy, vol.4, avril 1988, pp. 353-373.

[39] T. Lawson, « Realism and instrumentalism in the development of econometrics », in Oxford Economic Papers, vol. 41, janvier 1989, pp. 236-258.

[40] C. Lloyd, Explanations in Social History, Basil Blackwell, Oxford, 1986.

[41] T. Lawson, « Realism, closed systems and Friedman », in Research in the History of Economic Thought and Methodology, vol. 10, 1992, pp. 196-215. U. Mäki, « Friedman and Realism », in Research in the History of Economic Thought and Methodology, vol. 10, 1992, pp. 171-195.

[42] U. Mäki, « Friedman and Realism », op.cit.. Idem, « On the Problem of Realism in Economics », in Ricerche Economiche, vol. 43, n°1-2, 1989, pp. 176-198. B.J. Caldwell, « Economic Methodology: Rationale, Foundation, Prospects », op.cit..

[43] U. Mäki, « How to combine rethoric and realism in the methodology of economics », op.cit..

[44] H. Brochier, « Pour un nouveau programme de recherches en économie », in Revue semestrielle du MAUSSPour une autre économie, n°3, La Découverte, Paris 1994, pp. 141-152

[45] T. Lawson, « Realism and … », op. cit..

[46] A.M. Carabelli, On Keynes’s Method …, op. cit..A. Fitzgibbons, Keynes’s vision , Oxford University Press, Oxford, 1988.

[47] M. Callon (sous la direction de), La Science…, op. cit..

[48] S.C. Dow, « Post-Keynesianism as political economy: a methodological discussion », in Review of Political Economy, vol.2, n°3, 1990, pp. 345-358; voir p. 349.

[49] Charles S, Macroéconomie hétérodoxe: de Kaldor à Minsky, Éditions L’Harmattan, 2006 et Lavoie M., L’économie postkeynésienne, Paris, La Découverte « Repères », 2004

[50] O. Favereau, « Marchés internes, Marchés externes », op. cit..

[51] S.C. Dow, « Post-Keynesianism as… », op.cit., pp.353 à 356.

[52] Voir ainsi les articles marquant le centenaire de la revue The Economic Journal. F.H. Hahn, « The next Hundred years », et E. Malinvaud, « The Next Fifty Years », in Economic Journal, vol. 101, n°404.

[53] U. Mäki, « Social Theories of Science and the Fate of Institutionalism in Economics », op.cit., p. 80.

[54] Au sens donné par L. Laudan, Progress and its Problems, Routledge & Keagan Paul, Londres, 1977, voir en particulier pp. 188-9 et p. 222.

[55] B. Ward, What’s Wrong with Economics, Basic Books, New York, 1972.

[56] U. Mäki, « Economics with Institutions », in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, Routledge, Londres-New York, 1993, pp. 3-42.

[57]P. Diesing, Patterns of Discovery in Social Sciences , Routledge and Keegan Paul, Londres, 1972.

[58] A. Kaplan, The Conduct of Inquiry, Chandler, San Francisco, 1964.

[59] M. Aglietta, Régulation et crises du capitalisme , Calmann-Lévy, Paris, 1976. R. Boyer et J. Mistral, Accumulation, Inflation, Crises , PUF, Paris, 1978.

La « Déconnomie » et Jacques Généreux

 

Par  · 

Jacques Généreux vient de publier, en novembre de l’année dernière, un livre important, La Déconnomie[1]. Il s’agit d’une dénonciation argumentée de ce que son auteur appelle « l’empire de la bêtise ». Ce livre contient de très nombreux passages intéressants, voire passionnants. Il sera certainement utile à ceux qui veulent argumenter une critique de l’économie dominante. C’est un livre qui se lit vite, s’il ne se dévore.

 

Il contient aussi, du moins à ce qu’il me semble, des erreurs et des omissions, plus ou moins importantes. Elles n’invalident nullement les passages dont je tiens à souligner la qualité, et la nécessité d’un point de vue intellectuel. Mais, elles mettent en lumière la fragilité du projet que ce livre veut porter. Ceci est très dommage. Ce livre devait avoir une fonction salutaire dans le débat public, et il aurait pu aider à clarifier les positions des uns et des autres. Il remplit d’ailleurs partiellement cette fonction, ce qui témoigne bien de son importance et de la qualité de son auteur. Mais, il ne l’a remplie que partiellement, et c’est là l’un des problèmes majeurs de cet ouvrage.

 

Le projet de l’ouvrage et sa méthodologie

 

Il convient tout d’abord de souligner les points positifs de cet ouvrage. Et en premier lieu son projet affiché, qui est de faire la liste des erreurs les plus flagrantes en économie, mais aussi de les relier à des structures de comportements. Ce livre n’est pas seulement une dénonciation ; il se veut aussi une analyse du fondement de ces erreurs. Il pointe ainsi, après d’autres, sur l’étrange maladie qui saisit certains économistes et qui les conduit à vouloir singer la physique (p.24)[2]. La thèse principale de Jacques Généreux est donc que ces erreurs trouvent leurs origines à la fois dans un dogmatisme scientiste (ce qui est juste), dans des intérêts particuliers (ce qui aussi juste), mais aussi dans une forme particulière de bêtise qui semble saisir certains de ces auteurs au fur et à mesure qu’ils déroulent leurs erreurs. La thèse n’est pas sans valeur loin de là, mais elle implique la construction d’une méthodologie rigoureuse.

 

Dire cette évidence revient à pointer du doigt sur une des limites de l’ouvrage, et jamais la position méthodologique de l’auteur n’est clairement définie[3]. Car, Généreux fait à de multiples endroits référence à la « réalité » ou au « réalisme », mais jamais il ne définit ce qu’il entend par ces termes. Or, si l’on veut éviter de tomber dans le positivisme le plus plat, et je n’accuse nullement Généreux d’être un positiviste, que l’on se rassure, il faut être au clair avec la notion de « réalisme ». La question du réalisme est donc centrale; elle fait rupture avec l’instrumentalisme défendu par M. Friedman, mais aussi avec la démarche adoptée par la théorie néo-classique[4]. On est ici en présence d’un problème qui dépasse de loin l’économie et concerne la totalité des sciences sociales. Ce n’est certainement pas un hasard si l’importance du réalisme, d’un point de vue méthodologique, a été soulignée à partir de l’histoire sociale[5].

 

En fait, une bonne partie du débat méthodologique qui oppose les économistes dits « hétérodoxes » au courant dominant porte sur la question du réalisme[6], du rapport à la réalité, mais aussi des différents niveaux d’abstraction et de leur enchevêtrement[7]. Le point avait d’ailleurs été bien vu par Keynes lui-même[8], pour citer un auteur envers lequel Jacques Généreux a une immense (et justifiée) révérence, mais aussi par des auteurs que l’on peut qualifier de « post-Keynésiens »[9]. On voit, à travers les quelques références rassemblées ici, que la question du « réalisme » est bien l’un des points cruciaux qui opposent dans la méthode même les hétérodoxes aux économistes du courant dominant. Ne pas en avoir fait une présentation simple, car ce livre – et c’est l’une de ses qualités – est destiné au grand public, est une faute majeure et cela d’autant plus que l’auteur revient, dans les deux derniers chapitres (chapitre 8 et chapitre 9), sur les problèmes de théorie et les oppositions entre courants d’économistes. Bernard Maris, dont Généreux invoque fort à propos la mémoire, l’avait bien compris lors de nos discussions qui devaient donner naissance au livre Les Trous Noirs de la Science économique[10].

 

Les points forts du livre

 

Mais, auparavant, citons tous ses points forts, et ils sont nombreux. On ne pourra ici tous les citer et l’on invite le lecteur à se procurer ce livre et à le lire. Ce livre contient donc de très bonnes descriptions historiques, en particulier au chapitre III (pp. 85-90). Le rôle négatif de la financiarisation est fort bien montré, et les conséquences de cette dernière sont très clairement expliquées. L’analyse du cycle économique, et avec elle la critique de certaines des théories du cycle, est bien menée (pp. 195 et ssq), même si l’on peut regretter que l’auteur n’aille pas plus en profondeur[11]. Il y a de quoi néanmoins satisfaire un large public. L’impact de la financiarisation en matière de destruction des individus, ce qu’il appelle la maltraitance des salariés (p. 104) et le problème aujourd’hui croissant de la « souffrance au travail » inspirent à Jacques Généreux de très justes pages (pp. 110 et ssq).

 

On soulignera aussi la très juste critique de la « critique en immoralité » du capitalisme qui occupe une large part du chapitre 4. La crise n’est pas le produit de la faillite de certains hommes, même si ces hommes ont par ailleurs failli. Elle est le produit d’un système qui déroule sa logique implacable, logique qui ne peut que conduire à la crise. L’auteur en profite pour faire un développement fort bien venu sur la « culture du consentement » qui tend alors à se développer dans le cadre du système (pp. 171-174). Il en déduit, de manière fort juste, l’origine de la dépolitisation des décisions économiques (p. 180). Le point est important, parce que nous vivons dans une société où l’on tend à naturaliser des décisions humaines, ce qui n’est que l’autre face de l’attribution de pouvoirs surnaturels à des institutions, comme par exemple le « marché ». Il s’agit, et tous les lecteurs avec une certaine culture marxienne l’auront reconnu, du couple dialectique réification-fétichisme[12]. Jacques Généreux aurait pu, alors, en donner un interprétation anthropologique, philosophique, ou politique. Mais, il s’arrête là où commence l’interprétation. C’est particulièrement dommage car, sur ce point, les références abondent. En science politique, en particulier, Bellamy a fort bien montré que le processus de dépolitisation est à l’œuvre dans les écrits de nombreux auteurs libéraux (dont F. Hayek)[13].

 

La critique que Généreux fait de la mondialisation est aussi intéressante. Cela n’étonnera nullement le lecteur qui sait que j’ai commis un livre sur ce sujet, dans une collection dirigée par Jacques Généreux[14]. Cette critique est très développée dans une démarche descriptive, et Généreux insiste, à très juste titre, sur les conséquences écologiques de la mondialisation. On mesure mal, en effet, l’importance des désastres écologiques induits par les grands traités de libre-échange comme le CETA ou le TAFTA. L’auteur tape juste sur ce point. Mais, il oscille entre analyse et dénonciation et, se faisant, il perd le fil d’une critique analytique allant au fond de l’argument. C’est probablement un des effets de l’absence de toute discussion explicite sur la question de la méthodologie, et du manque de définition de ce qu’il appelle le « réalisme ».

 

Les limites que l’on a pu relever jusqu’à présent ne mettent pas en cause le projet de l’auteur, qui suit sa route de manière logique. C’est d’ailleurs l’une des forces incontestables de cet ouvrage. Il déroule une critique complète de ce qui appelle la « déconnomie » partant du plus factuel pour aller chercher certaines des racines intellectuelles à ce mal. Les chapitres 8 et 9 sont en un sens le couronnement de cette démarche. De ce point de vue, on ne saurait que conseiller la lecture de ce livre. Mais, il est moins évident qu’il puisse emporter l’adhésion de ceux qui, qu’ils soient des lecteurs « savants » ou néophytes, ne seraient pas convaincus par avance. Encore une fois, il faut souligner non point tant le choix de s’adresser à un lecteur « néophyte », choix qui est toujours justifié, que l’ambivalence du projet, oscillant entre dénonciation et analyse. Car, s’il est légitime de choisir comme cible un lecteur « néophyte », la simplification n’est pas le simplisme.

 

Des imprécisions gênantes

 

Il faut donc arriver à ce point évoquer les critiques que l’on peut faire au texte lui-même. Elles sont de deux ordres et concernent d’une part des erreurs et imprécisions, et d’autre part des points manquants.

 

Commençons donc par les premières. L’auteur prétend que les économistes ne disposeraient pas d’une définition précise du capitalisme (pp. 57-61). C’est à la fois vrai et faux. C’est faux en ce qui concerne le mode de production général, bien défini par le principe de la double séparation, celle entre les producteurs et les consommateurs et celle entre les producteurs et les moyens de production. Le capitalisme, c’est la marchandise ET le salariat. Mais, il est vrai que cette définition n’est pas directement opératoire. Elle ne permet pas de préciser d’une part à quel forme de capitalisme nous avons à faire dans une économie donnée, ni ne précise les conditions de soumissions de formes pré-capitalistes au capitalisme qui existe dans toutes les sociétés où le capitalisme d’est développé. De ce point de vue, les remarques faites aux pages 44-46 et 58-61 sont justes. Il manque, et c’est un point essentiel l’explication de l’existence de niveaux d’abstraction imbriqués, explication qui permettrait au lecteur de « faire sens » des descriptions qui lui sont alors proposées. Mais, Généreux ayant omis de présenter au lecteur la méthodologie qu’il utilise, et quel est son rapport à la notion de « réalisme », il laisse ce dit lecteur dans l’indétermination par rapport aux éléments descriptifs. Il est bel et bon qu’il tire un grand coup de chapeau à ce que l’on appelle « l’école française de la Régulation » (p. 51), mais il néglige d’en utiliser les principaux apports, sur les types de capitalisme.

 

Un deuxième problème surgit quand Généreux se lance, avec fanfare et trompettes, dans une défense de la théorie keynésienne de l’investissement face aux économistes dominants et à Hayek (ce dernier est-il réductible à la doxa dominante ? On me permettra d’en douter). On est bien entendu d’accord sur le principe du constat. Sauf que Généreux ne fait intervenir la notion de l’incertitude radicale, qui est pourtant essentielle à qui veut comprendre le raisonnement de Keynes[15], qu’à la fin. Ainsi, on ne commence à parler d’incertitude qu’à la page 212 alors que l’on disserte sur l’investissement depuis la page 196. Comment veut-on qu’un lecteur, pas nécessairement au fait des controverses économiques et de l’apport de la théorie keynésienne, comprenne ? C’est là faute grave, parce qu’elle mine tout le raisonnement. Elle souligne, car F.A. Hayek était lui aussi un partisan de l’incertitude, que l’on ne peut assimiler Hayek aux économistes du courant aujourd’hui dominant.

 

Il n’est pas possible de comprendre les controverses dans années 1930, controverses qui ont été cruciales à l’explicitation des différences entre néo-classiques et keynésiens, mais aussi entre « autrichiens » et néo-classiques[16], (et sur ce point je partage totalement le point de vue de Jacques Généreux) que si l’on remonte un peu en arrière et que l’on regarde comment Keynes en est venu à intégrer le principe d’incertitude, mais aussi d’hétérogénéité[17], dans son raisonnement[18]. C’est le principe d’incertitude qui rend compréhensible le mécanisme dit de la « trappe à liquidités » et qui invalide totalement les raisonnements actuels sur l’investissement. Il aurait du aussi introduire (et ceci manque gravement au raisonnement) l’articulation entre décision ex-ante et vérification ex-post, introduite par G. Myrdal en 1939[19].

 

Ces erreurs, qui ne sont pas dramatiques, sont étonnantes pour un auteur qui n’hésite pas à fournir – et je serai le dernier à le lui reprocher – des références fort savantes dans son texte. Tant qu’à faire dans ce registre, Généreux aurait dû citer Georges Shackle, qui faut l’élève et de Hayek et de Keynes, et qui a écrit des choses fondamentales sur la question de l’incertitude, de la préférence pour la liquidité et de l’investissement[20].

 

La déconnomie et la question des biais cognitifs des économistes

 

Quand Jacques Généreux s’aventure sur le terrain de la psychologie, chose qu’il a cent fois raison de faire tant cette dimension est cruciale en économie (on se souvient des derniers mots d’Alfred Marshall sur son lit de mort « et si c’était à refaire, je me ferai psychologue… »), on retrouve les mêmes qualités mais, hélas, les mêmes défauts. L’anecdote concernant Maurice Allais est aujourd’hui bien connue (et j’espère y avoir contribué[21]). Mais, elle va un peut plus loin que ce qu’en dit Généreux[22]. En particulier, deux des principaux défenseurs de l’hypothèse d’espérance d’utilité, Savage et Ellsberg, ont été tentés de suivre Maurice Allais et d’accepter la réfutation de cette théorie[23]. Pourquoi ils ne firent pas ne manque pourtant pas d’intérêt et illustre l’ampleur non peut-être de la déconnomie dont parle Généreux, mais me semble-t-il plus justement de la « clôture autistique » de l’économie standard[24]. Le lent cheminement des travaux des psychologues-économistes au sein des économistes, une tribu qui ne se réduit pas à Amos Tversky et Daniel Kahneman (que l’on pense aux contributions de Paul Slovic et de Sarah Lichtenstein) aurait mérité d’être décrit, car ce cheminement nous en dit long justement sur la solidité de la « clôture autistique » de la corporation.

 

De même, quand Jacques Généreux critique Jean Tirole, et il a encore une fois tout à fait raison de la faire (pp.. 325-353), sa critique en reste trop souvent à l’écume du raisonnement. Ce défaut est bien mis en évidence par le traitement qu’il réserve aux divers auteurs de la théorie dominante, unifié dans une commune détestation (et là, Généreux a raison) mais qui ne composent cependant pas une école unique (p. 297-298). L’impact et la signification de la « contre-révolution » des anticipations rationnelles ne sont pas expliqués, ce qui est dommageable à la compréhension d’une large part du chapitre 8. Ici, Jacques Généreux aurait été bien inspiré de se référer, même de manière critique, à la typologie établie il y a plus de vingt-cinq ans par Olivier Favereau[25].

 

Si Généreux a mille fois raison de souligner les biais cognitifs qui opèrent en économie, il aurait dû insister sur le problème de la dissonance cognitive[26]. Il aurait pu alors explorer une piste non pas nécessairement alternative avec la thèse de la « déconnomie » mais du moins largement complémentaire.

 

Parlons de ce qui fâche

 

Il faut maintenant parler de ce qui fâche, de ces omissions qui révèlent, en négatif, le « projet » implicite de l’ouvrage. Jacques Généreux prend le parti de jouer la comparaison entre les années 1930 et la période actuelle (p. 11). C’est un choix extrêmement discutable. Après tout les grands partis de masse des années trente n’existent plus (et la forme « parti » semble elle-même en crise). On chercherait bien en vain les milices organisées de ces divers partis aujourd’hui. De même, les sociétés européennes ne sont plus marquées par le souvenir proche de la « guerre totale » qui avait modelée les représentations tant politiques culturelles. On pourrait multiplier les exemples, mais passons. Admettons un instant ce choix ; mais alors, pourquoi l’ouvrage de Jacques Généreux est-il si silencieux sur le « Bloc-Or » qui joua un rôle majeur dans la crise des années trente ? A l’époque, c’est l’existence du Bloc-Or, de la volonté des gouvernants des divers pays de maintenir la parité-Or de leurs monnaies qui expliquait et justifiait les politiques d’austérité. Il faut donc non pas parler de déconnomie, qui apparaît ici comme un détour de production un peu contrefait mais de la responsabilité de choix politiques et financiers, et des intérêts privés qui ont pu guider ces choix. Pourquoi donc cet oubli, assez étonnant quand on le compare au luxe de détails (que l’on se reporte au chapitre 5 et en particulier aux pages 187-192) sur le récit de la crise des années trente ? La raison en est simple : l’équivalent du Bloc-Or aujourd’hui c’est l’euro.

 

On comprend mieux le processus mental de Jacques Généreux à ce sujet, son biais cognitif personnel, quand on lit la section intitulée la mutilation irrationnelle de la politique monétaire (aux pages 254 et suivantes). Mutilation, très certainement ; le constat est fort juste. Mais cette mutilation n’a rien d’irrationnelle. Elle est parfaitement cohérente avec une politique qui a fait de l’euro non pas simplement une monnaie mais en réalité un mode de gouvernance, comme l’analyse fort bien un jeune philosophe italien Diego Fusaro[27]. Ce qui implique que l’euro n’est pas amendable, tout comme le Bloc-Or ne l’était pas non plus. Seulement, là, Jacques Généreux refuse l’obstacle et se retrouve face à ses propres contradictions, européen convaincu d’une part (ce qi du reste parfaitement son droit) et économistes keynésien radical de l’autre. Il peut chercher à finasser comme l’on disait à l’époque. Mais, sa réflexion sur un possible sauvetage de l’euro (pp. 272-278) manque désespérément de chiffrage, alors que ces derniers sont disponibles et montrent de manière évidente qu’une telle solution n’est pas possible. Cette contradiction met tout le livre de guingois.

 

Le problème est qu’elle n’est pas la seule. On détecte rapidement une autre omission, non moins grave. Dans le début du livre, et la critique de la mondialisation, il manque manifestement une réflexion sur la souveraineté et le souverainisme, mais aussi sur le lien entre la démocratie et la souveraineté. On dira que d’autres l’ont fourni, et que Jacques Généreux ne peut être à la fois compétent en économie et en science politique. C’est assurément un argument. Mais pourquoi, alors ne renvoie-t-il pas à d’autres auteurs ? Pourquoi exécute-t-il (à la page 44) la souveraineté en la confondant délibérément avec la xénophobie, pratique que l’on croyait bonne à un Benoît Hamon ou un Pierre Moscovici, mais que l’on retrouve ici avec tristesse sous la plume d’un auteur qui vaut mille fois plus que les deux personnes citées ? La question de la souveraineté est, avec celle de l’euro, l’autre grand impensé de cet ouvrage. Or, tout le monde sait le rôle que Jacques Généreux exerce aux côtés d’un des candidats à l’élection présidentielle de 2017. Cette incapacité de penser tant le rôle de la souveraineté dans la démocratie et la nature de système social de l’euro vont peser lourd dans les semaines à venir. Mais cela a aussi des conséquences immédiates quant à l’équilibre de ce livre. C’est une incapacité tragique car elle retire une bonne partie du pouvoir explicatif et démonstratif de cet ouvrage.

 

On mesure ici toute l’ampleur du problème. On ne peut prétendre écrire un ouvrage sur le dévoilement des erreurs de la pensée dominante, un ouvrage mettant au jour les contradictions et les errements idéologiques des uns et des autres que si on est soi-même d’une grande logique et si l’on se refuse à commettre les mêmes errements que l’on condamne chez autrui. De cela, manifestement, Jacques Généreux n’en a pas été capable, et c’est pourquoi son livre n’est pas le grand livre qu’il aurait pu (et qu’il aurait dû) être.

 

Notes

[1] Généreux J. La Déconnomie, Paris, le Seuil, 2016

 

[2] Mirowski P., « How not to do things with metaphors: Paul Samuelson and the science of Neoclassical Economics », in Studies in the History and Philosophy of Science, vol. 20, n°1/1989, pp. 175-191. Pour une critique plus générale sur le modèle de scientificité de la physique, P. Mirowski, More heat than light, Cambridge University Press, Cambridge, 1990.

 

[3] B.J. Caldwell, « Economic Methodology: Rationale, Foundation, Prospects », in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, Routledge, Londres-New York, 1993, pp. 45-60.

 

[4] Pour une critique de fond, voir D.M. Hausman, The Inexact and separate science of Economics, Cambridge University Press, Cambridge, 1992.

 

[5] Lawson T., « Realism, closed systems and Friedman », in Research in the History of Economic Thought and Methodology, vol. 10, 1992, pp. 196-215. U. Mäki, « Friedman and Realism », in Research in the History of Economic Thought and Methodology, vol. 10, 1992, pp. 171-195.

 

[6] Lawson T., « Realism and instrumentalism in the development of econometrics », in Oxford Economic Papers, vol. 41, janvier 1989, pp. 236-258. Mäki U., « How to combine rethoric and realism in the methodology of economics » in Economics and Philosophy, vol.4, avril 1988, pp. 353-373

 

[7] Mäki U., « On the Problem of Realism in Economics », in Ricerche Economiche, vol. 43, n°1-2, 1989, pp. 176-198.

 

[8] Carabelli A-M, On Keynes’s Method, Macmillan, Londres, 1988; R.M. O’Donnel, Keynes’s Philosophy, Economics and Politics: The Philosophical Foundations of Keynes’s Thought and their influences on his Economics and Politics , Macmillan, Londres, 1989. S.C. Dow, « The appeal of neoclassical economics: some insights from Keynes’s epistemology », in Cambridge Journal of Economics , vol. 19, n°5, 1995, pp. 715-733, p. 716

 

[9] Dow S.C., « Post-Keynesianism as political economy: a methodological discussion », in Review of Political Economy, vol.2, n°3, 1990, pp. 345-358; voir p. 349

 

[10] Sapir J., Les Trous Noirs de la Science Economique, Paris, Albin Michel, 2000.

 

[11] Voir Minsky H.P., « Uncertainty and the Institutional Structure of Capitalist Economies », in Journal of Economic Issues, vol. XXX, n°2/1996, pp. 357-370 et U. Witt, « The Hayekian Puzzle: spontaneous order and the business cycle », in Scottish Journal of Political Economy, vol. 44, n°1/1997, février, pp. 44-58.

 

[12] Chavance B., Marx et le Capitalisme: la dialectique d’un système, Nathan, Coll. Circa, Paris, 1997

 

[13] Bellamy R., (1994). ‘Dethroning Politics’: Liberalism, Constitutionalism and Democracy in the Thought of F. A. Hayek. British Journal of Political Science, 24, pp 419-441.

 

[14] Sapir J., La Démondialisation, Paris, le Seuil, 2011.

 

[15] Keynes J-M, A Treatise on Probability , republié in Collected Writings , vol. VIII, Macmillan, Londres, 1973; voir le chapitre 6.

 

[16] Hayek, “Reflections on the Pure theory of Money of Mr. J.M. Keynes – Part I”, in Economica, vol. 11, 1931, pp. 270-295. Ibid, “A rejoinder to Mr. Keynes”, in Economica , vol. 11, 1931, pp.398-403. Ibid, “Reflections on the Pure theory of Money of Mr. J.M. Keynes – Part II”, op.cit.,

 

[17] Il est en fait patent que la clause d’homogénéité des agents et des comportements est fondamentales dans le cadre néo-classique, car elle détermine aussi le jugement sur la neutralité de la monnaie. Voir D. Lacoue-Labarthe, Analyse Monétaire , Dunod, Paris, 1985, pp. 51-53.

 

[18] Keynes J-M, “The Pure Theory of Money: a Reply to Dr. Hayek” in Economica, vol. 11, 1931, pp. 387-397. Voir aussi J.M. Keynes, Collected Writings, vol. XIV – The General Theory and After, part II. Defense and Development , Macmillan, Londres, 1973, p. 114.

 

[19] G. Myrdal, Monetary Equilibrium, Hodge, Londres, 1939.

 

[20] Shackle G.L.S., “On the Nature of Profit”, in G.L.S. Shackle, Business, Time and Thought. Selected papers of G.L.S. Shackle, edited by S.F. Frower, New York University Press, New York, 1988, pp. 107-123.

 

[21] Sapir J., Quelle Economie pour le XXIème siècle ?, Paris, Odile Jacob, 2005.

 

[22] Allais M., « Le comportement de l’homme rationnel devant le risque. Critique des postulats de l’école américaine » in Econométrica, vol. 21, 1953, pp. 503-546. Voir aussi M. Allais et O. Hagen (edits.) Expected Utility Hypotheses and the Allais Paradox, Reidel, Dordrecht, 1979.

 

[23] Voir P. Slovic et A. Tversky, « Who Accept’s Savage Axioms? » in Behavioural Science, vol. 19/1974, pp. 368-373.

 

[24] J’emprunte l’expression à Daniel Hausman dans, The Inexact and separate science of Economics, op.cit..

 

[25] O. Favereau, “Marchés internes, marchés externes”, in Revue Économique, vol. 40, n°2, mars 1989.

 

[26] Chapanis N.P. et J.A. Chapanis, « Cognitive Dissonance: Five Years Later » in Psychological Bulletin, vol. 61, 1964. G.A. Akerlof et W.T. Dickens, « The Economic Consequences of Cognitive Dissonance », in American Economic Review, vol. 72, n°1, 1972, pp. 307-319.

 

[27] Fusaro D., Pensare Altrimenti, Turin, Einaudi, 2017. Voir aussi, du même auteur Il futuro è nostro. Filosofia dell’azione, Bompiani, 2014

 

La science économique est-elle de droite?

 

Jacques SapirPar  · 

J’ai été interviewé par un journaliste travaillant à Bruxelles, Mohsen Abdelmoumen, et qui publie entre autre dans le American Herald Tribune. Je publie ici quelques fragments de cette interview.

 


Dans votre livre « Les économistes contre la démocratie : Pouvoir, mondialisation et démocratie », vous êtes très critique envers les économistes. Pouvez-vous nous expliquer pourquoi ?

 

C’est essentiellement parce que les économistes se sont appropriés un pouvoir qui ne leur revient pas. Ils ont en effet pénétré les rouages des appareils de décision. Ceci est vrai à l’échelle des États, comme à celle des grandes organisations internationales, qu’il s’agisse de l’Union européenne, ou de l’OCDE ou de l’OMC. Ils sont ainsi de plus en plus portés à intervenir sur l’ensemble des problèmes sociaux et politiques. Or, quand ils interviennent, c’est en mélangeant une position d’experts et une position d’acteurs politiques. Cela pose un problème immédiat. Car, si l’expert est légitime à parler au nom d’une connaissance, l’acteur politique doit se plier à la règle du débat démocratique. En jouant sur ces deux tableaux, les économistes s’exonèrent du problème de vérification. Le problème est donc de savoir dans quel espace parle-t-on, dans celui de la pure compétence ou dans celui des choix politiques. Si on se situe dans ce dernier, il n’est plus possible d’admettre que la seule « compétence », que l’on ne saurait d’ailleurs plus vérifier car tout jugement mélangerait éléments de compétence et valeurs politiques, puisse trancher le débat. Si l’on est dans l’espace du politique, alors la question de la légitimité se pose. Or, cette question fait immédiatement référence à la question, de degré supérieur, de la souveraineté. Dans l’espace du politique, on demande d’abord qui est légitime, et qui est souverain.

 

Mais il y a un problème qui est plus profond. La crédibilité scientifique dont ils se réclament est loin d’être indiscutable, ou indiscutée. Il y a de très sérieuses raisons à cela, que j’ai exposées dans un ouvrage datant du début des années 2000[1]. La manière même dont une majorité de la profession, ceux que l’on appelle les économistes du courant dominant ou « mainstream » comprend l’objet de ses travaux est aujourd’hui débattue et fortement critiquée[2]. Les méthodes que ces économistes emploient, les modèles sur lesquels ils se fondent, sont ouvertement contestées. C’est en particulier le cas des modèles inspirés par l’économie néo-classique, qu’il s’agisse des modèles dits CGE (Computable General Equilibrium) ou qu’il s’agisse des modèles DSGE (Dynamic Stochastic General Equilibrium)[3]. Et cela renvoie à un débat plus général sur l’usage que l’on peut faire des modèles[4].

 

Mais, pour légitime et nécessaire que soit cette contestation, elle laisse cependant dans l’ombre un point essentiel: la pensée politique spontanée des économistes, ou plus précisément de ce courant dominant. En fait, les économistes font de la politique, ce que personne ne songe d’ailleurs à leur reprocher, mais ils font de la politique en prétendant ne pas en faire, et en délégitimant par avance tout discours critique. Ceci est, évidemment, une atteinte grave à la démocratie.

 

L’économie ne serait pas la discipline normative et prescriptive qu’elle est, et si les économistes étaient restés dans leurs bureaux et leurs salles de cours, cette question n’aurait, en réalité, que peu d’intérêt. Mais, quand on confie à des économistes, ou simplement au raisonnement économique, le soin de guider des décisions dont l’ampleur et les conséquences dépassent de loin l’économie, cette question devient légitime. Quand l’économie se voit progressivement transformée en un système technique dont les termes des choix ne seraient plus accessibles au simple citoyen, cette question devient impérative. Elle est même centrale pour comprendre l’évolution de la démocratie dans nos pays.

 

Il ne s’agit donc pas ici de s’interroger sur les choix partisans de tel ou tel, ou même de contester le droit à un économiste de prendre des positions politiques. Peu importe, pour la démocratie, de savoir si tel ou tel vote à gauche ou à droite. Mais encore faut-il qu’il précise, quand il le fait, qu’il prend des positions politiques, et qu’il accepte les règles du débat politique. Il ne peut se réfugier, alors, dans un argumentaire de nature technique ou, s’il le fait, il doit savoir qu’il prend des positions qui sont fondamentalement anti-démocratiques.

 

Il ne s’agit pas, non plus, de mettre en doute l’attachement formel à la démocratie de certains de mes collègues. Je suis persuadé que l’on peut, avec la plus grande sincérité, s’affirmer profondément attaché à la démocratie et dans le même temps prodiguer des conseils ou défendre des normes dont les effets seront profondément dangereux pour cette démocratie. L’amour de la servitude est d’autant plus destructeur, et d’autant plus profond, qu’il se pare d’une défense formelle de son contraire.

 

Vous êtes un économiste de renom. Ne pensez-vous pas que la science économique, comme d’autres sciences, a atteint ses limites en étant au service des classes dominantes ?

 

L’économie est avant tout une science critique, et donc une science sociale. L’idée de la construire sur le modèle de la mécanique, voire de la physique du XIXè siècle a représenté une immense erreur de la part des économistes qui l’ont portée. C’est ce que démontre avec beaucoup de talent Mirowski[5]. Elle doit nous permettre de comprendre non pas des lois générales, mais des lois tendancielles, locales et particulières de l’activité économique[6]. Si l’économie (et l’économiste) se borne à cela, il ne se met nullement au service des classes dominantes. Mais, certaines théories sont en réalité l’expression de la pensée spontanée des classes dominantes. Et ceci pose un problème quand on sort du cadre analytique pour entrer dans le domaine du normatif et du prescriptif.

 

Il faut, ici, s’interroger sur la conception de l’ordre social et politique qui découle spontanément de certaines conceptions de l’ordre économique. Ce que l’on veut mettre en lumière c’est le lien qui unit certaines des hypothèses du raisonnement économique orthodoxe aux conséquences politiques des prescriptions qui en découlent. C’est une tâche importante, compte tenu des échéances en France, en Europe mais aussi dans les instances internationales.

 

Cette pensée spontanée porte en elle les figures de la dépolitisation de la politique économique, de la naturalisation de l’économie, de la substitution des choix techniques aux choix démocratiques. Elle conduit, en pente douce, par glissements successifs, à la tyrannie. De ce point de vue, il est aujourd’hui évident que l’on est confronté aux limites des cadres théoriques dans lesquels le consensus des économistes, du moins du « mainstream » s’est constitué. Il s’agit ici de limites en matière d’explications, mais aussi de limites en ce qui concerne la cohérence et même la consistance des modèles canoniques, de limites enfin d’une méthode qui est de moins en moins scientifique[7]. De ce point de vue, on peut penser qu’en reprenant, parfois de manière consciente mais aussi parfois de manière inconsciente, le discours des classes dominantes et en cherchant à lui donner les atours d’une pensée dite scientifique, l’économie à cessé d’être une science. Mais cela ne veut pas dire qu’il ne puisse pas y avoir de science économique. Ce n’est pas parce que des générations d’économistes ont failli que cela condamne le projet d’existence de la science économique.

 

La décadence actuelle de la pensée économique dominante n’est pas celle de la science économique. Il n’y a rien en cette dernière qui en fasse sans coup férir un instrument de décervelage des gouvernants ou une justification de l’inaction. Cette décadence actuelle ne résulte pas d’une erreur fondatrice de l’économie mais bien de la conjonction de la faillite d’un programme de recherches particulier, que l’on peut pour simplifier qualifier de récupération libérale de l’héritage keynésien, et d’un refus d’une part, hélas majoritaire, des économistes de se doter d’une méthodologie robuste. Construisant sur du vent, ils ne nous promettent que des récoltes de tempêtes.

 

On peut penser que l’un des problèmes centraux de la science économique est d’établir la typologie et les formes des modes de coordination entre des acteurs qui sont à la fois physiquement séparés et interdépendants[8].

 

La question essentielle n’est pas, non plus, de savoir si l’économie sera ou non une « science dure ». L’opposition entre des sciences réputées molles et celles qui s’affirment dures est déjà suspecte. Au-delà, il y a beaucoup d’illusion, ou de prétention, à croire qu’une discipline puisse s’auto-affirmer dans un registre dont elle exclurait les autres, en tout ou partie. Le problème fondamental n’est pas le statut de l’économie comme science mais la compréhension par les économistes eux-mêmes des conditions dans lesquelles ils travaillent. Ceci implique une discussion sur les bases méthodologiques[9], terrain qu’évite soigneusement les économistes représentatifs de l’économie dominante ou « mainstream »[10], quand ils ne cherchent pas en réalité à délégitimer toute réflexion sur la méthodologie[11].

 

Je m’intéresse beaucoup à vos travaux et je vous considère comme un témoin de l’effondrement de l’Union soviétique. Le système capitaliste a-t-il triomphé de la Révolution bolchevique sans offrir de perspectives pour l’humanité ?

 

En fait, il convient ici de s’interroger sur ce qu’était réellement l’Union soviétique. Elève de Charles Bettelheim, j’ai développé une vision hétérodoxe de l’URSS, reposant sur l’idée que la révolution d’octobre 1917 avait donné naissance à un système de capitalisme d’Etat. Ce système s’est complexifié avec le « grand tournant » et la politique stalinienne à la fin des années 1920[12]. Il a acquis sa stabilité – certes relative – dans les années 1950[13]. Le grand économiste polonais, Oskar Lange, qui fut l’un des principaux théoriciens de la planification[14], par exemple n’a pas hésité à qualifier la planification « réellement existante » en Europe de l’Est d’économie de guerre sui-generis; par là il entendait non pas une économie centrée sur des productions militaires mais une économie fonctionnant à partir des systèmes d’ordres et de priorités que l’on avait connus lors des deux conflits mondiaux[15].

 

L’analyse des formes économiques qui commencent à se coaguler en Russie depuis 2000 suggère le retour à un modèle de développement où le poids de l’État sera particulièrement important, que ce soit sous des formes directes ou indirectes. Dans le même temps, ces formes économiques ne sont pas sans rappeler celles que l’on trouvait dans le modèle de développement russe des années 1880-1914. Ceci est particulièrement sensible dans le domaine bancaire, mais concerne aussi la très forte collusion entre de grands groupes industriels et le pouvoir politique. Mais, la question de la permanence intertemporelle de schémas de développement ne va pas sans soulever des interrogations théoriques essentielles pour l’économie et les sciences sociales. Sommes nous en présence d’un « effet de sentier » particulièrement puissant, ou devons nous analyser cette permanence comme une apparence, les acteurs du présent réutilisant à d’autres fins des moules institutionnels passés. La persistance de certaines formes institutionnelles dans des modèles de développement étalés sur près de 120 ans traduit-elle la pertinence de ces formes par rapport aux problèmes du développement ou au contraire la persistance d’habitudes passées, que l’on aura alors tendance à qualifier d’archaïsmes ?

 

La permanence des structures, compte tenu et de l’opprobre dont l’ancien système était frappé et de la radicalité des réformes prises en 1992 et 1993, constitue une interrogation que l’on ne peut esquiver. Que le système soviétique soit mort n’est cependant pas douteux ; il l’était en réalité avant que ne commence son démantèlement à la fin des années quatre-vingts. Mais ce qui émerge aujourd’hui, en particulier la tendance à la constitution d’un système corporatiste[16], renvoie largement à l’héritage soviétique.

 

Il est vrai aussi que l’URSS ne s’était pas débarrassée, ni en un jour ni en un an, des legs russes. Qu’il s’agisse de la permanence des administrations, au moins jusqu’en 1929[17], de la proximité du discours industrialisateur soviétique avec celui du ministre modernisateur Witte au XIXème siècle, voire de pratiques sociales, tant rurales qu’urbaines, dont on peut suivre les traces jusque dans les années quarante, les continuités sont bien plus grandes que ne l’imaginent les représentations mythiques, en positif ou négatif, de la révolution de 1917[18]. Ce thème des permanences, transformées et recomposées par le mouvement du développement, constitue l’un des axes de l’interprétation que Moshe Lewin a donné du système soviétique[19].

 

Il est donc incontestable que les dirigeants de l’URSS ont été conscients, et souvent au sens d’une conscience tragique, de la présence de ces archaïsmes. Pourtant, et l’on pourrait ici tracer un parallèle entre la modernisation d’un Pierre le Grand et celle d’un Staline, les méthodes utilisées pour moderniser sont la cause de la survivance, voire du renforcement des éléments qualifiés d’archaïques[20]. Dans un cas comme dans l’autre, les rythmes de la modernisation imposent le recours ou le renforcement de structures anciennes, qu’il s’agisse du servage au début du XVIIIème siècle ou des modes de commandement ancestraux dans le cours de l’industrialisation soviétique, avec un mode de gestion de la main d’œuvre et un rapport aux relations homme/machine très primitifs[21]. Cette combinaison, pas toujours heureuse, entre les produits de la modernisation et des pratiques archaïques, voire entre des éléments techniques d’origines diverses est attestée longuement tant par des sources soviétiques que par des témoins occidentaux[22]. Rappelons qu’est considérée, depuis Durkheim, comme pathologique la survie dans le présent de généralités ayant été engendrées par des conditions passées qui ont depuis disparu[23]. De ce point de vue, on peut alors considérer le système soviétique comme pathologique, et c’est incontestablement l’une des voies que suggère M. Lewin quand il évoque à propos du stalinisme une pathologie systémique[24]. Pour autant, l’image de structures sociales, de normes de comportement survivant à la disparition de leurs causes premières n’est pas parfaitement convaincante. Si on accepte de quitter un instant l’URSS et la Russie pour s’intéresser à une autre trajectoire de modernisation, celle du Japon contemporain, on va retrouver la dualité entre le nouveau et l’ancien. La persistance de relations sociales traditionnelles, tout comme celle de formes anciennes d’organisation économique, ont été des éléments décisifs dans le succès de la stratégie de l’ère Meïji[25]. Il faut alors s’interroger si le renforcement dans la Russie actuelle de comportements hérités de la période soviétique, comme les relations bilatérales, les pratiques de collusion entre directeurs, mais aussi l’intégration des travailleurs à travers le développement des fonctions sociales de l’entreprise, constituent nécessairement des phénomènes négatifs. Le succès de toute stratégie de modernisation passe, très probablement, par la capacité à réutiliser des formes traditionnelles et non par la projection et l’application, directes et intégrales, de l’ensemble des formes réputées modernes et directement empruntées à des sociétés considérées comme plus avancées.

 

Il nous faut donc comprendre la période soviétique comme la forme spécifique à la Russie prise par le développement du capitalisme, une forme qui a abouti aussi à transformer ce capitalisme et qui fait qu’aujourd’hui la Russie est bien un système capitaliste mais n’est pourtant pas assimilable que ce soit aux Etats-Unis ou aux divers capitalismes européens.

 

Notes

[1] Voir J. Sapir, Les Trous Noirs de la Science Économique, Albin Michel, Paris, 2000.

[2] B. Guerrien, L’économie néo-classique, La Paris, Découverte, coll. Repères, 1989.

[3] Goodhart, C.A.E., “The Continuing Muddles of Monetary Theory: A Steadfast Refusal to Face facts”, paper presented to the 12th Conference of the Research Network macroeconomics and

Macroeconomic Policy, Berlin, Germany, October 31st – November 1st, 2008. C.A.E. Goodhart, “The Foundation of Macroeconomics: Theoretical Rigour versus Empirical realism”, paper presented at the Conference on the History of Macroeconomics, Louvain-la-Neuve, Belgium, January 2005

[4] Mäki, U., « Contested modelling: The case of economics », in Models, Simulations, and the Reduction of Complexity, ed. U. Gähde, S. Hartmann and J.H. Wolf, Berlin / New York: Walter de Gruyter 2012

[5] Mirowski P., « How not to do things with metaphors: Paul Samuelson and the science of Neoclassical Economics », in Studies in the History and Philosophy of Science, vol. 20, n°1/1989, pp. 175-191. Pour une critique plus générale sur le modèle de scientificité de la physique appliqué à l’économie, P. Mirowski, More heat than light, Cambridge University Press, Cambridge, 1990.

[6] Insel A., “Une rigueur pour la forme: Pourquoi la théorie néoclassique fascine-t-elle tant les économistes et comment s’en déprendre?”, in Revue Semestrielle du MAUSS, n°3, éditions la Découverte, Paris, 1994, pp. 77-94.

[7] Voir, J. Sapir, « Calculer, comparer, discuter: apologie pour une méthodologie ouverte en économie », in Économies et Sociétés, série F, n°36, 1/1998, numéro spécial, Pour aborder le XXIème siècle avec le développement durable, édité par S. Passaris et K. Vinaver en l’honneur du professeur Ignacy Sachs, pp. 77-89.

[8] F.A. Hayek, « Economics and knowledge », in F.A. Hayek, Individualism and Economic Order, University of Chicago Press, Chicago, 1948, pp. 36-56; première publication en 1937.

[9] B.J. Caldwell, « Economic Methodology: Rationale, Foundation, Prospects », in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, Routledge, Londres-New York, 1993, pp. 45-60. Idem, « Does Methodology matters? How should it practiced? », in Finnish Economic Papers, vol.3, n°1/1990, pp. 64-71

[10] Comme par exemple E.R. Weintraub, « Methodology doesn’t matter, but history of thought might », in S. Honkapohja, (ed.), Wither Macroeconomics?, Basil Blackwell, Oxford, 1989.

[11] Comme c’est le cas avec D. McCloskey, The Rhetoric of Economics, University of Wisconsin Press, Madison, Wisc., 1985.

[12] R. Hutchings, The structural origins of Soviet industrial expansion, Macmillan, Londres, 1984.

[13] J. Sapir, Fluctuations et cycles économiques en URSS, 1941-1982, Éditions de l’École des Hautes Études en Sciences Sociales, Paris, 1989.

[14] O. Lange, « On the Economic Theory of Socialism », in Review of Economic Studies, vol. 4, n°1, 1936 (octobre) et n°2 (février 1937). Voir aussi A.P. Lerner, « A Note on Socialist Economies », in Review of Economic Studies, vol. 4, n°1, 1936, octobre. Idem, « Statics and Dynamics in Socialist Economies », in Economic Journal , vol. 47, juin 1937.

[15] O.Lange, “The Role of Planning in a Socialist Economy”, in O.Lange, Papers in Economics and Sociology, PWN et Pergamon Press, Varsovie-Londres, 1970, pp. 101-102

[16] J. Sapir, « Action publique et agents privés: vers un modèle russe ? », in Revue d’études comparatives Est-Ouest, vol. 27, n°2, juin 1996, pp. 187-219.

[17] D.K. Rowney, Transition to technocracy – The structural origins of the Soviet Administrative State, Cornell University Press, Ithaca et Londres, 1989 ; S. Sternheimer, « Administration for the development : the emerging bureaucratic elite, 1920-1930 », in W. McKenzie Pintner et D.K. Rowney (eds.), Russian Officialdom – The bureaucratization of Russian society from the seventeenth to the twentieth century, The University of North Carolina Press, Chapell Hill, N.C., 1980.

[18] A. Gerschenkron, « Russia : Patterns and Problems of Economic Development, 1861-1958 », in A. Gerschenkron, Economic Backwardness in Historical Perspective – A Book of Essays, The Belknap Press of Harvard University Press, Cambridge, Mass., 1962, pp. 119-151 ; T. Shanin, Russia as a developping society, Macmillan, Londres, 1985.

[19] M. Lewin, La formation du système soviétique, Gallimard, Paris, 1987.

[20] A. Gerschenkron, « Russia : Patterns and Problems of Economic Development, 1861-1958 » op. cit.

[21] O. Khakhordine, « L’éthique corporatiste, l’éthique du ‘samostojatel’nost’ et l’esprit du capitalisme : réflexions sur la création du marché en Russie post-soviétique », in Revue d’Études Comparatives Est-Ouest, vol. 25, n°2, juin 1994, pp. 27-56

[22] Voir, Iz istorij magnitogorskogo metalurgitcheskogo kombinata i goroda Magnitogorska (1929-1941gg) : sbornik dokumentov i materialov, Magnitogorsk, 1965. J. Scott, Au-delà de l’Oural, Marguerat, Genève, 1945 ; un témoignage identique sur les usines de Léningrad se trouve dans A. Smith, J’ai été ouvrier en URSS, Plon, Paris, 1938.

[23] É. Durkheim, Règles de la méthode sociologique, PUF, Paris, 1952, 15ème édition.

[24] M. Lewin, La formation du système soviétique, op. cit..

[25] Voir, J. Hirschmeier, The origins of Entrepreneurship in Meïji Japan, Harvard University Press, Cambridge, Mass., 1964 ; J.W.Bennet et I. Ishino, Paternalism in the Japanes Economy : Anthropological Studies of Oyabun-Kobun Patterns, University of Minnesota Press, Minneapolis, Minn., 1963 ; G. Ranis, « The community-Centered Entrepreneur in Japanese Development », in Explorations in Entrepreneurial History, vol.III, n°2, décembre 1955 ; M.Y. Yoshino, Japan’s Managerial System-Tradition and Innovation, MIT Press, Cambridge, Mass., 1968.

08 février 2017

Denis Pennel, les gains de productivité et l'emploi

 

« Oui, sauf que... ce qu'il faut regarder, indique Denis Pennel, c'est l'impact de l'automatisation sur les gains de productivité. Sur les deux derniers siècles, les gains de productivité ont été énormes, mais ils se sont plus traduits par une réduction de temps de travail que par une diminution des emplois : la part du travail dans nos vies s'est réduite comme peau de chagrin alors que dans le même temps la taille de la population active n'a fait que croître ! Le temps de travail salarial occupait 40% de la vie des hommes il y a un siècle. Aujourd'hui, il n'en représente plus que 10%... L'automatisation supprime davantage du temps de travail que des emplois ! Oui mais alors, si on pousse cette logique à son bout, le temps de travail va tendre vers zéro ? Hélas non, car cette tendance à des gains de productivité toujours plus élevés est de moins en moins vraie... »

 

Revenons aux réflexions de Denis Pennel...

 

Michel Peyret


Non, le travail n’est pas en train de disparaître

 

Denis Pennel / directeur général de la World Employment Confederation Le 30/01 à 10:01

 

« Le travail raréfier disparaître années venir. » « Le travail ne va pas se raréfier et encore moins disparaître dans les années à venir. » - Shutterstock

 

LE CERCLE/POINT DE VUE - Plusieurs études estiment que des millions d’emplois sont menacés par les robots et automates. Seulement, sur les deux derniers siècles, les gains de productivité liés au progrès technique ont plutôt été traduits par une réduction du temps de travail. Le risque d’un chômage technologique massif est donc écarté.

 

En 1995, l'essayiste américain Jeremy Rifkin annonçait dans son best-seller la « fin du travail ». Plus récemment, plusieurs universitaires et hommes politiques, dont Benoît Hamon, vainqueur de la primaire de gauche, ont repris l'antienne de la « raréfaction du travail », due à l'automatisation et la robotisation de notre économie.

 

Dans leur célèbre étude, Carl Frey et Michael Osborne ont estimé que 47% des emplois américains risquaient de disparaître d'ici à 2020. Leur méthodologie est depuis contestée. L'OCDE a calculé de façon plus rigoureuse qu'en moyenne seulement 9% des emplois présentent un risque élevé d'automatisation. Une analyse confirmée par le Conseil d'orientation pour l'emploi (COE) dans un rapport publié le 10 janvier : « moins de 10% des emplois cumulent des vulnérabilités qui pourraient en menacer l'existence dans un contexte d'automatisation ». En France, plus de 3 millions d'emploi seraient menacés d'ici à 2025.

 

Automatisation ne signifie pas substitution

 

Alors non, le travail ne va pas se raréfier et encore moins disparaître dans les années à venir. Si la machine ne faisait que remplacer l'humain, il n'y aurait plus aujourd'hui que très peu de travail humain dans la production, qui serait déjà assurée par des robots et automates. Le risque de chômage technologique massif peut être écarté pour de multiples raisons.

 

D'abord, l'automatisation ne signifie pas automatiquement substitution. L'automatisation n'élimine pas tant des emplois qu'elle se substitue à l'humain sur certaines tâches, redessinant les processus de production. Robots et machines modifient nombre de tâches au sein d'un emploi, sans pour autant le rendre obsolète.

 

À lire aussi

 

ANALYSE. La raréfaction du travail, vieux débat et faux problème

 

LE CERCLE. Demain, le commerce et ses emplois seront plus humains

 

Notons aussi que la substitution des emplois par les machines a été compensée par la croissance de la production et l'invention de nouveaux biens et services. L'immense majorité de ce que nous produisons a besoin de machines, et ce sont ces machines qui sont elles-mêmes à la source de création de nouveaux emplois : chaque emploi créé par le secteur de la haute technologie entraîne la création d'environ cinq emplois complémentaires.

 

Par ailleurs, il n'existe aucun déterminisme historique selon lequel la mécanisation et l'automatisation s'imposeraient irréversiblement. Il est possible de faire voler un avion sans pilote depuis 1945. Or il y a environ 150.000 pilotes d'avion en activité aujourd'hui, et Boeing prévoit qu'au niveau mondial, ce sont un demi-million (498.000) de pilotes supplémentaires qui devraient être embauchés d'ici à 2032 !

 

Nous avons tendance à numériser le présent mais nous sommes bien incapables d'imaginer le monde du travail d'après-demain.

 

Enfin, s'il est facile d'extrapoler les emplois actuels voués à être automatisés, comment comptabiliser les métiers de demain dont l'existence même nous échappe ? Nous avons tendance à « numériser le présent » mais nous sommes bien incapables d'imaginer le monde du travail d'après-demain. Qui aurait prédit, à l'heure du passage du transport à cheval à celui de l'automobile, l'apparition des métiers de chauffeur, carrossier, pompiste, ingénieur aérodynamicien, technicien plasturgiste, électronicien automobile, etc.

 

Sans remonter à une époque aussi lointaine, qui aurait parié il y a 10 ans un euro sur l'émergence des métiers tels que webmaster, curateur de données, manager de communautés ou animateur médias sociaux. Et demain, combien de fermier urbain, avocat en droit des robots, coach en media social, réputationiste (conseiller en e-réputation), data diététicien, numéropathe (thérapeute en désintoxication digitale), foulenceur (spécialiste en crowdfunding) ?

 

Moins de temps passé à travailler

 

L'histoire de notre développement économique est celle, multiséculaire, de l'automatisation. Entre 1970 et 2000, la tertiarisation de l'économie avait emporté la moitié des emplois sans que la société n'implosât. Des emplois ont disparu, mais de nombreux autres ont émergé. Le nombre d'emplois ou le niveau global d'activité ne sont pas figés.

 

Si le déterminisme technologique n'existe pas, notre société anxiogène a néanmoins trouvé avec l'automatisation du travail un nouveau cheval d'angoisse. La génération des calèches avait peur de la fumée des moteurs à explosion, aujourd'hui nombreux sont ceux qui ont peur de leurs nouveaux collègues de travail robotisés... Car « cette fois-ci, c'est différent ! », clament les pessimistes. Avec cette nouvelle révolution industrielle, les métiers automatisables ne sont plus uniquement les métiers manuels : des emplois qualifiés à fort contenu intellectuel sont aussi menacés par les machines.

 

À lire aussi

 

LE CERCLE. Revenu universel ou réduction du temps de travail ?

 

 Réduction du temps de travail : le rapport non publié qui fait polémique

Oui, sauf que... ce qu'il faut regarder, c'est l'impact de l'automatisation sur les gains de productivité. Sur les deux derniers siècles, les gains de productivité ont été énormes, mais ils se sont plus traduits par une réduction de temps de travail que par une diminution des emplois : la part du travail dans nos vies s'est réduite comme peau de chagrin alors que dans le même temps la taille de la population active n'a fait que croître ! Le temps de travail salarial occupait 40% de la vie des hommes il y a un siècle. Aujourd'hui, il n'en représente plus que 10%... L'automatisation supprime davantage du temps de travail que des emplois !

 

Oui mais alors, si on pousse cette logique à son bout, le temps de travail va tendre vers zéro ? Hélas non, car cette tendance à des gains de productivité toujours plus élevés est de moins en moins vraie. Si l'automatisation va crescendo, l'évolution de la productivité du travail est restée très faible ces dernières années. Selon l'OCDE, le ratio PIB par heure travaillée n'a progressé en moyenne annuelle que de seulement 1% aux Etats-Unis sur les dix dernières années (2004-2014), contre 2,7% sur la période 1997-2004. La tendance est similaire en Allemagne (0,8% contre 1,5%), en France (0,7% contre 2%), au Royaume-Uni (0,4% contre 2,4%) et au Japon (0,8% contre 1,9%).

 

Une des réponses au déclin de la productivité provient du développement de l'emploi dans les services à faible valeur ajoutée (du moins d'un point de vue comptable..) dans le secteur de la distribution, de la restauration, des services à la personne ou des transports, couplé à la contraction de l'industrie. Une kyrielle de secteurs économiques confrontés à des pénuries de main d'oeuvre, où l'emploi fait défaut. Vous avez dit raréfaction du travail ?

 

Denis Pennel est directeur général de la World Employment Confederation


En savoir plus sur

http://www.lesechos.fr/idees-debats/cercle/0211748385003-non-le-travail-nest-pas-en-train-de-disparaitre-2061171.php#SmfseQjYDVB0ETkW.99

Éloi Laurent : « La compétitivité est une notion dangereuse »

L’hebdo "Politis" mène actuellement une série de grands entretiens.


Eloi Laurent, économiste à l’Obervatoire des conjonctures économiques (OFCE), professeur à Sciences po et à l’université de Standford, oppose à "l’économisme", une approche qui s’appuie sur des résultats de recherches et réhabilite des idées combattues par les économistes libéraux : changer les indicateurs économiques, réduire le temps de travail, augmenter le salaire minimum, relancer l’investissement public centré sur une transition écologique ambitieuse.

 

Comment décririez-vous le capitalisme tel qu’il évolue aujourd’hui, avec la révolution numérique ?

 

Éloi Laurent : Pour aller vite, nous avons connu un capitalisme de type fordiste jusque dans les années 1970, puis l’entrée dans un capitalisme hyper-financier. Aujourd’hui, nous basculons dans une troisième ère, que j’appelle dans mon livre le « capitalisme de passager clandestin ».

 

L’économie numérique est présentée comme une source d’innovation censée relancer la productivité et donc la croissance. En réalité, les entreprises du secteur « tech » telles qu’Uber, Airbnb, etc. ne reposent que marginalement sur des innovations technologiques et n’en génèrent que peu ou pas du tout : elles s’appuient surtout sur des innovations financières et fiscales qui leur permettent notamment d’échapper largement à l’impôt. Pour ce qui est de leur stratégie économique, il s’agit d’un bon vieux dumping social : Uber, par exemple, casse les prix du secteur du transport urbain de personnes pour tuer la concurrence et augmenter ses tarifs ensuite. Je ne vois ici aucune nouveauté.

 

En outre, en guise « d’économie du partage », je parlerais plus volontiers d’économie du parasitage. Amazon, par exemple, ne pourrait pas -distribuer ses paquets sans les réseaux de La Poste. S’il n’y avait pas les services publics et les biens communs, elle ne pourrait pas mener son activité privée. Tout ça, sans respecter les règles du jeu fiscal. C’est cela, le « capitalisme de passager clandestin » : privatiser les biens communs puis refuser de contribuer aux dépenses sociales.

 

Par ailleurs, la croissance induite par cette nouvelle économie réside en une extension de la sphère marchande sur le domaine privé, non en une intensification de l’innovation. L’espace privé devient un espace marchandisé : les appartements deviennent des hôtels, les voitures des taxis, les conseils amicaux des recommandations d’achat, etc. Même l’information et la communication censées être au cœur de ces entreprises me paraissent douteuses : il s’agit surtout d’exploiter le marché du narcissisme et de la solitude, bien plus que de faire fructifier la connaissance et l’échange. C’est extrêmement problématique pour les relations sociales comme pour l’activité économique.

 

Faut-il accompagner ce changement de modèle en créant un revenu « universel » ou d’« existence », comme le réclament beaucoup de gens, notamment à gauche ?

 

De manière générale, je suis d’avis qu’il faut domestiquer ce qui relève pour moi de nouvelles stratégies managériales plutôt que de s’adapter à leurs desiderata. L’auto-entrepreneur, par exemple, est en réalité un auto-exploiteur, il exploite son temps de loisir et souvent sa santé. Le conflit social est ainsi effacé : comment se révolter contre soi-même ? Comment faire une auto-grève ? Faut-il vraiment caler les services de protection sociale sur ce modèle ? Au contraire, je pense qu’il faut réintégrer tout ce précariat « néotechnologique » dans une forme de salariat stable. De même, je réfute l’idée selon laquelle nous serions en train d’assister à « la fin du travail salarié ». La réalité, c’est que, depuis dix ans que les innovations technologiques s’accélèrent, la part des emplois non salariés en France a progressé de 9 % à 10,5 % (pour retrouver aujourd’hui exactement son niveau d’il y a vingt ans). La mort du salariat n’est, semble-t-il, pas pour demain. En fait, ce n’est pas notre modèle social qu’il faut adapter, mais notre modèle fiscal. Il faut trouver des moyens de contraindre Airbnb, Uber, Google, etc. à participer au modèle social dont ils bénéficient.

 

La robotisation, pourtant, est censée détruire massivement des emplois…

 

Cela relève de ce que j’appelle dans mon livre une « mythologie économique ». Une célèbre étude de 2013 nous disait que 50 % des emplois seraient menacés par la robotisation d’ici à vingt ans. Une nouvelle étude de l’OCDE distingue les tâches automatisables des emplois automatisables, et conclut que la part des emplois menacés en France est de 9 %. Ce n’est pas rien, mais nous ne sommes pas devant une vague qui va tout emporter avec elle.

 

Ce qui est frappant, c’est la force de ce discours économique ambiant. Il présente toutes ces évolutions comme inévitables, certaines prouvées scientifiquement… La « fin du salariat », selon moi, est une propagande néolibérale pure et simple qui vise à expliquer que la sécurité de l’emploi stable, désormais, n’est plus possible pour personne. Si vous répétez cela suffisamment fort et longtemps, vous aurez des gens terrorisés, prêts à accepter des conditions de travail indignes et qui ne demanderont jamais d’augmentation de salaire. Tous ces discours sont toxiques et nocifs, et ils reposent très souvent sur des travaux fragiles qu’il faut absolument aller voir de près avant d’en propager les conclusions comme des vérités d’Évangile.

 

Faut-il réhabiliter la question de la réduction du temps de travail, comme cela semble s’esquisser chez une partie de la gauche ?

 

Je ne suis pas forcément favorable, dans les conditions économiques et sociales actuelles, au passage à 32 heures, mais c’est un sujet qu’il faut débattre publiquement, sans nier le bilan des expériences passées. Plusieurs études robustes ont montré que ce sont au minimum 350 000 emplois qui ont été créés avec les 35 heures. Ce qui n’est pas négligeable quand on constate les dégâts sur l’emploi de la prétendue « politique de l’offre » menée depuis quatre ans [notamment avec le CICE, voir Politis n° 1420, NDLR].

 

Au fond, la certitude sociale à avoir, c’est que le travail, dans toute société, est partagé. Il l’est de façon subie ou de façon choisie. La question est donc de savoir comment nous pouvons choisir une répartition utile et bénéfique du travail. En baissant les cotisations sociales, en les supprimant, et, si oui, pour quel type d’emploi ? Les arguments de Dominique Méda sur cette question me semblent tout à fait intéressants.

 

Le Front de gauche faisait figurer à son programme en 2012 la promesse d’un Smic à 1 700 euros. Est-ce crédible et réalisable ?

 

Je n’aime guère le terme de « crédible », qui laisse entendre que toute proposition politique doit passer au crible de la « science économique » pour avoir droit de cité. Réalisable, certainement. Et potentiellement bénéfique, oui, à certaines conditions. Les économistes conventionnels ont longtemps voulu faire croire que le salaire minimum avait des coûts astronomiques en matière d’emploi. En réalité, de nombreuses études montrent que le salaire minimum n’a pas d’effet négatif sur l’emploi et qu’il permet en revanche de réduire fortement les inégalités. Il se trouve qu’en France, même si nous avons moins d’inégalités de revenus que dans d’autres pays, nous avons un vrai problème de travailleurs pauvres.

 

Les libéraux répondent que, pour lutter contre le chômage, il faut améliorer la compétitivité des entreprises en baissant le coût du travail. Qu’en pensez-vous ?

 

Résumer la compétitivité au coût du travail est une conception qui date du XIXe siècle. La capacité d’une économie à bien figurer dans la concurrence mondiale réside évidemment dans d’autres facteurs : les infrastructures, la qualité de vie au travail, la formation de la main-d’œuvre, les services publics, les services sociaux… À force de faire de la compétitivité l’alpha et l’oméga de l’économie européenne, nous nous sommes enfermés dans un jeu à somme nulle, où ce qui est gagné par les uns est perdu par les autres. Il n’y a plus de culture de coopération, seulement un culte de la discipline. Cela donne une zone sinistrée économiquement depuis presque quinze ans et désormais en grave crise politique. Nous n’arrivons pas à inventer un modèle de développement qui soit créateur d’emplois, car nous avons exacerbé la concurrence sociale et fiscale. Nulle part ailleurs dans le monde, l’impôt sur les sociétés n’a baissé autant que dans l’Union européenne, et, pourtant, qui peut dire que cela a créé des millions d’emplois ? La compétitivité est une notion économiquement dangereuse et politiquement mortelle.

 

On nous explique a contrario que, « dans un monde imbriqué », il serait illusoire de mener une politique de relance par la demande, en augmentant par exemple les minima sociaux ou les salaires…

 

Tout dépend du moment. Lorsque l’activité bat son plein, que les emplois sont créés par millions et que les taux d’intérêt et l’inflation sont élevés, cela n’a aucun sens de vouloir relancer l’économie. Être « keynésien », c’est reconnaître que l’on ne peut pas être keynésien tout le temps. Il se trouve qu’en ce moment nous sommes dans une phase de quasi-déflation. Depuis huit ans, nous avons empilé les erreurs économiques élémentaires : nous avons mis en œuvre, en Europe, une austérité coordonnée au moment où il y avait un ralentissement considérable de l’activité. Le résultat est catastrophique. Il suffit de comparer les taux de chômage aux États-Unis et en Europe pour constater ce qu’est, d’un côté, une politique keynésienne et, de l’autre, une politique absurde. En 2009, il y avait le même taux de chômage aux États-Unis et dans la zone euro (9,5 %). Aujourd’hui, les États-Unis sont descendus à 5 %, tandis que, dans la zone euro, nous sommes à 10 %.

 

Nous avons actuellement des taux d’intérêt extrêmement faibles (voire négatifs), une inflation faible et un sous-emploi massif. Dans cette situation, il est judicieux pour la puissance publique d’investir. Il faut donc, tout de suite, desserrer le carcan des critères budgétaires européens, avant de les abandonner pour de bon. Ensuite, a-t-on sous la main un projet intelligent d’investissement public favorable au développement humain ? Oui : cela s’appelle la transition écologique. Puisque nous sommes obligés de faire évoluer nos systèmes de production vers une économie bas carbone pour éviter la catastrophe climatique, autant en faire un levier pour l’emploi. La solution à mon sens est là.

 

Est-ce la leçon à tirer de l’exemple suédois, qui a fait peser sa fiscalité sur la pollution ?

 

Ce que la Suède a choisi de faire, avec d’autres pays nordiques, et dès les années 1990, c’est une véritable réforme structurelle sociale et écologique. Ils ont fait basculer les impôts des biens vers les maux. Du travail et des revenus vers la pollution. Aujourd’hui, la taxe carbone suédoise se monte à 120 euros la tonne de CO2. Cette réforme fiscale n’a pas empêché la Suède de créer des centaines de milliers d’emplois et d’avoir une activité économique fleurissante tout en réduisant fortement ses émissions de CO2.

 

C’est un exemple intéressant, car la « compétitivité » suédoise a fait de la question écologique une force, alors qu’elle nous est constamment présentée comme un frein. Nous avons au contraire de bonnes raisons de penser que plus le niveau de contrainte environnementale est élevé, plus cela stimule l’innovation. Il faut trouver de nouvelles idées pour faire des économies d’énergie, favoriser l’efficacité énergétique, etc. La contrainte est donc féconde. En se donnant des contraintes intelligentes, la Suède a réussi à se développer.

 

On nous explique aussi que la Suède a fait décoller sa croissance économique en 2015 (4,5 %) grâce à son plan d’accueil des migrants.

 

C’est le summum de l’indécence. L’idée selon laquelle la contribution que nous attendons de ces pauvres gens qui ont survécu au double enfer de la guerre et de la migration est une augmentation du PIB est choquante. Sous couvert d’essayer de rassurer les pays qui les accueillent, il s’agit d’une « monétarisation » des réfugiés. L’humanité, ce n’est pas ça. Le raisonnement kantien élémentaire est de ne pas prendre les gens pour des instruments, mais de considérer l’humain comme une fin en soi. Prétendre que l’argument le plus convaincant pour accueillir des réfugiés est qu’ils sont bons pour la croissance, c’est la phase morale terminale de l’« économisme » que je dénonce dans mon livre.

 

Vous militez justement pour des indicateurs prenant en compte le bien-être en économie. Qu’est-ce qu’ils pourraient changer ?

 

Tout ! Notre société est actuellement calée sur le taux de croissance. La réduction des inégalités, la fin des discriminations, la réduction des pollutions ne sont acceptables que si c’est « bon pour la croissance »… Notre devise républicaine devrait donc être « Liberté, égalité, fraternité pour la croissance ». Je pense que nous avons trois objectifs nouveaux au XXIe siècle : le bien-être, la résilience et la soutenabilité. Nous devons nous concentrer à court terme sur le bien-être : la santé, l’éducation, le revenu des personnes (qui n’est pas la croissance du PIB), la richesse de la vie sociale, la qualité de la vie civique. C’est d’autant plus important que nous constatons aujourd’hui une contradiction de plus en plus forte entre l’augmentation du PIB et celle du bien-être humain sous l’effet du dérèglement climatique.

 

Deux économistes orthodoxes ont violemment attaqué les iconoclastes, dont vous faites partie, en les traitant de « négationnistes ». Pourquoi tant de haine ?

 

Je suis très surpris par la couverture médiatique vertigineuse que reçoit ce prétendu « pamphlet ». Il s’agit en réalité d’un torchon indigne, à la fois indigent sur le fond et indécent sur la forme. Voilà deux idéologues hargneux qui osent, à l’aide d’un éditeur irresponsable, instrumentaliser quelque chose d’aussi grave que la mémoire de la Shoah pour régler des petits comptes mesquins avec des chercheurs et des journalistes qu’ils ont décrétés comme étant les ennemis de la « science ». Je ne comprends pas pourquoi on s’intéresse à ça alors qu’il y a des dizaines d’ouvrages passionnants qui ont très peu de visibilité. Il faut vite remettre ce livre dans la poubelle d’où il n’aurait jamais dû sortir et oublier cette minable opération mercantile.

 

Allons-nous vers un effondrement du capitalisme ?

 

Malheureusement, je crains que l’effondrement de la bio-sphère n’advienne avant celui du capitalisme. Le capitalisme est capable de métamorphoses complexes et subtiles. C’est sa grande force.

 

Ce que nous pouvons faire, face à la menace d’effondrement de la biosphère, c’est faire jouer ces métamorphoses dans notre intérêt en remettant la main sur la définition même du capital. Je crois en la notion de « capital naturel » ou de « patrimoine naturel », si l’on préfère. Cela n’a rien à voir avec une monétarisation de la nature, c’est une approche dynamique du développement humain. On ne peut pas conserver au XXIe siècle une définition étriquée du capital, comme le fait par exemple Thomas Piketty. Les deux formes de capital les plus importantes sont, à mes yeux, le capital social et le capital naturel. L’articulation des deux, c’est ce que j’ai appelé dans des ouvrages précédents la « sociale-écologie [^1] ».

 

Est-ce réalisable dans le cadre d’une nation ?

 

Oui, tout à fait. La justice climatique, par exemple, peut être visée à l’échelle de la France comme à celle du monde. Pendant des siècles, nous avons laissé les individus seuls face à la pauvreté, à la vieillesse, etc. Puis nous avons inventé l’État providence. C’est cela qu’il faut réinventer aujourd’hui, face à des crises écologiques qui sont en réalité des risques sociaux. J’appelle cela l’État « social-écologique ».

 

[^1] Voir notamment Pour une transition sociale-écologique. Quelle solidarité face aux défis environnementaux ?, avec Philippe Pochet, Les petits matins/Institut Veblen, 2015.

 

Éloi Laurent vient de publier Nouvelles Mythologies économiques (Les Liens qui libèrent, 112 p., 12 euros).

http://www.politis.fr/articles/2016/10/eloi-laurent-la-competitivite-est-une-notion-dangereuse-35613/