Recherche


Qui est en ligne

Nous avons 1491 invités et aucun membre en ligne

Actualités

Flux RSS

Copyright Joomla

Copyright © 2017 PCF Bassin Arcachon - Tous droits réservés
Joomla! est un Logiciel Libre diffusé sous licence GNU General Public

Economie 2016

La dette est un danger pour l’économie mondiale

 

Préambule de l'auteur Bien que plus de huit années soient passées depuis l'effondrement de Lehman Brothers, l'économie mondiale continue de souffrir de graves problèmes structurels. Non seulement le monde ne parvient pas à surmonter une faible croissance, mais pire encore, la dette a connu une augmentation explosive au cours des dernières années. Les pays industrialisés comme les États-Unis, l'Allemagne et la France ont vu une augmentation exponentielle de leur dette; de même pour les pays émergents tels que le Brésil et la Chine. Sans aucun doute, si le niveau de la dette continue de croître, plus tôt que tard, nous assisterons à l'apparition d'une nouvelle crise financière.

 

Par Ariel Noyola Rodriguez – Le 31 oct 2016 – Source Russia Today

 

Au cours des dernières années, la dette a augmenté de façon explosive. Selon les estimations effectuées par le Fonds monétaire international (FMI), la dette globale du secteur non financier – incluant les gouvernements, les ménages et les entreprises financières – est de plus de $152 mille milliards de dollars. Un volume qui représente 225% du PIB mondial. De ce total général, environ $100 mille milliards de dollars correspondent à des dettes acquises par les entreprises privées et les ménages. Le reste est la dette publique.

 

Les économies des pays industrialisés se trouvent, selon moi, dans la situation la plus critique. En plus d’avoir des taux de croissance trop bas, le niveau d’endettement, tant public que privé, augmente à un rythme sans précédent. Le principal problème de tout cela c’est que, face à ce haut niveau d’endettement, les entreprises et les ménages sont obligés d’employer une proportion croissante de leurs revenus à la liquidation de leurs dettes, réduisant ainsi dramatiquement les ressources qui pourraient être canalisées vers les investissements et la consommation.

 

Une fois arrivé à ce point, on court le risque que l’acquisition de grandes dettes rende difficile le processus de désendettement (deleveraging) et finisse donc par saper l’expansion de l’économie productive et de l’emploi. Il s’agit d’un cercle vicieux qui pourrait bien générer de nouvelles bulles financières et, d’un moment à l’autre, provoquer un résultat violent. D’autre part, si l’on tient compte du fait que les taux d’inflation sont actuellement en dessous de 2 % (en termes annuels) dans presque tous les pays industrialisés, ce n’est pas une idée saugrenue de penser qu’une spirale combinée de la dette et de la déflation (la baisse des prix) est aujourd’hui une menace latente.

 

L’autre problème majeur, comme je l’ai déjà fait remarquer à plusieurs reprises, est que l’artillerie de la banque centrale pour lutter soit contre une récession, soit contre une crise financière, est presque épuisée. En ce moment, les taux d’intérêts de référence sont très proches de zéro dans la plupart des pays industrialisés. Par conséquent, la marge de manœuvre pour diminuer encore plus le coût du crédit interbancaire au jour le jour est presque nulle. Selon les calculs de la Banque américaine Merrill Lynch, depuis le déclenchement de la crise financière de 2008, les Banques centrales du monde entier ont réduit plus de six cent fois leur taux de référence. En outre, elles ont injecté, conjointement, pour plus de $15 mille milliards de liquidités, selon Bloomberg.

 

À mon avis, si la débâcle de l’économie mondiale s’approfondit, les banques centrales des pays industrialisés prendront des mesures beaucoup plus risquées. Par exemple à travers l’utilisation d’outils déjà familiers. La Réserve fédérale (Fed) américaine pourrait bien relancer son programme d’achat de bons du Trésor, et même commencer à acquérir d’autres types de titres financiers, et pas seulement ceux qui sont adossés à des hypothèques (mortgage-backed securities), alors que la Banque centrale européenne (BCE) et la Banque du Japon (BOJ) pourraient augmenter à nouveau le volume de leurs achats d’actifs.

 

Il convient également de noter que plusieurs pays ont déjà lancé d’autres mesures de politique monétaire : la réduction des taux de dépôt en territoire négatif. L’objectif est de dissuader les banques commerciales de déposer leur trésorerie dans les banques centrales et les encourager ainsi à fournir des crédits à des activités productives. Cependant, jusqu’à présent, les résultats de cette mesure sont décevants.

 

L’imposition de taux de dépôt négatifs n’a pas fonctionné comme prévu. De plus, il semble que cela n’a fait qu’aggraver la crise de rentabilité des banques. Actuellement, plus de $10 milliards de dette sont négociés avec des rendements négatifs, selon les données de la Banque des règlements internationaux (BRI), une situation qui rend difficile le dégagement de bénéfices pour les banques, les caisses d’épargne et les fonds d’assurance et de retraite.

 

De leur côté, les économies émergentes ne sont pas exemptes de risques. Bien que la dette publique soit à un niveau gérable – à la différence des économies industrialisées – le volume de la dette privée répertoriée est colossal : les sociétés qui exercent leurs activités dans des pays comme le Brésil ont émis d’importantes dettes libellées en dollars.

 

Dans le cas de la Chine, considérée comme une économie émergente d’importance systémique, de nombreuses entreprises ont été financées par des centres financiers offshore (OFC) au cours des dernières années. Selon l’Organisation de coopération et de développement économiques (OCDE), la dette privée en Chine représente plus de 150% du PIB. À cela s’ajoute le problème, qui est loin d’être facile pour le gouvernement chinois, des surcapacités dans plusieurs secteurs de l’économie, en particulier ceux qui restent fortement endettés.

 

Sans aucun doute, la dette excessive est devenue un frein dangereux pour l’économie mondiale. Cependant, au-delà du fait que l’endettement élevé constitue un obstacle à l’expansion durable d’une économie, la plus grande menace est que, à un moment donné, ce nouveau cycle de surendettement ne finisse par faire exploser une autre crise financière mondiale.

 

Ariel Noyola Rodríguez est économiste, il a fait ses études supérieures à l’Université nationale autonome du Mexique.

 

Contact : Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser.. Twitter:@noyola_ariel.

Cahuc et Zylberberg révolutionnent la science (ou pas…)

 

Jacques Sapirpar  · 

Les préjugés de l’économie dominante ont trouvé récemment deux hérauts, MM. Cahuc et Zylberberg. Dans un livre qui vient de sortir, ils assimilent toute pensée hétérodoxe à un « négationnisme économique »[1]. Passons sur l’usage odieux du terme « négationnisme », qui vise à assimiler tous ceux qui ne partagent pas ces dits préjugés à ceux qui nient les génocides. Cet usage discrédite largement ces deux auteurs et la thèse qu’ils prétendent défendre. Mais, on trouve chez eux surtout un profond mépris pour l’épistémologie et la méthodologie de l’économie. De nombreux économistes se sont d’ailleurs élevés contre la méthode et les arguments de ces deux énergumènes[2]. On retiendra le texte d’André Orléans à cet égard[3]. De fait, ce débat, si l’on peut parler de « débat » en l’occurrence, rejoue mais de manière bien plus violente celui de 2000, qui avait donné, suite à un véritable soulèvement des étudiants en sciences économiques, naissance à l’association Post-Autistic Economics qui s’est depuis transformée en une association mondiale (la World Economics Association) et qui publie une revue en ligne, la Real-World Economics Review[4]. J’ai publié de nombreux textes sur la méthodologie de l’économie, qu’il s’agisse de livre (comme Les trous noirs de la science économique[5]) ou d’articles[6]. Il y a donc largement une sensation de « déjà vu » dans ce débat, surtout en raison du niveau lamentable des arguments utilisés par Cahuc et Zylberberg.

 

Les « préjugés » ont donc une large place dans ce que l’on appelle la « science économique », et ne sont pas l’apanage des courants hétérodoxes, bien au contraire. Ils définissent une large part de la représentation traditionnelle des problèmes économiques, en en particulier son modèle de comportement de « l’hommo oeconomicus »[7]. Dans l’autodéfinition de cette discipline, telle qu’elle est pratiquée par les économistes du courant « orthodoxe » ou « standard », on peut en effet voir les effets d’un coup de force datant du XIXème siècle avec Léon Walras, qui prétend établir en « science » ce qui n’est que la transposition d’une vieille conception de la mécanique et de la physique[8]. En fait, il y a des démarches scientifiques, dont il faut définir les conditions, plus qu’il n’y a de science au sens normatif. Ceci implique une discussion sur les bases méthodologiques, terrain qu’évite soigneusement l’économie dite dominante et ses « théoriciens »[9]. Cette dernière développe alors des stratégies d’évitement et de contournement pour refuser de se confronter à la réalité, et ces stratégies ne sont ni neutres ni fortuites.

 

1. La très grande fragilité de la thèse de la « validation statistique » de modèles profondément idéologiques

 

La question de la validation d’une théorie par des vérifications statistiques soulève de nombreux problèmes, tant épistémologiques et méthodologiques, que techniques. Or, c’est bien cette validation dont se réclament Pierre Cahuc et André Zylberberg, sans savoir ce qu’ils manipulent en réalité comme notions et comme problèmes.

 

Il convient ici de se souvenir que la base théorique de l’inférence statistique est liée à la théorie des probabilités. Pourtant, les théoriciens de l’économie qui usent et abusent des méthodes statistiques rechignent traditionnellement à user de la théorie des probabilités[10]. Ce paradoxe est important non seulement pour comprendre l’économétrie de Frisch et d’Haavelmo dans laquelle s’inscrit la Nouvelle Econométrie de Lucas[11] et Sargent. Le développement de la validation statistique des théories économiques à partir de la fin du XIXe siècle s’est fait sur la base de la généralisation du calcul macroéconomique dans la statistique économique qui avait pris son essor une génération plus tôt dans les années 1860. C’est ce socle qui a permis la connexion de la théorie marginaliste individualiste avec la loi des grands nombres[12]. Il convient cependant de différencier dans la théorie économique, l’application a priori de probabilités non vérifiées de l’application a posteriori de probabilités statistiques[13]. C’est Tygve Haavelmo, qui accomplit finalement la révolution probabiliste[14]. Il montre que tant que la théorie des probabilités est en réalité au fondement des méthodes statistiques utilisées par les économistes. On ne peut utiliser ces méthodes en refusant la première sauf à travailler avec un schéma de probabilités informel qui reste impensé. Les problèmes de non indépendance des observations et de non homogénéité des conditions à travers les périodes temporelles, sont justement les problèmes qui appellent à appliquer la théorie des probabilités au traitement des données économiques. Le modèle devient donc une hypothèse a priori sur le vrai phénomène. Haavelmo distingue alors les dispositifs expérimentaux en deux classes, d’une part les expériences dites actives où l’on cherche à vérifier si un phénomène artificiellement isolé vérifie certaines hypothèses, et les expériences dites passives où l’on observe les production du laboratoire de la « Nature ». Dans le second cas on peut seulement ajuster la théorie à la réalité telle qu’elle se présente. En ce cas, comment mettre au point un dispositif expérimental si ce n’est en choisissant une théorie et un dispositif dont résulte des données. C’est là le problème fondamental de l’économétrie dans la mesure où la plupart des théories économiques requièrent des expérimentations du premier type, alors que les données économiques à disposition sont essentiellement du second type[15]. Mais dans les faits, cette technique laisse entier le problème Duhem-Quine[16].

 

Confrontée aux diverses objections provenant soit des écoles institutionnalistes, soit même de courants émanant du sein même de la TEG, ses partisans ont tenté un nouveau coup de force pour instituer l’économie comme science du même type que les sciences de la nature. Pour rompre avec les sciences sociales, ils ont eu recours à l’hypothèse ergodique[17]. L’emploi d’un métaphore empruntée à la mécanique et à la physique est ici parfaitement conscient. Il s’agit de renforcer la dimension mécaniste de la représentation de l’économie mais aussi, on peut le penser, de camoufler sous un outillage à priori complexe des a-priori idéologiques bien constitués. L’hypothèse ergodique a été formulée au tournant du XXème siècle pour trouver une solution à des problèmes relevant de la physique des gaz. Au sens de sa définition par H. Poincaré, elle implique que, dans un système donné on soit en présence d’une récurrence parfaite. Elle postule alors l’égalité des moyennes de phase dans une expérimentation où il n’est plus possible de mesurer un nombre suffisant de microphénomènes. Au sens donné par Von Neumann, elle signifie une convergence forte des résultats[18]. En économie, cette hypothèse permet de supposer que si les observations statistiques disponibles relèvent de processus stochastiques, alors il y a convergence à l’infini. Ceci donne une justification mathématiquement élégante à l’hypothèse des anticipations rationnelles[19]. Dans un environnement ergodique, le futur peut être saisi par la projection de statistiques récoltées sur le passé[20]. On suppose donc qu’il y a des lois en économie, au sens que l’on donne au terme de loi en physique. Même si elles ne nous sont pas directement accessibles, il est alors possible d’en déduire le mouvement par des observations statistiques, même imparfaites. L’hypothèse ergodique en économie revient, dans sa forme originelle, à postuler un déterminisme complet. Mais, quand on parle de tests économétriques, de “preuves” statistiques, il faut savoir que les statistiques ne sont pas la réalité, mais une traduction normalisée de la réalité. Elles ne sont pas, non plus, une pure manifestation de l’imagination du statisticien, personnage en réalité plus honnête qu’on ne le croit, et que les économistes ne veulent l’admettre.

 

Les statistiques ne font que traduire une certaine réalité en fonction d’une norme donnée. La question qu’il faut toujours se poser est de savoir si la norme utilisée a un sens compte tenu de la réalité que l’on veut traduire. Pour des pays dont le niveau de commercialisation des activités productives est comparable, il n’y a aucun danger à user du PIB. Mais, si les structures sociales et économiques sont hétérogènes, alors la question de la norme de traduction devient essentielle. Or, l’utilisation des statistiques économiques comme “preuves” implique que l’on se livre à des comparaisons étendues, pour que les résultats soient généralisables. On est donc obligé, d’emblée, d’inclure des situations fortement hétérogènes. C’est ce qui explique pourquoi on observe souvent de fortes rectifications en cours d’élaboration de modèles, car le niveau d’hétérogénéité des situations n’a pu être pris en compte.

 

2. Statistiques et « funny animals »

 

Il faut ensuite prendre en compte la nature des paramètres utilisés. Les statistiques économiques sont parfois des animaux bien étranges et bien malicieux pour celui qui n’y prend garde, ce que l’on appelle en anglais des « funny animals ». Un simple exemple permettra de saisir l’ampleur du problème.

 

Imaginons un pays dont les habitants, à la période initiale, produisent deux biens. le premier sert à leur consommation alimentaire, et il est produit dans le cadre d’exploitations familiales et non commercialisé. Le second est entièrement vendu à l’étranger et sert à payer les autres dépenses. Supposons que, dans une seconde période, les habitants de ce pays, considérant les prix relatifs de ces deux bien sur le marché mondial, décident de ne plus produire que le second, et d’acheter aussi à l’étranger leur consommation alimentaire. Si on calcule le PIB de ce pays, on mesurera une forte croissance de la première à la deuxième période, sans que cela implique que la richesse réelle du pays ait augmenté dans les faits. Le paradoxe vient de ce que le PIB (ou le PNB) ne mesure que la production commercialisée. Imaginons maintenant que, au lieu de deux périodes, nous ayons deux pays différents. Le premier, celui où une large partie de la production est autoconsommée, apparaîtra dans les statistiques internationales, comme bien plus pauvre que le second. Et l’économiste, qui voudrait mesurer ce que l’ouverture sur le marché mondial apporte en richesse aux économies nationales pourra conclure, s’il n’y fait garde, que cet exemple prouve indiscutablement les bienfaits de l’ouverture. Nombre de modèles sur le commerce international, en particulier ceux qui sont utilisés pour « démontrer » l’utilité d’accords comme le CETA ou le TAFTA, reposent sur ce genre de paradoxe.

 

Cet exemple permet de montrer un point fondamental pour la compréhension du discours économique. Il repose presque toujours sur des conjectures complexes ou emboîtées qui ne sont donc jamais directement testables. Pour pouvoir avancer, il faut désemboîter les conjectures, les déconstruire. Alors est-il possible d’en tester certaines. Mais cette possibilité est elle-même limitée. La testabilité des conjectures, dans un domaine ayant trait aux activités humaines, est toujours mise en cause par la multiplicité des paramètres et la nature de ces derniers.

 

Quand un enseignant en économie prononce devant ses élèves ou étudiants l’expression consacrée « toutes choses étant égales par ailleurs », il ne fait que nier, à des fins pédagogiques ou démonstratives, cette multiplicité. Il suppose en effet que l’on puisse, dans les activités humaines, modifier un paramètre sans que l’ensemble des relations en soit affecté. Autrement dit que les opérateurs humains cessent de s’interroger sur leur propre futur et de se demander ce que pourrait impliquer pour eux un tel changement. Écrivant cela, on ne récuse pas d’emblée la modélisation, qui repose bien entendu sur cette clause « toutes choses étant égales par ailleurs ». Comme outil pédagogique, elle a bien des attraits. Mais, s’il faut utiliser une comparaison, un modèle n’est jamais qu’un simulateur. Et tout pilote qui s’entraîne sur un simulateur sait que le vol réel peut lui réserver bien des surprises, aussi perfectionnée que soit la machine dans laquelle il s’entraîne. La distinction entre un formalisme mathématique assis sur une axiomatique rigoureuse, et une approche permettant de rendre opérationnels des résultats, a fait l’objet d’un certain nombre de travaux en économie[21]. Ce qui est en cause ici, c’est le passage de la pédagogie à la démonstration. Il n’est d’ailleurs pas innocent que l’on puisse glisser aussi facilement du registre de l’enseignement à celui de la discussion et de la conviction. Dans une démonstration, on prétend emporter l’adhésion de ses égaux, alors que dans un enseignement on transmet dans un cadre hiérarchique des propositions que l’on est en droit de simplifier à loisir. User des méthodes de la pédagogie là où il y a discussion, c’est implicitement nier l’égalité initiale des statuts, et donc subvertir le principe même de la discussion.

 

3. Nécessité de la méthodologie et stratégies d’évitement de ceux qui refusent cette nécessité

 

Les stratégies utilisées par les économistes dits soit « standards » ou soit « orthodoxes » pour éviter de se confronter à la réalité et pour maintenir une axiomatique largement dépassée, sont nombreuses. Mais, plus profondément, ces stratégies dénotent un total mépris pour l’épistémologie et la méthodologie économique. L’argument d’autorité n’est jamais loin.

 

Bruce Caldwell a ainsi répertorié cinq arguments qui sont utilisés par les économistes standards pour dénier aux discussions méthodologiques leur importance: (a) l’économie ne s’enseigne pas à partir de la méthodologie, (b) les spécialistes en méthodologie ne sont que des arrogants qui prétendent savoir mieux que les autres, (c) les débats méthodologiques sont stériles, (d) la méthodologie est une occupation de marginaux qui n’ont rien de mieux à faire et (e) la connaissance de l’économie rend la méthodologie superflue[22]. Caldwell montre que ces cinq arguments se réfutent sans problème. L’objet de la méthodologie n’est tout d’abord pas d’enseigner une discipline, quelle qu’elle soit, mais de permettre au scientifique d’avoir un regard sur sa pratique. En ce qui concerne l’arrogance, il est d’ailleurs clair que les économistes standards ne craignent personne, eux qui sont souvent suffisants mais rarement nécessaires. Par ailleurs, il est faux de dire que les débats méthodologiques sont stériles; on peut montrer qu’il y a des progrès, au moins sous la forme de détermination de problèmes spécifiques et d’évaluation de démarches différentes. On doit ici ajouter que ceux qui critiquent la méthodologie sont souvent les premiers à en faire, ne serait-ce que pour formuler des critères de « scientificité » dont ils se servent pour retirer toute légitimité à leurs contradicteurs. Enfin, on est sidéré par l’affirmation qu’il pourrait y avoir une connaissance sans critères de la validité de cette dernière. La connaissance de l’économie implique, par définition, que l’on ait une méthodologie, au moins implicite. Mais, si de telles normes et de tels critères sont nécessaires, alors en discuter devient légitime.

 

Une autre attaque contre la méthodologie est alors possible. Certes des normes sont nécessaires, mais elles sont toutes également justifiées. Telle est l’essence de l’argumentation de Deirdre (Donald) McCloskey dans son livre sur la rhétorique de l’économie[23]. McCloskey accepte l’idée générale que la méthodologie a pour objet, entre autres, l’évaluation de la solidité des argumentations en fonction de critères donnés. Mais elle défend deux thèses particulières, l’une selon laquelle l’adoption d’une méthodologie, quelle qu’elle soit, ne provoque aucun avantage en termes cognitifs, et l’autre qu’il ne saurait y avoir de bon raisonnement hors celui de la majorité. La Vérité étant pour lui une notion vide de sens, seul subsiste l’objectif rhétorique de convaincre le plus grand nombre. Toute argumentation qui a acquis cette capacité devient alors la vérité du moment. Feyerabend pousse cette thèse dans ses ultimes retranchement et prétend qu’il n’existe aucun argument pour choisir une norme ou un critère plutôt qu’un autre[24]. Cette vision contient un aspect instrumentaliste (qu’importe les bases de mon raisonnement si la conclusion est opératoire), démarche qui constitue justement une des bases de la méthodologie néoclassique[25].

 

Daniel Hausman a montré que le rejet du concept d’une Vérité transcendante n’implique nullement celui de la nécessité de procédures de vérification[26]. Ces dernières reposent bien entendu sur des partis-pris, mais elles contraignent alors celui qui les formule à un effort de cohérence. Il y a, en réalité, une vision dévoyée de l’activité scientifique dans les démarches qui se parent de l’image du postmodernisme et de la critique radicale. Dire que tout n’est pas testable, qu’il y a du contexte et de la représentation sociale dans toute norme d’évaluation, affirmations qui sont exactes bien entendu, n’implique nullement de dire que rien n’est testable et que tout se ramène au contexte et aux représentations sociales.

 

4. Le post-modernisme est-il l’ennemi ?

 

Mais il y a une autre manière de refuser de se confronter à la réalité, c’est ce que l’on appelle le « post-modernisme ». Appliquée à la méthodologie de l’économie, la démarche dite post-moderne se refuse de voir dans l’éclatement des normes et critères, dans les incohérences grandissantes au sein de certains argumentaires, un symptôme de la crise de cette discipline. Elle y voit au contraire un état normal des choses. Dès lors, seule compte l’opinion de la majorité, même si celle-ci est incohérente[27]. On peut ainsi proclamer le retour au consensus au sein des économistes, mais c’est au prix de la mutation de ce qui devrait être une démarche analytique en un conformisme idéologique.

 

Sheila Dow y voit alors une intolérance de la tolérance[28]. Au-delà, quand on mesure que l’économie n’est pas un espace de pure spéculation, mais un espace de pouvoir, au sein des institutions universitaires et assimilées ou dans la cité politique, on devine l’aspect profondément pervers de ces discours réfutant par avance la possibilité d’une critique minoritaire d’une orthodoxie dominante. Si, comme le prétend McCloskey, il n’est pas de méthodologie mais seulement une rhétorique, les minoritaires ont tort par essence; s’ils avaient raison, ils seraient majoritaires…Si, comme le prétendent les post-modernes, tout se vaut et tout s’équivaut, alors pointer des incohérences dans les raisonnements, chercher vérités et erreurs, sont des activités vides de sens. Les postures soi-disant hyper-critiques ne sont ainsi que des apologétiques, à peine honteuses, de l’ordre dominant. Pierre Bourdieu a bien montré comment positivisme naïf et relativisme ne sont que les deux faces d’une même erreur[29]. Ainsi, l’objectivité n’existe pas en elle-même mais doit s’établir, mais cet établissement, s’il est articulation avec des perceptions et des pratiques, ne s’y réduit nullement. Le texte de Bourdieu est par ailleurs fortement critique par rapport aux économistes, à qui il est reproché de tenir pour objectif ce qui n’est que qu’inconscient de classe, ou de fétichiser des formes spécifiques en leur attribuant une essence intangible, comme dans le domaine de la théorie des préférences[30]. Ces critiques sont à la fois justifiées et injustes. Justifiées dans le sens où elles visent des textes et morceaux d’argumentation bien connus et indéniables. Injustes par leur généralisation, en attribuant à l’économie ce qui n’est que l’erreur d’un de ses courants.

 

La thèse de Bourdieu peut cependant donner naissance à une forme de réfutation de la méthodologie, où on suppose que le processus conduisant des scientifiques à adopter des paradigmes centraux est le produit (a) de la volonté de maximiser un capital symbolique socialement défini par l’institution au sein de laquelle ils opèrent et (b) des facteurs sociaux qui déterminent le contenu d’une théorie reconnue et de ses paradigmes centraux. Cette thèse a été popularisée par Bruno Latour dans sa sociologie de la vie de laboratoire[31]. Le problème est qu’elle suppose un lien prévisible entre l’adoption d’une conjecture et des avantages, symboliques et matériels. Autrement dit, le scientifique (A), si il choisit le paradigme (X) et non (Y) entend ainsi maximiser sa réputation. Mais comment peut-il en être sur?

 

Une réponse paranoïaque est possible. La position dominante du paradigme (X) résulte d’un complot dominant (la « science officielle »). Ce paradigme, et les conjectures qui y sont liées, sont irréfutables au sens Poppérien car il y a suppression des résultats non-conformes, voire des chercheurs non-conformistes. D’un point de vue descriptif, une telle thèse est très rarement vraie, mais peut l’être dans certains cas. Même les paranoïaques ont des ennemis. Du point de vue méthodologique, elle est absurde, car elle suppose de considérer comme norme ce qui est clairement une situation pathologique.

 

On peut cependant tenter de répondre sur un autre plan en supposant que le système étudié vérifie une hypothèse ergodique. Si celle-ci est limitée, un chercheur peut raisonnablement supposer qu’il faudra une lente accumulation de données pour ébranler le paradigme (X). Il court donc un faible risque en le choisissant. Le problème cependant, comme le fait remarquer Uskali Mäki, c’est que dans ces conditions on explique uniquement la reproduction d’un courant dominant, et non son origine, et que de plus on ne peut comprendre pourquoi survivent des positions minoritaires[32]. Si tous les chercheurs sont des maximisateurs rationnels et si l’on confronté à une ergodicité, il est irrationnel de choisir (Y) contre (X). En fait, l’hypothèse faite en amont d’une crédibilité, ou d’une réputation, « objective » et dont l’évaluation est indépendante du contexte est plus que douteuse[33]. Des sociologues des sciences comme Callon et Law ont ainsi été conduits à contester la vision purement externaliste, la dissolution du noyau dur de toute découverte scientifique dans son contexte social, qui caractérise Bruno Latour. Pour eux, il y a dans l’activité scientifique du déterminisme et du compromis[34].

 

5. Préjugés et extinction du popperianisme (après 10h du soir…).

 

L’économie s’est en effet ralliée, du moins pour son courant standard, dès 1938 aux thèses de Karl Popper[35], et a voulu chercher dans le principe de réfutation, le falsificationisme, une garantie de scientificité. La démarche de Popper est en effet attrayante pour une économie découvrant les délices de l’économétrie et supposant qu’elle pourrait bientôt tester la totalité de ses conjectures. Ceci permettait aussi d’esquiver le débat sur le réalisme des hypothèses initiales, débat porté par les courants contestataires qu’ils soient institutionnalistes ou marxistes. Cette démarche était cohérente avec le parti-pris de rigueur axiomatique introduit par Walras à la fin du XIXème siècle [36]. La référence à Popper va donc rester un point obligé pour les quelques économistes de ce courant intervenant dans le domaine de la méthodologie[37]. Le modèle visé étant ici la science physique[38], avec en particulier la proposition de Paul Samuelson de prendre comme base de départ l’hypothèse ergodique[39], et l’objectif affiché celui d’obtenir pour l’économie le statut d’une science dite « dure ». Dans le même temps, elle fonde l’instrumentalisme de Milton Friedman, qui récuse d’emblée tout débat sur le réalisme des hypothèses[40]. On passe alors, pour reprendre la formule de Bruce Caldwell à un empirisme logique qui succède au positivisme logique[41].

 

Le falsificationisme poppérien soulève cependant de nombreux problèmes. Il se heurte tout d’abord à la conjecture de Duhem et Quine[42]. Pour que la testabilité soit robuste au sens de Popper, il faudrait que l’on puisse tester les conjectures seules et que les méthodes d’évaluation des résultats ne soient pas chargées en théorie. Ce problème, déjà important en physique, devient rédhibitoire en économie où les agrégats utilisés pour quantifier ne font que normaliser une réalité à partir de conjectures théoriques implicites[43]. Un second problème tient à la nature des prévisions par rapport au mode de testabilité. Dans la grande majorité des cas les prévisions sont qualitatives, alors que la vérification est quantitative[44]. Un troisième tient à la manière même dont Popper utilise la réfutation et la falsification. Pour lui la falsification doit engendrer un rapprochement des théories avec la réalité, et le progrès théorique doit se mesurer à la capacité à expliquer des faits nouveaux. Or, non seulement Popper lui-même admet que le premier critère est invalidable[45], mais de plus l’économie vérifie toujours ses conjectures sur des événements passés[46]. Dans ces conditions, on ne doit pas s’étonner d’une très large remise en cause de l’applicabilité de la méthodologie poppérienne[47].

 

Ces limites ont entraîné un certain nombre d’économistes qui refusent d’abandonner l’empirisme logique à se pencher vers Imre Lakatos[48]. Cet auteur a proposé de mettre l’accent sur des programmes de recherche qui seraient définis par un noyau dur d’hypothèses, réputées infalsifiables, et une ceinture protectrice d’hypothèses, elles falsifiables et réfutables, et pouvant être remplacées. La cohérence, et la scientificité d’un tel programme de recherche découlant de la capacité du noyau dur à engendrer des prévisions et de sa cohérence interne. Lakatos appelle ainsi dégénérescence d’un programme l’introduction, au sein du noyau dur, d’hypothèses ad-hoc. Une telle démarche présente tout à la fois des différences substantielles et des ressemblances avec celle de Popper. La notion de noyau dur, l’idée que le progrès scientifique puisse venir de la corroboration de conjectures et non de leur réfutation marquent les différences. Néanmoins, l’accent mis sur la testabilité, ou la falsification, ainsi que l’idée de prévision, renvoient clairement au cadre poppérien.

 

Les économistes du courant standard ont rapidement vu l’intérêt d’une telle approche. Le noyau dur du programme de recherche qualifié alors de scientifique (ce qui implique que les autres ne le sont pas…) est alors caractérisé par la théorie des préférences de l’agent, l’hypothèse d’individualisme méthodologique et la maximisation sous contrainte[49]. La définition d’un tel noyau dur est cependant loin d’être facile, compte tenu des tensions internes de ce courant[50]. De plus, il est confronté au fait que certaines de ses hypothèses, en particuliers celles concernant les préférences individuelles, sont en réalité testables et ont été invalidées.

 

Avant même que ces économistes aient commencé à se référer explicitement à Lakatos, d’autres travaux en avaient montré les limites. La part poppérienne chez Lakatos est tout aussi vulnérable que Popper lui-même à la conjecture de Duhem-Quine[51]. Il faut aussi ajouter que l’économie procède par relecture successive de problèmes et d’événements et non pas seulement, ni même principalement, par prévision et prédiction. Ceci rend inapplicable la méthodologie proposée par Lakatos[52]. Par ailleurs, si on applique cette méthodologie au courant dominant en économie, il est clair que ce dernier a procédé, depuis la fin des années soixante-dix, à l’introduction d’un certain nombre d’hypothèses ad-hoc dans son noyau dur, comme la prise en compte des institutions. En ce sens, on pourrait soutenir que, du point de vue de la démarche de Lakatos, le programme de recherche du courant standard est effectivement dégénéré !

 

6. Crise méthodologique et force des préjugés.

 

En fait, l’économie « standard » ou « orthodoxe » connaît depuis une bonne quinzaine d’années une profonde crise méthodologique. Sa nature profondément idéologique éclate de manière de plus en plus manifeste.

 

Le constat d’une crise méthodologique au sein du courant dominant semble devoir être évident. Sheila Dow montre[53] que les différents auteurs du « mainstream » s’opposent désormais entre un camp se réfugiant dans une axiomatique irréaliste, dans la tradition ouverte par Friedman en 1953, et un autre recourant à l’empirisme, mais sans garde-fous si ce n’est que techniques en matière de procédures de vérifications[54]. Dans un tel contexte, on comprend alors l’intérêt que suscitent au sein de ce courant les théories déniant toute importance à la méthodologie, qu’il s’agisse des thèses sur la pure dimension rhétorique de l’économie, défendue par McCloskey, ou des positions de type post-moderne se réfugiant dans l’hyper-critique[55]. Or, comme on l’a indiqué, ces deux approches ont pour effet immédiat de transformer l’économie en pure apologétique.

 

La robustesse d’un fait scientifique résulte d’un alliage entre des réseaux humains, des pratiques reconnues, un intérêt de la part d’un utilisateur potentiel. Cette robustesse est donc forcément temporaire, toujours susceptible d’être minée par le doute quand les réseaux se décomposent et se transforment, les pratiques évoluent, les intérêts se déplacent[56]. Une partie de l’incompréhension engendrée par le statut des résultats en économie, vérités révélées ou simples affirmations idéologiques, tient dans les illusions qu’engendre l’aveuglement volontaire sur les modes de vérifications. Pour en sortir, il faut accepter la séparation radicale entre le statut d’une discipline dans la typologie générale des sciences, et la nature des pratiques des chercheurs opérant au sein de cette discipline. Savoir si, oui ou non, l’économie peut prétendre au statut de science dite « dure » n’a en réalité aucun intérêt, si ce n’est, mais dans un autre contexte, celui de valoriser l’économiste dans ses relations avec le décideur politique. Par contre, la question des pratiques des économistes est, elle, absolument fondamentale.

 

Un regard rétrospectif sur l’épistémologie de Keynes s’avère ici nécessaire si on veut pratiquer la distinction entre science et pratique scientifique[57]. En économie, la part des « évidences disponibles », c’est à dire des énoncés qui font si ce n’est l’unanimité de la profession, du moins qui sont admis par un grand nombre de chercheurs, jouent un rôle déterminant[58]. Cette controverse, et l’histoire des controverses passées, permet de séparer le poids d’un énoncé de sa probabilité. Par poids, il faut entendre, à la suite de Keynes lui-même[59], la quantité d’évidences disponibles pertinentes à un argument donné, et leur cohérence réciproque. Soutenir ainsi un énoncé par des évidences disponibles issues de champs méthodologiques opposés diminue au lieu de l’accroître le poids de l’énoncé. La probabilité d’un énoncé renvoie quant à elle au degré de vérification des évidences disponibles. Avoir une démarche scientifique, pour un économiste, ne peut donc signifier n’émettre que des conjectures testables et vérifiables. A ce compte, il serait silencieux la plupart du temps. Cela veut dire dans un premier temps évaluer, par les controverses présentes et passées, le poids des énoncés dont il se sert ou qu’il veut réfuter. Puis, quand il le peut, soumettre les évidences disponibles à l’épreuve de la vérification, tout en sachant que, du fait même de la nature de la discipline, cette dernière ne peut être que limitée et imparfaite. La vérification joue donc ici moins le rôle de l’établissement d’une preuve que de l’invalidation de certaines conjectures. Si l’énoncé A, repose strictement sur les évidences x, y, z, qui elles mêmes sont liées à des conjectures a, b et g, et que l’une de ces conjectures soit testable, la validation de l’une ne prouverait pas l’énoncé, mais l’invalidation de l’une serait suffisante pour amener au rejet de l’énoncé. Se plier à cette discipline ne garantit nullement que les résultats soient « vrais », mais établit la distinction entre une pratique scientifique de l’économie et une pratique idéologique, où les énoncés visent d’abord et avant tout à justifier des options métaphysiques ou politiques sous-jacentes[60].

 

7. Ce que serait une véritable méthodologie scientifique (et ce que n’est pas la « méthode » Cahuc-Zylberberg)

 

Des éléments de critique de la méthodologie dominante, et de ses avatars, que l’on vient de présenter on peut dégager une direction alternative, aboutissant à un type de méthodologie ouverte. Pour y parvenir, il faut reprendre certains des problèmes évoqués, et en premier lieu celui de la sous-détermination, c’est à dire le fait que des données économiques peuvent être utilisées pour justifier des explications dans des cadres théoriques complètement différents. Uskali Mäki écrit ainsi: « La thèse de la sous-détermination proclame que les données et la logique sont insuffisantes pour contraindre le scientifique à une décision unique en terme d’adhésion ou de rejet d’une théorie donnée. Comme nous savons que de telles décisions sont prises dans les faits, nous devons admettre que d’autres contraintes se glissent ici, si nous ne voulons admettre que le procès est complètement aléatoire » [61].

 

Cette remarque est particulièrement importante, car elle renvoie en fait au statut double, analyste et acteur, de l’économiste. Mäki suggère que d’autres contraintes finissent par s’introduire dans le cadre conceptuel de l’économiste. Si nous considérons ce dernier dans sa fonction d’analyste, ceci pose le problème de la nature du système qu’il observe et analyse. Pour qui, à la suite de Samuelson, considère que l’économie est assimilable à un système ergodique au sens fort du terme, alors même si les observations ne sont pas directement révélatrices de lois du système, elles n’en engendrent pas moins une convergence, sous l’hypothèse que le comportement de l’analyste soit lui-même rationnel[62]. Dès lors la sous-détermination n’est que temporaire. Supposons, maintenant, que l’économie n’admette que des ergodicités limitées, soit qu’elle n’existe que sous la forme de systèmes locaux et temporaires. Alors, la sous-détermination résulte d’une incapacité à collecter assez de données dans les plages de stabilité, et de l’impossibilité de comparer directement les données provenant de systèmes différents. La sous-détermination est ici structurelle et la non-convergence des interprétations ne relève pas d’un manque de rationalité mais bien d’une incapacité de fait à trancher sur la simple base des données. Si, enfin, on accepte de se placer dans l’hypothèse où l’économie ne relèverait jamais d’une hypothèse ergodique, et ce sous quelque forme que l’on puisse l’exprimer, alors la sous-détermination serait fondamentale , et la non-convergence ne résulterait pas d’une incapacité de fait, mais d’une impossibilité de principe.

 

Une méthodologie ouverte doit pouvoir fonctionner dans ces trois cas de figure, car supposer une adéquation de la méthodologie avec une de ces hypothèses, c’est supposer que nous connaissons déjà le résultat de notre programme de recherche au moment où nous en établissons les règles de fonctionnement.

 

Maintenant, si on admet que l’économiste n’est pas seulement un observateur mais aussi un acteur, et qu’il peut, à travers les conseils qu’il prodigue à un gouvernement, ou à une puissance privée de grande importance, peser sur les règles de fonctionnement du système, le problème se déplace. D’une part la nature de la rationalité de l’économiste change, puisqu’il est à la fois dans une posture d’analyse et de justification. D’autre part, si l’ergodicité du système peut être affectée par des changements de règles et d’institutions (ou plus précisément si nous ne pouvons exclure qu’il puisse en être ainsi), alors le statut des données collectées change à son tour, et ce d’autant plus que le projet analytique peut être remplacé par un projet normatif (comment faire en sorte que le système fonctionne comme j’ai prédit qu’il devait fonctionner). On voit donc pourquoi le test par les données ne saurait être le critère, ni unique ni central, d’une méthodologie économique. Ceci plaide évidemment pour l’adoption de la cohérence interne et du réalisme comme normes d’évaluation.

 

Le rejet symétrique des thèses positivistes (le test est le critère suprême de scientificité) et relativistes (il n’est pas de vérité, rien que du discours) conduit à retenir l’articulation de trois critères pour définir une démarche scientifique en économie.

 

1 - Il faut tout d’abord que les hypothèses soient réalistes. Cette exigence découle directement de l’impossibilité dans laquelle nous nous trouvons d’être sur de pouvoir tester une hypothèse, ou d’être sur de pouvoir interpréter le résultat du test de manière indiscutable. Cette impossibilité découle de la prise en compte de trois arguments ci-dessus évoqués:

1 - le degré d’emboîtement des conjectures à tester,

 

2 - le problème de Duhem-Quine et la non-neutralité des données utilisées dans le test par rapport à la conjecture qu’elle doivent vérifier ou invalider,

 

3 - le caractère essentiellement qualitatif des prédictions et conjectures de l’économie, confronté au caractère quantitatif des données.


Ceci condamne radicalement l’instrumentalisme. Dire qu’une hypothèse doit être réaliste n’implique pas qu’elle soit vraie. Cela suppose simplement, mais ce simplement, on le verra, est lourd de conséquences, que l’on se refuse à axiomatiser dans le vide. Ainsi, supposer que les agents sont, en tout lieu, à toute heure, en mesure de calculer la totalité des conséquences possibles de l’interaction entre une décision et l’environnement, supposition qui est consubstantielle à l’hypothèse de rationalité maximisatrice, n’est pas réaliste. De même, supposer que le temps ne se manifeste pas sous la forme d’une contrainte dans le processus de traitement du signal avant qu’une décision soit prise, autrement dit qu’il est indifférent de prendre une décision donnée aujourd’hui ou demain, le premier ou le dernier, est une autre hypothèse irréaliste. L’exigence de réalisme est donc première; elle doit s’entendre au sens du réalisme processuel que l’on a évoqué plus haut.

 

2 - Il faut ensuite que le raisonnement soit cohérent. Un raisonnement cohérent est un discours construit dans lequel on ne fait pas entrer, sous prétexte d’une explication conjoncturelle, un élément qui soit incompatible avec les prémisses. Si on suppose les marchés imparfaits, on ne peut plus invoquer par la suite un marché parfait. Si on suppose la connaissance des agents limitée, on ne peut invoquer une règle de comportement qui impliquerait, sous une forme ou une autre, une connaissance parfaite. Un raisonnement cohérent n’est pas forcément juste. Il est des raisonnements cohérents qui, en raison du degré d’irréalisme des hypothèses de base sont évidemment faux. L’exigence de cohérence n’est en rien décisive ou suffisante; elle ne prend son sens que dans l’articulation avec l’exigence de réalisme.

 

Il faut enfin pratiquer une testabilité limitée. dire que l’on ne peut pas tout tester, ou que les résultats ne peuvent être tenus pour naturellement indiscutables, ne signifie pas qu’il faille renoncer à tester. Le chercheur doit pratiquer une testabilité limitée ou critique, qui repose sur deux préambules:

 

* - Il faut pouvoir décomposer un argument en conjectures simples. Ceci est loin d’être toujours possible, mais doit être tenté autant que faire se peut. Le simple processus de décomposition des argumentaires a déjà une valeur critique et analytique essentielle, en permettant la mise en évidence des interactions et rétroactions. La testabilité limitée s’oppose ici à l’emploi de la clause « toutes choses étant égales par ailleurs », qui implique que le système étudié soit simple, dans le sens où l’on puisse faire varier un élément sans modifier les relations de cet élément avec le reste. La testabilité limitée part du principe que les systèmes sont complexes et tente de les réduire en systèmes simples. 

 

* - Il faut procéder à une construction explicite du test , c’est à dire à une analyse critique des sources des données, des processus qui les mettent à la disposition du chercheur, de leur contenu théorique implicite (par exemple dans l’utilisation des données de PNB/PIB), du degré de généralité du test et de la procédure du test. Cette construction doit être explicite, en ce sens qu’elle doit conduire à la formulation des hypothèses qui servent à tester et pas seulement des hypothèses que l’on teste.

La testabilité limitée ne peut pas être une procédure générale et systématique. Elle s’insère dans les deux précédentes exigences de réalisme et de cohérence comme forme de rapport entre le chercheur et la réalité de l’objet sur lequel il travaille. Une démarche qui associe et articule ces trois critères répond alors au méta-critère évoqué plus haut, la capacité à fonctionner quel que soit le degré d’ergodicité du système étudié. On rappelle que l’on peut être en présence de trois situations distinctes, celle où le système vérifie une hypothèse ergodique forte, celle ou n’est vérifiée qu’une hypothèse ergodique limitée et temporaire, et celle, enfin, de rejet de toute hypothèse ergodique[63]. C’est dans le premier cas que la testabilité limitée prendra le plus de poids. Par rapport à une démarche instrumentaliste, on est au pire à égalité, et plus probablement avec un léger avantage, car la déconstruction des conjectures et des procédures assure une vérification instantanée des pratiques du chercheur, que ne permet pas l’instrumentalisme traditionnel. Si nous sommes dans le second cas, l’instrumentalisme est incapable d’engendrer une convergence des prévisions. La testabilité doit nécessairement être reléguée au second plan au profit des critères de cohérence et de réalisme. Si nous sommes dans la troisième situation, alors l’instrumentalisme est impossible par nature. Pour autant, en raison de la présence du couple cohérence/réalisme, le chercheur n’est pas dépourvu de moyens d’intelligence et de critique de sa pratique. La testabilité limitée a, ici, l’utilité de vérifier son impossibilité, ce qui serait impossible pour une démarche se fiant seulement et uniquement à la cohérence ou au réalisme.

 

Notes

[1] Cahuc P. et Zylberberg A., Le Négationnisme économique, Paris, Flammarion, 2016.

[2] Voir : http://www.marianne.net/les-eco-att/contre-les-diafoirus-economie-pierre-cahuc-andre-zylberberg-100245738.html

[3] Orléans A., « Quand Messieurs Cahuc et Zylberberg découvrent la science », sur le site de l’AFEP, http://www.alterecoplus.fr/quand-messieurs-cahuc-et-zylberberg-decouvrent-la-science/00012139

[4] On peut consulter le n° 71 à https://rwer.wordpress.com/2015/06/08/issue-no-71-of-the-real-world-economics-review/

[5] Sapir J., Les trous noirs de la science économique – Essai sur l’impossibilité de penser le temps et l’argent, Albin Michel, Paris, 2000, 2001. (Ce livre a reçu en 2001 le prix Turgot du livre d’économie financière). Edition en collection de poche « Points Seuil » avec une nouvelle préface, Le Seuil, Paris, 2003. Voir aussi « Realism vs Axiomatics » in Ed. Fullbrook (ed.), The Crisis in economics, Routledge, Londres et New York, 2003, pp. 58-61.

[6] Sapir J., « Calculer, comparer, discuter: apologie pour une méthodologie ouverte en économie », in Économies et Sociétés, série F, n°36, 1/1998, numéro spécial, Pour aborder le XXIème siècle avec le développement durable, édité par S. Passaris et K. Vinaver en l’honneur du professeur Ignacy Sachs, pp. 77-89, ou « A l’épreuve des faits…Bilan des politiques macroéconomiques mises en oeuvre en Russie », in Revue d’études comparatives est-ouest, vol.30, n°2-3, 1999, pp 153-213, et « Sept propositions pour une économie réaliste » in Alternatives Economiques, Hors-Série n°57, pp. 54-56.

[7] Voir Sapir J., Quelle économie pour le XXIè siècle?, Odile Jacob, Paris, 2005, chapitres 1, 2 et 3.

[8] P. Mirowski, More heat than light- Economics as Social. Physics, Physics as Nature’s Economics, Cambridge: Cambridge. University Press, 1989.

[9] Voir ainsi E.R. Weintraub, « Methodology doesn’t matter, but history of thought might », in S. Honkapohja, (ed.), Wither Macroeconomics?, Basil Blackwell, Oxford, 1989.

[10] Morgan M.S., « Statistics without Probabilitiy and Haavelmo’s Revolution in Econometrics », in Lorenz Krüger, Gerg Gigerenzer, Mary Morgan (edits), The Probabilistic Revolution. Vol.2 Ideas and Sciences, MIT Press, Cambridge, London, 1990.

[11] Lucas R., « An equilibrium model of the business cycle », Journal Of political Economy, Vol. 83, 1975, pp.1113-1144.

[12] Horvath R.A., « The rise of Macroeconomic Calculation in Economic Statistic », in Lorenz Krüger, Gerg Gigerenzer, Mary Morgan (ed.), The Probabilistic Revolution. Vol.2 Ideas and Sciences, MIT Press, Cambridge, London, 1990.

[13] Edgeworth F.Y., « Application of Probabilities to Economics », Economic Journal, 387, june, 1910.

[14] Haavelmo T., « The Probability Approach in Economics », Econometrica, 12, 1944, pp.1-118

[15] Pour une présentation plus précise de la méthode de réduction des données de second type à des données de premier type, voir: Mary Morgan, op. cit., 1990, pp. 185-186.

[16] Duhem P., La théorie physique – son objet – sa structure, (1906), Paris, Vrin, 2ndeédition, 1989

[17] P.A. Samuelson, “Classical and Neoclassical theory”, in R.W. Clower, (ed.), Monetary Theory, Penguin, Londres, 1969.

[18] Pour von Neuman, soit F une fonction complexe sur W de carré intégrable, la suite des fonctions:

n-1

1/n   S   f. qk converge en moyenne quadratique vers une fonction F de carré intégrable et q-invariante.

k=0

Voir, P.A. Meyer, “Théorie ergodique et potentiels”, in Annales Inst. Fourier , t. XV, fasc. 1, 1965.

[19] P. Billingsley, Ergodic Theory and Information, Kreiger Publishers, Huntington, 1978. Pour une application directe, R. Lucas et T.J. Sargent, Rational Expectations and Econometric Practices, University of Minnesota Press, Minneapolis, 1981, pp. XII – XIV.

[20] Voir la discussion sur ce point in P. Davidson, “Some Misunderstanding on Uncertainty in Modern Classical Economics”, in C. Schmidt (ed.), Uncertainty and Economic Thought, Edward Elgar, Cheltenham, 1996, pp. 21-37.

[21] Voir par exemple F.H. Hahn, « Keynesian economics and general equilibrium theory: reflections on some current debates » in G.C. Harcourt, (ed.), The Microfoundations of Macroeconomics , Macmillan, Londres, 1977. B.J. Loasby, The Mind ans Methods of the Economist: A critical appraisal of major economists in the XXth Century , Edward Elgar, Aldershot, 1989, en particulier chapitre 8. D.M. Haussman, The Inexact and Separate Science of Economics , op.cit..

[22] B.J. Caldwell, « Economic Methodology: Rationale, Foundation, Prospects », in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, Routledge, Londres-New York, 1993, pp. 45-60. Idem, « Does Methodology matters? How should it practiced? », in Finnish Economic Papers, vol.3, n°1/1990, pp. 64-71.

[23] D. McCloskey, The Rhetoric of Economics, University of Wisconsin Press, Madison, Wisc., 1985.

[24] P. Feyerabend, Against Method: Outline of an Anarchistic Theory of Knowledge, Verso Edition, Londres, 1975.

[25] Pour une critique de la dimension instrumentaliste chez McCloskey, U. Mäki, « How to Combine Rhetoric and Realism in the Methodology of Economics », in Economics and Philosophy, vol. 4, n°1/1988, pp. 89-109; Idem, « Realism, Economics and Rhetoric: a Rejoinder to McCloskey », in Economics and Philosophy, vol. 4, n°1/1988, pp. 167-169.

[26] D. Hausman, The Inexact and Separate Science of Economics, op.cit., pp. 264-268.

[27] M. Bleaney, « An Overview of Emerging Theory », in D. Greenaway et alii, (eds.),Companion to Contemporary Economic Thought, Routledge, Londres et New York, 1991.

[28] S.C. Dow, « Mainstream Economic Methodology »,op.cit, p. 87.

[29] P. Bourdieu, La Distinction – Critique sociale du jugement , Éditions de Minuit, Paris, 1979, p. 111.

[30] Idem, voir note 6, p. 194.

[31] B. Latour, La vie de laboratoire, La Découverte, Paris, 1988. B. Latour et S. Woolgar,Laboratory Life: The Construction of Scientific Facts, Princeton University Press, Princeton, NJ, 1979.

[32] U. Mäki, « Social Theories of Science and the Fate of Institutionalism in Economics », in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, Routledge, Londres-New York, 1993, pp.76-109, p. 86-7.

[33] R. William et J. Law, « Beyond the Bounds of Credibility », in Fundamenta Scientiae , vol. 1, 1980, pp. 295-315.

[34] M. Callon et J. Law, « La protohistoire d’un laboratoire », in M. Callon, (sous la direction de), La Science et ses réseaux , La Découverte, Paris, 1989, chapitre 2, p. 67.

[35] Voir T.W. Hutchison, The Significance and Basic Postulates of Economic Theory, Macmillan, Londres, 1938.

[36] A. Insel, “Une rigueur pour la forme: Pourquoi la théorie néoclassique fascine-t-elle tant les économistes et comment s’en déprendre?”, in Revue Semestrielle du MAUSS, n°3, éditions la Découverte, Paris, 1994, pp. 77-94.

[37] Par exemple M. Blaug, The Methodology of Economics , Cambridge University Press, Cambridge, 1980. Voir aussi P. Mirowski, More Heat than Light, op.cit..

[38] P. Mirowski, « How not to do things with metaphors: Paul Samuelson and the science of Neoclassical Economics », in Studies in the History and Philosophy of Science, vol. 20, n°1/1989, pp. 175-191. Pour une critique plus générale sur le modèle de scientificité de la physique, P. Mirowski, More heat than light, Cambridge University Press, Cambridge, 1990.

[39] P.A. Samuelson, “Classical and Neoclassical theory”, in R.W. Clower, (ed.), Monetary Theory, Penguin, Londres, 1969.

[40] M. Friedman, « The Methodology of Positive Economics », in M. Friedman, Essays in Positive Economics, University of Chicago Press, chicago, 1953, pp. 3-43.

[41] B. Caldwell, Beyond Positivism: Economic Methodology in the Twentieth Century, op.cit.. Voir aussi W. Mason, « Some negative thoughts on Friedman’s Positive Economics », in Journal of Post-Keynesian Economics, vol. 3, n°2/1981, pp. 235-55.

[42] P. Duhem, The Aim and structure of Physical Theory, Princeton University Press, Princeton, NJ, 1954. W. Quine, « Two Dogmas of Empiricism », in W. Quine, From a Logical Point of View, Harvard University Press, Cambridge, Mass., 1953, pp. 20-46.

[43] D.W. Hands, « Popper and Lakatos in Economic Methodology », in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, op.cit., pp. 61-75. J.J. Klant, « Refutability », in Methodus , vol. 2, n°2/1990, pp. 34-51.

[44] D.W. Hands, « Popper and Lakatos in Economic Methodology », op.cit., p. 64.

[45] K. Popper, Realism and the Aim of Science, Rowman & Littlefield, Totowa, NJ, 1983, p. xxxv.

[46] D.W. Hands, « Popper and Lakatos in Economic Methodology », op.cit., p. 65.

[47] D.W. Hands, Testing, Rationality and Progress: Essays on the Popperian Tradition in Economic Methodology, Rowman & Littlefield, Latham, NJ, 1992. D.M. Hausman, « An Appraisal of Popperian Methodology » in N. de Marchi, (ed), The Popperian Legacy in Economics, Cambridge University Press, cambridge, 1988, pp. 65-85. U. Mäki, « Economic Methodology: complaints and guidelines », in Finnish Economic Papers, vol.3, 1990, n°1, pp. 77-84.

[48] I. Lakatos, « Falsification and the Methodology of Scientific Research Programmes », in I. Lakatos et A. Musgrave, (eds.), Criticism and the Growth of Knowledge, Cambridge University Press, Cambridge, 1970, pp. 91-196.

[49] E.R. Weintraub, General Equilibrium Analysis, Studies in Appraisal, Cambridge University Press, Cambridge, 1985. M. Blaug, « Ripensamenti sulla rivoluzione keynesiana », in Rassegna Economica, vol. 51, n°3, 1987, pp. 605-634.

[50] G. Fulton, « Research Programmes in Economics », in History of Political Economy, vol. 16, n°2, 1984, pp. 27-55.

[51] R. Cross, « The Duhem-Quine thesis, Lakatos and the Appraisal of Theories in Macroeconomics », in Economic Journal, vol. 92, n°2, 1982, pp. 320-340.

[52] D.W. Hands, « Popper and Lakatos in Economic Methodology », op.cit., p. 68. Voir aussi D.W. Hands, « Second Thoughts on Lakatos », in , History of Political Economy, vol. 17, n°1, 1985, pp. 1-16.

[53] S.C. Dow, « Mainstream Economic Methodology »,op.cit, p. 80-81.

[54] Voir sur ce point la discussion in O. Hamouda et R. Rowley, « Ignorance and the Absence of Probabilities », in C. Schmidt, (ed.), Uncertainty in Economic Thought, Edwar Elgar, Cheltenham, 1996, pp. 38-64.

[55] J. Doherty, E. Graham et M. Malek, (eds.), Post-modernism in Social Sciences, Macmillan, Londres, 1992; voir en particulier l’introduction à ce volume. B. Barnes et D. Bloor, « Relativism, rationalism and the sociology of lknowledge », in M. Hollis et S. Lukes, (eds.), Rationality and Relativism , Basil Blackwell, Oxford, 1982, pp. 21-47.

[56] M. Callon, (sous la direction de), La Science et ses réseaux , op.cit., pp. 25-31.

[57] Sur cette épistémologie, on se réfèrera à A.M. Carabelli, On Keynes’s Method, Macmillan, Londres, 1988; R.M. O’Donnel, Keynes’s Philosophy, Economics and Politics: The Philosophical Foundations of Keynes’s Thought and their influences on his Economics and Politics , Macmillan, Londres, 1989.

[58] S.C. Dow, « The appeal of neoclassical economics: some insights from Keynes’s epistemology », in Cambridge Journal of Economics , vol. 19, n°5, 1995, pp. 715-733, p. 716.

[59] J.M. Keynes, A Treatise on Probability , republié in Collected Writings , vol. VIII, Macmillan, Londres, 1973; voir le chapitre 6.

[60] Sur ce point voir le grand ouvrage de Gunnar Myrdal dont les opinions, exprimées en 1929, restent parfaitement d’actualité aujourd’hui. G. Myrdal, The Political Element in the Development of Economic Theory , Transaction Publishers, New Brunswick et Londres, 1990; première édition en anglais, 1954; première édition en suédois, 1930.

[61] U. Mäki, « Social Theories of Science and the Fate of Institutionalism in Economics », op.cit., p. 80.

[62] Au sens donné par L. Laudan, Progress and its Problems, Routledge & Keagan Paul, Londres, 1977, voir en particulier pp. 188-9 et p. 222.

[63] Mirowski P., « How not to do things with metaphors: Paul Samuelson and the science of Neoclassical Economics », in Studies in the History and Philosophy of Science, vol. 20, n°1/1989, pp. 175-191.

Les banques centrales du G7 ont perdu la boussole

 

Préambule de l'auteur
Sans aucun doute, les banques centrales des pays industrialisés ont épuisé leurs munitions pour combattre la crise. Réunis pour leur assemblée annuelle de Jackson Hole, les responsable de la politique monétaire ont été terrifiés par le discours de la présidente de la Réserve fédérale des États-Unis, Janet Yellen, qui, au lieu de lever les doutes quant à la reprise de l'économie mondiale, a plutôt alimenté encore plus la panique : il est impossible de faire confiance à l'économie américaine pour être la locomotive qui tirera la faible croissance dans les pays industrialisés.

Ariel Noyola RodriguezPar Ariel Noyola Rodriguez – Le 5 septembre 2016 – Source Russia Today

Huit ans après la faillite de Lehman Brothers, les banques centrales du Groupe des sept – le G7, composé de l’Allemagne, du Canada, des États-Unis, de la France, de l’Italie, du Japon et du Royaume-Uni – n’arrivent pas encore à voir leurs économies enregistrer des taux de croissance supérieurs à 3%.

 

Initialement, la politique monétaire a servi d’outil puissant pour empêcher une dépression à l’échelle mondiale. Malgré cela, elle est aujourd’hui pratiquement épuisée : les banques centrales des pays industrialisés n’ont aucune chance d’inverser le cycle de baisse de l’économie mondiale.

Les points clés du G-20, selon Vladimir Poutine

L’économie américaine illustre la façon dont la politique monétaire «non conventionnelle» a lamentablement échoué, dans sa tentative de résoudre les conséquences profondes de la crise de 2008. Selon le Département du Travail des États-Unis, le taux de chômage est proche de 5% depuis août 2015.

 

Cependant, alors que la plupart des gens ont cessé de chercher du travail en raison du manque d’occasions, d’autres, qui ont un emploi, seraient prêts à travailler plus longtemps pour améliorer leur niveau de vie.

 

Ainsi, le taux U6  de «sous-emploi», qui prend en compte à la fois les chômeurs et ceux qui travaillent à temps partiel pour des raisons économiques, reste bloqué à 9,7%, soit presque le double du taux de chômage officiel de 4,9%.

 

Il convient de noter en outre que la création d’emplois aux États-Unis n’a jusqu’à présent pas réussi à se convertir en incitation pour les employeurs à accorder des augmentations de salaires de façon significative. Pour cette raison, le taux annuel d’inflation reste inférieure à 2%, ce qui est l’objectif de la Réserve fédérale (Fed).

Barack Obama, presidente de EE.UU, en el aeropuerto de Hangzhou, China.
Pourquoi Obama a-t-il été mal accueilli  à l’aéroport en Chine (VIDEO)

Quant à la chute des prix du pétrole, même si elle a eu un impact positif sur les portefeuilles des familles américaines, car elle a favorisé la réduction du prix du carburant, il est également vrai que les prix en chute libre du pétrole continuent de renforcer les tendances déflationnistes – baisse des prix – qui, en passant, ont également été étayées par l’effet de l’appréciation du dollar.

 

Ainsi, se fane l’espoir que le G7 avait placé dans la locomotive américaine pour relancer une croissance faible. Le discours que la présidente de la Fed, Janet Yellen, a délivré à la fin août à Jackson Hole, où, année après année, les autorités monétaires du monde se réunissent pour échanger leurs points de vue sur les défis auxquels est confrontée l’économie mondiale, loin d’effacer l’incertitude, a augmenté la méfiance des banques centrales.

 

Fidèle à son style, Yellen a montré un optimisme exacerbé, en recommençant encore une fois à présumer que les sombres perspectives économiques internationales n’ont pas empêché les États-Unis de se diriger vers le «plein emploi». Mais, paradoxalement, Yellen s’est refusée à formuler toute expression qui anticiperait une nouvelle hausse du taux d’intérêt des fonds fédéraux  à la prochaine réunion du Federal Open Market Committee (FOMC, son sigle en anglais) qui se tiendra fin septembre. La présidente de la Fed a tenu à préciser que, bien que le processus de rétablissement de l’économie américaine se renforce, ce n’est pas encore concluant.

 

Par conséquent, bien que le moment où il faudra relever l’indice de référence des taux d’intérêt semble toujours plus proche, tout semble indiquer que si l’économie évolue de façon défavorable, et c’est à la réunion de décembre qu’aura peut-être lieu la deuxième hausse des coûts du crédit, soit un an après la première.

 

Le fait est qu’il serait désastreux pour l’administration Obama, de devoir faire face à une nouvelle secousse financière juste avant la fin de son mandat, à quelques mois de l’élection présidentielle, une situation qui serait utilisée par le candidat du Parti républicain Donald Trump.

 

Quoi qu’il en soit, le fait est que la Fed a perdu toute crédibilité, tant parmi les banques centrales du G7 qu’en interne. Après que le marché du travail a subi un revers en mai dernier, les chiffres d’août sont loin d’être prometteurs : la masse salariale non agricole n’a ajouté que 151 000 emplois, tandis que les investisseurs sur le marché boursier attendaient une augmentation de plus 180 000 postes.

 

En bref, les milliardaires sont ceux qui ont le plus bénéficié de la reprise présumée de l’économie américaine, ce sont eux qui, par la spéculation sur les marchés boursiers, ont gagné d’énormes sommes d’argent grâce aux politiques de crédit pas cher de la Fed. Pendant ce temps, les revenus continuent de se concentrer sur 1% de la population, accroissant de plus en plus les troubles sociaux.

Poutine: «L’Argentine est un partenaire économique très important pour la Russie»

Selon un sondage Gallup réalisé en avril, seulement 28% des Américains avaient une grande confiance dans les politiques mises en œuvre par la Fed, tandis que 35% avaient peu ou pas confiance. En revanche, à l’époque où Alan Greenspan était en charge, la confiance dans la Fed était au-dessus de 70%.

 

Les banques centrales du G7 ont perdu la boussole. Janet Yellen, au lieu de présenter des réponses fiables aux graves problèmes de l’économie mondiale tombe dans le discrédit, encore et encore. Au cours des dernières années, les banques centrales des pays industrialisés ont entraîné l’économie mondiale à devenir accro à l’accumulation de la dette et aux opérations à haut risque sur les marchés boursiers, de sorte que le déclenchement d’une nouvelle crise de dimension colossale est inévitable, c’est seulement une question de temps. Le grand danger est que cette fois les responsables de la politique monétaire n’ont plus les munitions pour la combattre…

 

Ariel Noyola Rodríguez est économiste, il a fait ses études supérieures à l’Université nationale autonome du Mexique.

 

Contact : Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser.. Twitter:@noyola_ariel.

 

28 mai 2016

Les Mirages du libre échange

 

La résistance contre la déferlante du commerce sans limites commence à trouver un écho chez les parlementaires américains, qui ont rechigné devant la ratification accélérée du traité de partenariat transpacifique voulue par le président Barack Obama. Après deux décennies, le bilan accablant de l’accord de libre-échange nord-américain (Alena) ne devrait guère les inciter à persévérer dans cette voie.
 
Par Lori M. Wallach 
Origine : le Monde diplomatique
 
Conclu entre le Mexique, les Etats-Unis et le Canada, l’Accord de libre-échange nord-américain (Alena) est entré en vigueur, le 1er janvier 1994, au milieu d’un flot de promesses. Ses promoteurs l’avaient répété : il allait permettre de développer les échanges commerciaux, doper la croissance, créer des emplois, réduire l’immigration clandestine. Tandis que le Washington Post s’émerveillait devant la « liste des nouvelles chances et des avantages » qu’il offrait (14 septembre 1993), le Wall Street Journal se réjouissait à l’idée que les consommateurs puissent bientôt bénéficier « de prix plus bas sur une vaste gamme de produits » (7 août 1992). Quant au Los Angeles Times, il assurait : « L’Alena générera beaucoup plus d’emplois qu’il n’en détruira » (29 mai 1993).
 
Ces commentaires lénifiants concernaient un accord commercial d’un genre nouveau. L’Alena ne se contentait pas, comme ses prédécesseurs, de réduire les droits de douane et de relever les quotas d’importation ; il impliquait également un nivellement des normes et prévoyait des mesures très protectrices pour les investisseurs étrangers. Il allait en outre autoriser les entreprises à contester directement des politiques nationales en assignant les Etats devant des tribunaux — des dispositions que l’on retrouve aujourd’hui dans le projet de grand marché transatlantique (GMT) . Examiner son bilan avec vingt ans de recul permet de mesurer le fossé séparant les annonces de la réalité. Et incite à se défier des évangélistes du libre-échange.
 
En 1993, les économistes Gary C. Hufbauer et Jeffrey J. Schott, du Peterson Institute for International Economics, expliquaient que l’Alena allait entraîner un accroissement des échanges commerciaux avec le Mexique et le Canada, suscitant la création de cent soixante-dix mille emplois avant la fin de l’année 1995 (2). Moins de deux ans après ces déclarations fracassantes, Hufbauer reconnaissait lui-même que l’effet sur l’emploi était « proche de zéro ». Il ajoutait : « La leçon pour moi, c’est que je dois me garder de faire des prévisions. » (3) Cet aveu n’empêche pas le Peterson Institute de multiplier désormais les prédictions optimistes au sujet du GMT...
 
Un déficit commercial abyssal
 

Loin d’avoir offert de nouveaux débouchés aux entreprises américaines et de les avoir poussées à embaucher, l’Alena a favorisé les délocalisations industrielles et l’ouverture de succursales à l’étranger, en particulier au Mexique, où la main-d’œuvre est bon marché. Dans le secteur agricole, une multitude d’entreprises américaines spécialisées dans la transformation de produits alimentaires se sont également installées au Sud. L’affaiblissement des normes sanitaires et environnementales engendré par l’accord leur a permis de profiter des bas salaires mexicains. En effet, avant 1994, de nombreuses denrées alimentaires transformées au Mexique étaient interdites à l’importation aux Etats-Unis, car jugées dangereuses. Une seule usine mexicaine transformant du bœuf était alors autorisée à exporter ses produits au Nord. Vingt ans plus tard, les importations de bœuf mexicain et canadien ont augmenté de 133 %, poussant à la faillite des milliers d’agriculteurs (4).

 

Le déficit commercial des Etats-Unis avec le Mexique et le Canada n’a cessé de se creuser : alors qu’il atteignait tout juste 27 milliards de dollars en 1993, il dépassait les 177 milliards en 2013 (5). D’après les calculs de l’Economic Policy Institute, le déficit commercial avec le Mexique a abouti à une perte nette de 700000emplois aux Etats-Unis entre 1994 et 2010 (6). En 2013, 845 000 Américains avaient d’ailleurs bénéficié du programme d’« aide à l’ajustement commercial » (trade adjustment assistance), destiné aux travailleurs qui ont perdu leur emploi à cause des délocalisations au Canada et au Mexique ou de l’augmentation des importations en provenance de ces pays (7).

 

Non seulement l’Alena a diminué le nombre des emplois aux Etats-Unis, mais il a aussi affecté leur qualité. Les salariés de l’industrie licenciés se sont tournés vers le secteur déjà saturé des services (hôtellerie, entretien, restauration, etc.), où la paie est moins élevée et les conditions plus précaires. Cet afflux de nouveaux travailleurs a exercé une pression à la baisse sur les salaires. Selon le Bureau of Labor Statistics, les deux tiers des ouvriers licenciés pour raisons économiques ayant retrouvé un travail en 2012 ont dû accepter un emploi moins bien rémunéré. La baisse dépassait même 20 % pour la moitié d’entre eux. Sachant que, cette année-là, un ouvrier américain gagnait en moyenne 47 000 dollars par an, cela équivaut à une perte de revenu d’environ 10 000 dollars. Cela explique en partie pourquoi le salaire médian stagne aux Etats-Unis depuis vingt ans, alors que la productivité des travailleurs augmente.

 

Certains promoteurs de l’Alena avaient prévu, dès 1993, ce phénomène de destruction d’emplois et de tassement des salaires. Mais, assuraient-ils alors, l’opération devait demeurer profitable pour les travailleurs américains, qui pourraient acheter des produits importés moins cher et bénéficier ainsi d’une hausse de leur pouvoir d’achat. Sauf que l’augmentation des importations n’entraîne pas nécessairement une baisse des prix. Par exemple, dans l’alimentaire, malgré un triplement des importations en provenance du Mexique et du Canada, le prix nominal des denrées aux Etats-Unis a bondi de 67 % entre 1994 et 2014 (8). La baisse du prix de quelques rares produits n’a pas suffi à compenser les pertes subies par les millions de travailleurs non diplômés, qui ont vu leur salaire réel baisser de 12,2 % (9).

 

Mais les travailleurs américains n’ont pas été les seuls à pâtir de l’Alena. L’accord a également eu des effets désastreux au Mexique. Autorisés à exporter sans entraves, les Etats-Unis ont inondé ce pays de leur maïs subventionné et issu de l’agriculture intensive, engendrant une baisse des prix qui a déstabilisé l’économie rurale. Des millions de campesinos (paysans) expulsés des campagnes ont migré pour se faire embaucher dans des maquiladoras (10), où ils ont pesé à la baisse sur les salaires, ou ont tenté de passer la frontière et de s’installer aux Etats-Unis. L’exode rural a également exacerbé les problèmes sociaux dans les villes mexicaines, conduisant à une montée en intensité de la guerre de la drogue.

 

Selon M. Carlos Salinas de Gortari, président du Mexique au moment de l’entrée en vigueur de l’accord, l’Alena devait permettre de réduire le flux des migrants essayant de passer au Nord. « Le Mexique préfère exporter ses produits que ses citoyens », lançait-il en 1993, assurant que son voisin avait le choix entre « accueillir les tomates mexicaines ou accueillir les migrants mexicains, qui cultiveront ces tomates aux Etats-Unis ». En 1993, 370 000 Mexicains avaient rejoint les Etats-Unis ; ils étaient 770 000 en 2000 ; 4,8 millions d’entre eux y vivaient clandestinement en 1993 ; 11,7 millions en 2012...

 

Ces départs massifs s’expliquent notamment par l’explosion du prix des produits de première nécessité. L’usage croissant du maïs américain pour produire de l’éthanol a fini par engendrer, au milieu des années 2000, une augmentation des prix, lourde de conséquences pour le Mexique, devenu dépendant des importations agricoles américaines.

 

Le prix des tortillas — l’aliment de base dans ce pays — a bondi de 279 % entre 1994 et 2004 (11). En vingt ans, le prix des produits de première nécessité a été multiplié par sept ; le salaire minimum, seulement par quatre. Alors que l’Alena devait leur apporter la prospérité, plus de 50 % des Mexicains vivent aujourd’hui sous le seuil de pauvreté. Entre 1994 et 2014, le produit intérieur brut (PIB) par habitant du Mexique n’a augmenté que de 24 %. Entre 1960 et 1980, il avait bondi de 102 % (soit 3,6 % par an). Si le Mexique avait continué de croître à ce rythme, son niveau de vie serait aujourd’hui proche de celui des pays européens...

 

Les belles promesses se sont envolées, et il serait utile de dresser le bilan de cet échec afin de bâtir un modèle d’intégration économique plus juste. M. Barack Obama a reconnu lui-même les défauts multiples de l’Alena, assurant qu’il en tiendrait compte pour « résoudre certains problèmes » lors des futurs traités de libre-échange. Or, loin de tirer les leçons de ces erreurs, les négociateurs actuels du GMT semblent s’employer à les reproduire.

 

Libre-échange ou juste échange ?

 

Au sommaire de la nouvelle livraison de « Manière de voir » (en kiosques), retrouvez les éléments-clés du débat et des arguments pour mener le combat.

 

Comprendre les enjeux des accords de libre-échange négociés en secret : grand marché transatlantique, partenariat transpacifique, commerce des services. Des normes sanitaires au droit du travail, de l’écologie à l’agriculture, un panorama des secteurs concernés. Qui négocie quoi, pour le compte de qui et pourquoi ?

 

Situer la question dans son contexte historique et géographique : les transformations du commerce mondial ; les théoriciens du libre-échange ; les tribulations d’un iPhone ; la métamorphose des institutions ; le bilan des précédents accords. Cartographie, infographie, extraits de textes de référence.Imaginer, résister, agir : les fondements du juste échange ; le protectionnisme et ses ennemis ; les « maîtres du monde » pris à leur propre piège. Des accords qui ne supportent pas la lumière du débat public. Comment s’organiser concrètement pour tailler en pièces le grand marché transatlantique ?

 

Lori M. Wallach

 

Directrice de Public Citizen’s Global Trade Watch, Washington, DC.

La Tribune : les dividendes ont bondi de 50%

 

27 Mai 2016

Dans le monde, le montant total des dividendes mondiaux a atteint 218,4 milliards de dollars sur les trois premiers mois de l'année, soit une hausse de 4,7 milliards sur un an, grâce à l'Amérique du Nord, l'Europe et le Japon.
Dans le monde, le montant total des dividendes mondiaux a atteint 218,4 milliards de dollars sur les trois premiers mois de l’année, soit une hausse de 4,7 milliards sur un an, grâce à l’Amérique du Nord, l’Europe et le Japon. (Crédits : Flickr/Jayphen. CC License by.)
Près de 4,5 milliards de dollars de dividendes ont été reversés aux actionnaires de sociétés françaises entre janvier et mars 2016, selon une étude. Cette forte hausse sur les trois premiers mois de l’année s’explique par les 1,5 milliard de dollars de dividendes versés par le groupe Vivendi, présidé par Vincent Bolloré.

Quand il s’agit de récompenser les actionnaires, l’heure n’est pas à la restriction. En France, toutes les sociétés ont maintenu ou augmenté leurs dividendes en euros au premier trimestre 2016, selon une étude du gérant d’actifs Henderson Global Investors publiée lundi. Porté par le dividende exceptionnel du groupe de médias Vivendi (1,5 milliard de dollars), l’Hexagone a ainsi connu une hausse des dividendes de 51,3%. Plus modérée, la hausse des dividendes sous-jacents s’établit tout de même en hausse de 5,3% par rapport à la même période l’an passé.

 

En Europe, hors Royaume-Uni, les dividendes ont progressé de 10,8%, grâce, outre Vivendi, aux sociétés pharmaceutiques suisses Novartis et Roche. « Les dividendes de l’Allemagne, de la France, de l’Espagne et de la Suède ont tous atteint entre 4 et 5 milliards de dollars », note l’étude. Alex Crooke, spécialise du sujet chez Henderson Global Investors, cité dans le communiqué souligne :

« Le premier trimestre est une période relativement calme pour l’Europe, mais les résultats de la région sont de bon augure pour la période cruciale qu’est le deuxième trimestre, lorsque les sociétés européennes paient la majeure partie de leurs dividendes annuels. »

De son côté, le Royaume-Uni a souffert, avec une baisse de 5% des dividendes et devrait connaître une année morose, les groupes miniers britanniques ayant réduit leurs paiements.

 

     | Opinion Dividendes et rachats d’actions n’enrichissent pas les actionnaires !

 

1.180 milliards de dollars de dividendes en 2016?

 

Dans le monde, le montant total des dividendes mondiaux a atteint 218,4 milliards de dollars (+2,2%) sur les trois premiers mois de l’année, soit une hausse de 4,7 milliards de dollars sur un an, grâce à l’Amérique du Nord, l’Europe et le Japon. En outre, les variations de change ont moins influencé que par le passé les résultats, alors que les dividendes sont convertis en devise américaine pour le besoin de l’étude. La hausse du dollar en 2015 avait en effet eu tendance à pénaliser la croissance des dividendes dans le monde. L’an passé, 1.150 milliards de dollars de dividendes avaient été reversés, en baisse de 2,2% à cause des effets de change.

 

Pour l’année 2016, Henderson estime que les dividendes devraient augmenter de 3,9% dans le monde pour atteindre 1.180 milliard de dollars, bénéficiant de la légère baisse de la devise américaine.

 

>> Lire Les épargnants menacés par la recherche désespérée de rendements

 

(L. P. avec AFP)

La prochaine crise économique mondiale a déjà une date précise pour ses débuts

 

30 Mars 2016

Publié: 29 mars 2016 23h59 GMT


Le blog Bloomberg annonce des problèmes futurs liés au monde des affaires avec l’entrée en vigueur des accords de Bâle III, qui impliquent une réforme de la réglementation bancaire pour les Etats-Unis et les pays d’Europe. Pour être clair il devrait s’en suivre non seulement une perte massive d’emploi dans le secteur du crédit intermédiaire, mais surtout un blocage de crédits qui entraînera l’insolvabilité de toute un tissu de PME.

Traduction de Danielle Bleitrach pour histoire et société


 

A ceux qui cherchent à entrevoir ce qui pourrait se produire lors de la prochaine crise économique mondiale, le blog de ​​l’agence Bloomberg consacrée aux finances propose de marquer sur le calendrier le 1er Janvier 2018. Selon son expertise, la date a été prévue à la fin de 2010, quand a été signé et publié l’ensemble des accords Bâle III, impliquant une réforme coordonnée de la réglementation bancaire entre les pays d’Europe et d’Amérique du Nord.

 

En 2017 les institutions financières ne peuvent plus utiliser leurs modèles internes pour évaluer les risques liés à des dérivés pour les contractants. En 2018 ce sera étendu à la titrisation d’actifs.

 

Depuis 2017, le chroniqueur Christopher Langner met en garde, « les institutions financières ne peuvent plus utiliser leurs modèles internes pour évaluer les risques liés à des dérivés pour les parties contractantes. En 2018 ce sera étendu à la titrisation d’actifs et par la suite, bien que la date exacte soit encore à déterminer, les prêteurs devront évaluer tous les clients de prêt sur la base des normes fixées par le comité de Bâle ».

 

Ainsi les banques se verront limitées dans le prêt d’argent aux personnes, tant physiques que juridiques, et sera seulement permis le crédit aux emprunteurs les plus fiables. Sera également unifié le volume total des prêts accordés en proportion des limites de la balance accumulée. Ces restrictions encouragent une augmentation du nombre de faillites dans le monde entier. Les cas d’insolvabilité deviendront de plus en plus tangibles, avant même l’application obligatoire des nouvelles règles, prédit le chroniqueur.


Entre autres conséquences Langner souligne la nécessité du renvoi de centaines de milliers d’employés du crédit intermédiaire (Aux seuls Etats-Unis cela concernerait 2,6 millions de personnes travaillant dans ce secteur). Les renvois toucheront plus de personnes que pendant les années 2006 et 2009, avant et pendant la récente crise financière mondiale.

 

Ce seront les petites et moyennes entreprises qui souffriront le plus de pertes et qui courent le risque de perdre complètement l’accès aux ressources de crédit. Bâle III encourage les banques à coopérer uniquement avec les multinationales et autres grandes entreprises avec les entreprises les plus stables. En outre, les nouvelles normes internationales d’information financière, qui font partie de l’ensemble, mettront en pratique le plus tôt possible les compensations aux pertes de crédit: une étape qui peut augmenter d’au moins un tiers les immobilisations dans beaucoup de banques.

 

Quand un groupe d’experts pourfend la doxa économique

 

Les Econoclastes ont donné leur deuxième conférence mardi à Paris. Source: RT
 
Les Econoclastes ont donné leur deuxième conférence mardi à Paris.

Les Econoclastes donnaient mardi soir leur deuxième conférence à Paris. Comme à leur habitude, les membres de cette communauté de spécialistes hétérodoxes avaient décidé de sortir le bazooka.

 

Mardi soir, ambiance explosive dans les locaux de l’école de commerce ISEG à Paris. Le collectif des Econoclastes donnait sa deuxième conférence dans la capitale. Il réunit des acteurs du monde économique venant d’horizons très divers. Une chose les rassemble : le désir de faire partager une vision différente. En ces temps de turbulences sur la planète finance, ils ont, durant deux heures, abordé des thèmes allant du maquillage des chiffres économiques à la politique européenne en passant par l’énergie et la crise syrienne. Le tout devant une salle comble. RT France était présent.

 

«Les chiffres économiques sont manipulés»

 

«Je dis souvent que pour tondre un mouton, il faut éviter qu’il bouge.» Olivier Delamarche a attaqué fort. Le chroniqueur de BFM Business, connu pour son franc-parler, était accompagné de Pierre Sabatier, un autre intervenant de la chaîne. Tous deux ont ouvert le bal. Dans leur viseur ? Les chiffres officiels en matière d’économie.

 

@ODelamarche : "Les chiffres économiques sont manipulés." 

Olivier Delamarche s’est notamment attaqué à un de ses sujets de prédilection : les chiffres de l’emploi américains. Autant dire qu’il n'est pas convaincu par le taux annoncé de 4,9% de chômage au mois de février. «Il y a 94 millions d’Américains en âge de travailler qui n’ont pas d’emploi. Je veux bien qu’ils ne rentrent pas dans les statistiques et qu’on ne les appelle pas des chômeurs mais le fait est qu’ils ne travaillent pas», a -t-il expliqué. Pour Pierre Sabatier, les Etats-Unis se trouvent «en fin de cycle».

 

Selon Olivier Delamarche, les créations d’emplois aux Etats-Unis concerneraient en majorité les plus de 50 ans pour des jobs précaires et mal rémunérés. «Vous n’allez pas me faire croire que si on ne paie pas les gens, ils consomment ?», a-t-il interrogé avec ironie.

 

@ODelamarche : "Aux USA, la majorité des emplois créés concerne les + de 50 ans et les salaires sont minables."

 

Il aussi été question des programmes d’assouplissements quantitatifs (injections massives de liquidité par les banques centrales) et de leur influence sur l’économie. «Quand le type au fond de sa cave décide de faire fonctionner la planche à billets dans des proportions gigantesques cela a un impact conséquent sur l’économie et les prix», a souligné Pierre Sabatier.

 

La Syrie, une histoire de tuyaux... entre autres

 

Les deux comparses ont ensuite laissé la place à deux experts du pétrole. Nicolas Meilhan, conseiller en énergie et transport et Benjamin Louvet, responsable matières premières, ont notamment abordé les cas du pétrole de schiste aux Etats-Unis et de la crise en Syrie.

 

Sur le premier point, les deux spécialistes sont loin de croire à l’indépendance énergétique de l’Oncle Sam. Nicolas Meilhan a rappelé qu’ils restent «les premiers importateurs de pétrole au monde»; Benjamin Louvet a quant à lui souligné les problèmes financiers du secteur du pétrole de schiste de l’autre côté de l’Atlantique : «60% des entreprises ont une dette sept fois supérieure à leurs bénéfices.» Il a par ailleurs fait mention de plusieurs études selon lesquelles l’ensemble des réserves de schiste contenue sous le sol étasunien représente à peine deux ans de leur consommation.

 

Les experts de l’énergie ont également abordé le problème syrien sous un angle peu souvent évoqué dans les médias : celui de la guerre du gaz. Nicolas Meilhan a rappelé à l’assemblée la position géographique stratégique de la Syrie. Selon lui, le Qatar rêverait de faire passer un pipe-line sur son sol afin d’obtenir un débouché vers la Méditerranée. Les résistances de Bachar el-Assad et sa préférence pour un deal avec l’Iran aurait motivé Doha à soutenir la rébellion syrienne à coups de milliards de dollars.

 

Voir l'image sur Twitter

.@NicolasMeilhan : "Avec le , la bonne nouvelle c'est que chaque $ qui va au  ne vas pas au ."

Ce qui a fait dire à Benjamin Louvet que le conflit syrien «s’explique en partie par des histoires de gros tuyaux et de gaz», tout en soulignant la crainte saoudienne de voir un axe chiite se former au Moyen-Orient.

 

Leur prestation s’est terminée sur un hommage un peu spécial au désormais ancien ministre des Affaires étrangères, Laurent Fabius.

 

Voir l'image sur Twitter

L’Union européenne en vaisseau de l’oligarchie

 

Philippe Béchade, président des Econoclastes et Olivier Berruyer, auteur du blog Les Crises, ont clos la soirée par un point sur l’Union européenne et sa politique sociale. Cette dernière partie a été lancée avec une vidéo retraçant les déclarations d’hommes politiques, de François Mitterrand à Manuel Valls, sur la nécessité d’une Europe sociale. De grands discours loin d’avoir été suivis d’effet pour les deux Econoclastes.

 

Philippe Béchade en a profité pour critiquer la chancelière allemande Angela Merkel, mise récemment en difficulté au niveau électoral. C’est surtout sa politique d’accueil des migrants qui exaspère le président du think-tank. Il a analysé cette décision comme une «volonté de faire venir de la main d’oeuvre à bas coût tout en profitant de la "marque" Allemagne et d’une monnaie sur mesure»;

 

P.Béchade : "L'arrivée de migrants qui accepteront n'importe quel travail pour n'importe quel salaire change la donne."

Olivier Berruyer s’est pour sa part intéressé aux recommandations de l'UE pour la France. Notamment en ce qui concerne les salaires qu’elle verrait bien plus flexibles en fonction de la santé économique de l’entreprise. Il a qualifié la loi El Khomri de transcription des directives de Bruxelles.

 

.@OBerruyer : "L'UE a un fonctionnement optimum pour l'oligarchie financière. Pas pour les peuples." 

Pour conclure, il s’est fendu de deux saillies qui ont bien fait rire l’audience. La première concernait l’ancien ministre de l’économie grec Yannis Varoufakis, à qui il reproche de ne pas remettre en cause les institutions européennes.

 

.@OBerruyer : "  me fait penser à une femme battue qui retourne auprès de son mari." 

 

La seconde portait sur la monnaie unique. Le résultat d'une démarche aussi «bête» que de se mettre «en groupe pour acheter des chaussures parce que c’est moins cher» car, a-t-il expliqué, « tout le monde se retrouve avec du 39, le problème c’est que certains ont des gros pieds et les Grecs ont de très grands pieds ».

 

.@OBerruyer : "L'euro c'est aussi débile que de se mettre en groupe pour acheter des chaussures parce que c'est moins cher."

Economie et méthodologie

 

Jacques SapirPar  · 23 janvier 2016

Il convient de prendre pleinement en compte la tension qui est partie intégrante de l’économie et du travail de l’économiste. Parce que son objet est un lieu de décisions, privées et publiques, l’économiste est convoqué régulièrement par le Prince (guerrier ou marchand), pour donner son avis, prodiguer ses conseils. ce faisant, il accepte d’interférer avec ce qu’il observe. En même temps, il est convoqué au nom d’une légitimité de type scientifique qui implique, au moins implicitement, une position d’extériorité. Cette tension peut s’exprimer sous des formes diverses; elle induit un débat sur la nature de l’économie en tant que discipline scientifique[1], débat qui ne fait que souligner le besoin de références méthodologiques cohérentes. Avant de pouvoir proclamer des résultats, il faudrait que la méthode soit, si ce n’est irréprochable, du moins consciente de ses limites propres. Autant le dire, ce n’est que rarement le cas, en dépit d’un virulent débat sur la méthodologie économique qui se développe depuis le début des années quatre-vingt, et dont la présente réflexion est largement tributaire[2].

 

Ainsi, dans le cas français, a-t-on justifié le franc fort au début des années quatre-vingt au nom de l’inefficacité des dévaluations compétitives, puis, au début des années quatre-vingt-dix au nom de la réalisation de l’Union Monétaire, censée nous protéger contre ces mêmes dévaluations compétitives (qui avaient été un succès dans les années 1990 en Italie, en Espagne et en Grande Bretagne…). Faute d’être rigoureux dans sa méthodologie, l’économiste se condamne à être un justificateur et non un analyste, et l’économie entre en décadence.

 

Il faut donc revenir sur cette question fondamentale: sommes nous à même de penser l’économie d’emblée comme un système décentralisé ou continuons-nous de raisonner, inconsciemment, dans un cadre qui est en réalité celui d’une planification générale. Quelles sont les implications d’une démarche qui considère la socialisation, ou la globalisation, des activités initiées séparément, comme un résultat ex-post et non comme une donnée ex-ante. Comment, dans ce cadre, traiter de l’articulation entre l’individuel et le collectif, intégrer le temps, dans sa durée comme dans son irréversibilité, et faire sa place à la notion d’incertitude et donc de crise. Tenter de penser l’économie décentralisée, c’est faire un long voyage parmi des débats essentiels, mais souvent ignorés.

 

1/ Pourquoi l’économie décentralisée?

 

L’heure est donc venue de se pencher sur le cœur du problème: que signifie cette économie de marché que l’on dit dominante, et disposons-nous des instruments nécessaires pour en comprendre les mécanismes. Non que de très nombreux ouvrages et articles n’aient fait progresser notre connaissance sur ce point, ne serait-ce qu’en introduisant une vision plus complexe des réalités comme des processus. Mais, l’effondrement du système soviétique du début des années quatre-vingt-dix, annoncé lui même par la stagnation de la fin des années soixante-dix, transforme la perspective. Il est important, et on défend ici même nécessaire, de procéder à la lecture de nos propres économies à partir de l’expérience des systèmes de type soviétique, et de leur difficile transformation. L’une des raisons, et ce paradoxe sert de colonne vertébrale à ce livre, est que le principal corps théorique utilisé pour comprendre nos économies, la Théorie de l’Équilibre Général, héritée de la modernisation apportée par Kenneth Arrow[3] et Richard Debreu[4] à la théorie de Léon Walras, suppose des hypothèses de départ qui, si elles étaient vérifiées, auraient dû conduire au succès de la planification centralisée[5].

 

La notion d’économie décentralisée

 

C’est évidemment à dessein que l’on utilise ici la notion d’économie décentralisée et non d’économie de marché ou d’économie capitaliste, afin de bien expliciter le refus du cadre de l’équilibre général[6]. Outre son caractère implicitement normatif, le terme d’économie de marché est trompeur d’un point de vue descriptif quand on l’applique aux économies occidentales. Ces dernières ne sont pas régies, ni principalement, ni de manière dominante par une logique de marché mais par des combinaisons, historiquement et géographiquement variables, de marchés et d’organisations, ainsi que par des fonctionnement qui font tout autant appel à l’itération marchande qu’au réseau ou au commandement.

 

Fondamentalement, la notion d’économie de marché fait l’impasse sur l’entreprise, excusez du peu…

 

Les arguments les plus forts en faveur de la notion d’économie décentralisée sont ceux qui renvoient à son imprécision. Cette notion ne dit rien quant à la nature de la population d’agents qui la compose; elle est muette sur les formes de propriété. Cette imprécision est ici un gage de généralité. En fait, cette notion n’insiste que sur un point, mais fondamental, c’est l’absence de solution ex-anteau problème de la coordination. Soutenir que l’économie est d’abord décentralisée revient à poser le problème de la globalisation des actions et des effets de ces dernières comme objet principal des recherches. Comment cette globalisation peut-elle se mettre en oeuvre, à quelles conditions se déroule-t-elle de manière efficace, voilà tout autant de questions qui surgissent une fois admis le postulat de la décentralisation.

 

Cependant, si l’imprécision de cette notion est attractive, elle alimente aussi les critiques de certains détracteurs qui vont lui reprocher une indétermination préjudiciable à l’analyse.

 

La notion d’économie capitaliste, qui est alors préférée pour de multiples raisons, soulève quant à elle un problème plus subtil. Si on l’utilise en opposition aux anciennes économies de type soviétique qualifiées alors de socialistes, la question du critère de désignation doit être tranchée. On peut adopter celui de la forme de propriété[7], et considérer comme socialiste, ou plus exactement non-capitaliste, une économie où la propriété d’État est majoritaire. Pour simple qu’il soit, ce critère soulève cependant de très nombreux problèmes. En premier lieu il n’est pas sur qu’il soit discriminant dans le cadre de la théorie néoclassique. Dans la mesure où l’on admet l’hypothèse essentielle à cette dernière d’une perfection et d’une complétude des marchés, rien n’interdit de retrouver le mécanisme de l’équilibre général dans une économie où l’État serait le propriétaire unique et louerait le capital à des gérants. La question des droits de propriété ne devient pertinente que si on admet que les marchés ne sont pas parfaits et ne révèlent pas la totalité des informations.

 

Si l’on se situe dans un cadre marxiste, le critère de la propriété d’État pour définir le socialisme est en réalité contradictoire par exemple à un certain nombre d’écrits des “pères fondateurs”[8]. De plus, on est alors confronté lors des évolutions qui historiquement se sont déroulées au sein même de ces économies à de délicats problèmes de seuil, qui aboutissent à des résultats absurdes (économie capitaliste tant que l’on reste sous un seuil de 49,9% de propriété étatique, socialiste si on dépasse les 50%). Si on fétichise certaines situations des économies réputées capitalistes (un fort taux de chômage, des ajustements censés se produire par les prix, une finance libéralisée), au mieux on construit un modèle d’économie capitaliste qui ne s’applique qu’à très peu de pays, au pire on s’aveugle complètement sur les fonctionnements réels des économies réellement existantes, occidentales ou de type soviétique[9]. Les hypothèses normatives adoptées dans ce type de démarche ont un coût exorbitant en terme d’intelligence des économies réelles[10]. On découvre ainsi rapidement que les désignations et le vocabulaire recouvrent des débats centraux.

 

Cependant, la notion d’économie décentralisée pourrait prêter le flanc à deux critiques. La première consiste à remarquer que, par ce terme, on assume une filiation avec l’œuvre de F.A. Hayek, et en général avec une partie de l’école autrichienne. En particulier, cela peut signifier que l’on fait de la coordination le problème central dans les sciences sociales[11]. La seconde tient dans l’oubli que cette notion semble introduire de la spécificité du problème de la propriété qui donne à l’économie capitaliste sa particularité dans les systèmes marchands. Après tout, Marx ne fut pas le seul à insister sur la notion de capitalisme, un terme largement employé par Schumpeter. On peut craindre alors soit une euphémisation (le terme d’économie décentralisée semblant plus neutre) soit un refus de reconnaître une spécificité importante. Ajoutons encore que si, comme c’est ici le cas, on récuse les bases de la théorie néoclassique, alors la question de la propriété devrait être centrale[12].

 

Pertinence du problème de la coordination

 

Il peut en effet sembler étrange pour qui s’affirme comme un critique du libéralisme moderne, de se réfèrer à l’oeuvre de celui qui, pour le meilleur et pour le pire, en passe pour l’un des fondateurs. Il faut cependant ici préciser trois points. Tout d’abord, Hayek n’a pas la l’exclusivité d’une attention donnée au problème de la coordination. Ceci se trouve tant chez Adam Smith que chez Marx. Ce dernier développe et transforme la thèse de Smith sur la division du travail, en montrant la distinction fondamentale entre division manufacturière et division sociale[13]. Quels que soient les doutes que l’on peut avoir sur la validité de la réponse de Marx au problème de la coordination[14], on ne saurait prétendre qu’il n’a pas fait de cette question un point central de sa démarche. Il semble donc parfaitement légitime de faire de la décentralisation, la condition qui constitue la coordination en problème à résoudre et non en donnée de départ, la base du raisonnement.

 

A cet égard, il faut ici ajouter que la notion de décentralisation, envisagée comme la résultante d’une division du travail sans cesse approfondie conduisant à une spécialisation des activités et des acteurs et de l’absence d’une organisation à-priori des effets des décisions, peut constituer un critère opératoire pour envisager l’évolution des sociétés. Ainsi, il serait facile de repérer, dès la plus haute antiquité, des processus de division du travail. Pour autant, il est discutable que l’on soit dans une économie décentralisée, dans la mesure où cette division se déroulait dans le cadre de structures sociales intégrées, le manoir, la maisonnée, le palais, qui étaient pratiquement auto-suffisantes. La faiblesse des échanges entre ces structures réduisait alors les conséquences d’un manque de coordination. L’aléa y était fondamentalement non économique, prenant la forme de l’aléa climatique, de la guerre, de l’épidémie. A partir du moment où les structures intégrées s’ouvrent aux échanges, et deviennent par là dépendantes, il devient rapidement impossible d’exercer un contrôle à-priori sur les effets de la division des tâches. La coordination devient à la fois nécessaire et possible uniquement comme constat ex-post. Les sociétés doivent alors la constituer en problème à résoudre, en source potentielle d’un aléa supplémentaire. Les économies entrent alors dans des régimes d’opération qui sont radicalement différents des précédents, même si souvent la différence technique entre eux sont faibles.

 

Ensuite, il faut préciser que cette définition ne prétend nullement se situer au niveau du “capitalisme profond” mais à celui du “capitalisme manifeste” pour reprendre un vocabulaire emprunté à Marx, c’est à dire au niveau des formes de manifestation des activités économiques. En un sens, on peut considérer qu’il y a une critique implicite à la vision héritée de la tradition marxiste de l’économie de marché. Celle-ci est dans ce cadre caractérisée comme un monde d’anarchie, que l’on oppose alors à l’ordre technique de la fabrique. On soutient que cette vision contient deux erreurs. La première est de croire que l’ordre de la fabrique (dont il faut rappeler qu’il est despotique) se situe au même niveau de questions que la dite anarchie. Autrement dit, on conteste que le modèle de la fabrique soit extensible à la société. La seconde revient à ne pas voir les différences de degré et de nature dans l’anarchie de l’économie de marché. Que cette dernière puisse aboutir à des désordres insupportables, à des crises et des gaspillages qui sont socialement intolérables, est hors de doute. Mais, ces situations sont des moments temporaires et extrêmes, et non des états permanents. La polaritéanarchie du marché/ordre de la fabrique masque l’existence de régimes de coordination plus ou moins stables et plus ou moins efficaces, qu’elle s’interdit d’analyser et par là de comprendre. Une telle attitude serait, à la limite, acceptable si on pouvait avoir l’assurance que l’économie décentralisée n’est qu’un court moment transitoire dans l’histoire de nos sociétés. Mais, si les prétentions à éterniser les systèmes sociaux existants, qui ont pris la forme de la ridicule formule de la “fin de l’Histoire”, ne témoignent que de l’ignorance de ceux qui les défendent, il est clair que l’économie décentralisée est appelée à être le cadre et le contexte de nos sociétés pour un temps non négligeable. Dans ce cas, les différences de succès dans les régimes de coordination deviennent un objet pertinent de recherche.

 

Propriété et densité

 

En fait, c’est l’opposition même entre une propriété individuelle, réputée essentielle à la définition des droits économiques et une propriété collective, supposée conduire à des formes d’indétermination, et par là d’inefficacité, qui a constitué en démarche propre la réflexion économique sur les droits de propriété[15]. La notion de propriété a d’ailleurs pris une importance d’autant plus grande que l’on remettait en cause les postulats traditionnels de l’économie néoclassique quant à la complétude et la perfection des marchés[16]. L’imperfection des marchés, et l’incomplétude des contrats pouvant y être passés, mettait au premier plan la question du contrôle sur les actifs physiques, et par là sur les travailleurs liés à ces actifs[17]. La propriété est alors définie par O. Hart et J. Moore comme la possibilité pour le propriétaire d’exclure quiconque de l’usage de ce bien suivant sa volonté[18]. Cette logique se situe expressément dans une contestation de certaines des hypothèses du marché traditionnel de la théorie néoclassique. Les imperfections du marché, ses échecs, sont ici structurels, et ce sont eux qui justifient l’importance accordée à la propriété. Ceci devrait induire quiconque entend développer une vision de l’économie explicitement critique de ces hypothèses à considérer avec bienveillance la théorie des “droits de propriété”. Pourtant, d’autres arguments sont de nature à faire penser qu’il s’agit en réalité d’une fausse piste.

 

On accepte ici l’idée que la propriété se définit, au-delà de la formule juridique classique du jus utendi et abutendi , par deux attributs essentiels que sont le contrôle et la responsabilité. Être tenu pour propriétaire de quelque chose signifie fondamentalement disposer d’un pouvoir résiduel de contrôle sur cette chose et pouvoir être tenu pour responsable des dommages non intentionnels causés par l’usage de cette chose. Ce problème serait sans importance si nous vivions tel Robinson sur une île déserte. Ce n’est pas le cas, et même fondamentalement, l’idée de la robinsonnade va à l’encontre de tout ce que l’on peut savoir sur les processus de développement de l’espèce humaine qui implique la vie en société. Il faut alors mettre au premier plan la question de la densité, non point dans sa définition démographique (encore que cette dernière ait une pertinence) mais dans une définition économique. Celle-ci peut s’exprimer de la manière suivante: est considérée comme dense toute société où l’action de l’un de ses membres est susceptible d’entraîner un effet (positif ou négatif) non-intentionnel sur au moins un autre membre. Le degré de densité est ici fonction non seulement de la densité démographique, mais aussi de la capacité à agir des individus. Plus les moyens d’action sur la nature se développent et plus les effets non-intentionnels d’une action sont importants.

 

Cette notion de densité a des implications radicales sur la compréhension qu’il faut avoir du concept de propriété. En effet, si nous sommes dans une société dense au sens utilisé ci-dessus, c’est à dire dans une société où toute décision d’un agent (A) fondée sur le contrôle du bien (x) peut engendrer, outre un effet intentionnel, un effet non-intentionnel réputé dommageable sur l’agent (B), le jus utendi et abutendi de (A) sur (x) doit être limité. Il peut l’être par un accord bilatéral préalable entre les deux agents, par exemple l’accord pour ne pas faire de musique dans un appartement après une certaine heure. Mais, les accords bilatéraux sont par nature limités. D’une part, ils impliquent que l’on puisse déterminer qui sera touché par les effets non-intentionnels de l’action. Autrement dit, ces derniers doivent être prévisibles, ce qui est loin d’être toujours le cas. D’autre part, les accords bilatéraux engendrent toujours au bout du compte des querelles en interprétations, et donnent naissance à l’émergence de règles collectives pour limiter les effets de ces querelles, règlements de copropriété, réglementations municipales, législations nationales. Dans la mesure où la totalité des effets non-intentionnels ne peut être connue à l’avance autrement dit dans la mesure où nous reconnaissons notre incapacité à prévoir totalement l’avenir.

 

Ces réglementations doivent donc être ouvertes. Il est impossible de préciser à un moment donné que les réglementations ne seront jamais changées, dans la mesure où les effets qu’elles doivent prévenir ne sont pas donnés instantanément mais se révèlent au cours même du processus de l’action et de sa répétition dans le temps. Il est ainsi douteux qu’au temps des DeDion-Bouton on ait pu prévoir la pollution par l’ozone engendrée par la circulation automobile en zone urbaine. Mais, si les réglementations constituent un ensemble ouvert, le droit d’usage devient définit par défaut. Il s’ensuit alors que le droit résiduel de contrôle du propriétaire est toujours second, en logique, au contrôle collectif qui s’exerce par l’intermédiaire de ces règles collectives. On ne peut donc comprendre l’usage individuel d’un bien ou d’un service qu’à partir du postulat de l’existence de règles collectives qui limitent cet usage et attribuent à la collectivité une part de contrôle comme une part de responsabilité. En effet, dans la mesure où le propriétaire a respecté la réglementation existante, il ne peut être tenu pour responsable des effets non-intentionnels nouveaux qui pourraient se révéler avec le temps, et ce jusqu’à l’élaboration d’une nouvelle réglementation. Cette dernière assume ainsi à la fois la forme d’une limitation de l’usage et d’une libération de ce dernier. Si, à l’inverse de ce raisonnement, nous étions dans une société non-dense, soit une société où l’agent (A) puisse être sur que l’usage qu’il fera de (x) n’engendrera aucun effet non-intentionnel sur qui que ce soit, on pourrait se passer de règles collectives. Mais, en vérité, on pourrait se passer de la notion même de responsabilité, et par là de celle de propriété. Il n’est donc de propriété individuelle que dans la mesure ou il est conjointement une propriété collective sur le même bien ou service.

 

La propriété est donc, par nécessité, duale. Il convient ici de ne pas confondre dualité et mixité. La notion de mixité renvoie au partage d’une structure de propriété entre des agents privés et la puissance publique. Ceci peut être, sous certaines conditions, une des formes de gestion de la dualité. Cette dernière exprime l’inévitable co-détermination de nos actions, à la fois individuelle et collective. Reconnaître la dualité implique alors d’abandonner l’image du propriétaire individuel Roi en son petit royaume, limité uniquement par les bornes de ses désirs, maître à bord absolu après Dieu, comme disent les marins.

 

Ceci est d’ailleurs parfaitement perçu par un auteur comme Richard Nelson, l’un des fondateurs de ce que l’on appelle l’école évolutionnaire, qui, dans un texte maintenant relativement ancien, a montré que le critère de la propriété privée ne pouvait servir de délimitation fondamentale dans l’analyse des systèmes économiques[19]. Il avance quant à lui deux arguments, d’une part l’imbrication permanente des formes privées et collectives de la propriété, et d’autre part l’incohérence des argumentaires tendant à faire de la propriété privée le critère discriminant. Le second argument soulève la question de la signification méthodologique de la cohérence interne d’un argumentaire.

 

Propriété ou stratégies d’appropriations?

 

La densification des sociétés modernes rend la dualité de plus en plus patente et tangible. Ceci provient, comme on l’a dit, à la fois de la croissance de la densité démographique à travers le phénomène historique de développement de civilisations urbaines, et du développement de nos moyens d’action sur la nature. La dualité irrémédiable de la propriété en fait de plus en plus une propriété qui est globalement sociale et il revient incontestablement à Marx d’avoir saisi cette montée de la dimension sociale dans la propriété, limitant toujours un peu plus la dimension individuelle. Cette dimension sociale est, pour lui, tout à la fois l’expression d’une dénaturation de la production marchande simple par la logique du capitalisme et une incapacité à faire fonctionner de manière purement individuelle ce qui est déjà en partie collectif[20]. Mais, cette compréhension du permanent mélange entre individuel et collectif ne donne pas lieu à une analyse spécifique, dans la mesure où il n’est vu que comme moment temporaire dans ucomplètement dupes des facilités qui sous tendent les glissements entre ces registres. Il n’y a pas de liens nécessaires unissant la description de ce qui est à celle de ce qui devrait être. De même, déterminer ce qui devrait être n’ouvre spontanément aucun droit à dire comment on pourrait y aboutir.

 

n processus devant conduire le capitalisme à se détruire. Ici, très concrètement, la dimension prophétique a bloqué la dimension analytique chez Marx. Ce qui l’intéresse dans la combinaison entre dimensions sociales et individuelles, c’est ce qu’il perçoit comme une contradiction de l’économie capitaliste. Cette dernière approfondit la propriété individuelle à un degré inouï, détruisant les formes traditionnelles de propriété sociale (que l’on se rappelle le passage dans Le Capital sur les enclosures en Grande Bretagne), mais pour, en fin de compte, donner naissance à une forme supérieure d’appropriation collective. On aura ici reconnu la figure de la négation de la négation, forme dialectique qui est au coeur de la dimension prophétique chez Marx. Elle est, à bien des égards insatisfaisante.

 

Il faut donc reprendre ici le chantier laissé ouvert par les prémisses de l’analyse de Marx, et ne pas retomber dans le fétichisme juridique d’une propriété purement individuelle, ce qui est le défaut des théoriciens des “droits de propriété”. Trois éléments sont donc à prendre en compte. D’une part, la propriété est tension (et non délimitation) entre de l’individuel et du collectif; d’autre part, la propriété est articulation entre contrôle et responsabilité; enfin, le phénomène de densification des sociétés qui va s’accroissant. Dans ces conditions, ce qui passe au premier plan pour une intelligence du système n’est autre que la notion dynamique de stratégie d’appropriation qui se substitue alors à la notion statique de propriété.

 

Une stratégie d’appropriation se caractérise par deux éléments: une tentative pour s’approprier l’utilité d’un bien ou d’un service et une tentative pour tenter de reporter la responsabilité des effets non-intentionnels de cette utilité sur autrui. Les stratégies d’appropriation, qu’elles soient individuelles ou collectives, sont toujours contradictoires à court ou à long terme. Elles engendrent des conflits dont émergent tout à la fois les formes temporaires et locales de l’équilibre entre l’individuel et le collectif, les formes juridiques du droit de propriété, enfin les formes du mouvement dans le temps et de ce point d’équilibre et des formes juridiques.

 

Partir de la notion de coordination, loin d’exclure la question de la propriété, en révèle au contraire la nature: celle de matérialisations temporaires et limitées d’institutions et de règles engendrées par les conflits entre stratégies d’appropriation. Ceci ne revient pas à dire qu’il faut oublier la question de la propriété, ou qu’il n’existe aucune différence entre des structures de propriété où celle-ci est réputée individuelle ou au contraire collective. Mais nous sommes alors dans une logique de la convention sociale, dont il faut alors analyser les conditions d’émergence et le rôle dans les comportements individuels et sociaux. De plus, ce qui importe en ce cas est moins la propriété au sens d’une absolutisation de l’opposition entre les catégories individuelle et collective, absolutisation qui révèle un idéalisme social, que les processus concrets d’appropriation. Un flux, un stock, une information, une connaissance, sont-ils appropriables, comment, par qui, et dans quelles conditions. Les conflits engendrés par l’incompatibilité des différentes stratégies d’appropriation recomposent en permanence les formes de manifestation de la propriété.

 

économie et formes de séparation sociale

 

Voila pourquoi on adopte, à la suite de Charles Bettelheim, l’idée qu’est capitaliste une économie connaissant la double séparation entre les moyens de production et les travailleurs et entre les producteurs[21]. La première fonde le salariat, et à partir de là des dynamiques propres tant au fonctionnement de cette organisation productive que l’on appelle l’entreprise ou la firme, mais aussi au modes de répartition de la richesse nationale. La seconde fonde la décentralisation radicale du système.

 

Ceci permet de comprendre la généralité de la question de la décentralisation, et donc l’importance de sa compréhension. On peut en effet supposer la suppression de la première séparation (le passage par exemple d’un système de salariat à un système généralisé de coopératives). En ce cas, on sortirait du cadre de l’économie capitaliste. Pour autant, on ne supprimerait pas la question de la décentralisation de l’économie. Partir donc de cette dernière notion, c’est à dire du couple indépendance de la décision des acteurs/interdépendance des effets de ces décisions sur les situations et les conditions des décisions suivantes, permet de penser un nombre considérable de systèmes économiques réels ou potentiels. Elle conduit à mettre, à la suite d’auteurs comme Keynes ou Shackle, au premier plan la question de l’incertitude radicale qui caractérise les processus de production, consommation et répartition qui sont dépendants de prévisions faites ex-ante par des acteurs individuels et des effets ex-post des décisions prises sur la base de ces prévisions.

 

Ceci permet de comprendre pourquoi on adopte en toute connaissance de cause une approche qui ne fait pas du critère de propriété la norme d’évaluation ou de compréhension des économies réelles. On soutient, ici, qu’il y a beaucoup d’idéologie, dans le plus mauvais sens du terme, dans les discours qui se concentrent sur la forme de la propriété, que ce soit pour réclamer de larges nationalisations, ou au contraire exiger d’amples privatisations. Ces discours ont souvent des fondements théoriques douteux[22]. On ne peut ainsi argumenter en faveur de la privatisation quand on se situe explicitement dans un cadre théorique de type néoclassique. Si les marchés étaient parfaitement efficients en matière de transmission des informations et d’engendrement des incitations des acteurs, ces marchés seraient à même de gérer les questions du contrôle et de la responsabilité par l’intermédiaire de contrats complets (au sens intégrant la totalité des possibilités possibles pour la durée du contrat). On mesure ainsi le comique involontaire des discours libéraux qui justifient les politiques de privatisation, en particulier dans les services publics, au nom de réformes structurelles censées nous conduire à des marchés efficients.

 

Si, maintenant, on a des doutes justifiés quant à l’efficience des marchés et la possibilité de contrats complets, alors ce qui importe n’est pas l’idéalisation d’une propriété individuelle totale, réalisable uniquement dans le cas de Robinson sur son île, mais la compréhension des tensions entre les dimensions individuelles et collectives du contrôle et de la responsabilité. C’est donc la question des stratégies d’appropriation qui devient centrale, et non celle des formes de la propriété. Or, ces stratégies d’appropriations sont formées par des agents qui, individus ou collectifs, sont séparés les uns des autres. On retrouve alors la question de la coordination, qui s’affirme bien comme l’enjeu analytique central dont il faut refuser de se laisser distraire. Les conditions de manifestation, de réussite, des stratégies d’appropriation engendrent d’ailleurs de nouvelles formes de séparation sociale qui s’ajoutent aux fondements que l’on a évoqués.

 

La double division sur laquelle se fonde l’analyse de C. Bettelheim, est ainsi analytiquement fondamentale. Il faut cependant comprendre qu’elle n’est pas (et ne s’est jamais prétendue) directement opératoire. Les sociétés qui se développent sur la base des économies décentralisées sont bien plus divisées, bien plus hétérogènes, et par là bien plus complexes, que ce que pourrait suggérer une analyse qui voudrait lire directement la réalité à partir de la double division. Une telle lecture est impossible, et correspond à la négation même de l’existence de différents niveaux d’analyse, du plus concret au plus abstrait. Cette négation s’enracine dans une longue tradition positiviste de l’économie standard.

 

2/ Les enjeux méthodologiques

 

L’économie peut se lire dans trois registres différents: analytique, normatif, prescriptif. Dans le même temps, l’économie tient aujourd’hui une telle place dans nos vies, et peut être plus encore dans les discours où nous baignons, qu’elle cumule les fonctions et mélange les rôles. Elle ne se contente plus d’être une tentative d’intelligence d’un certain nombre de phénomènes de nos sociétés; il lui faut prétendre être l’instance dictant les normes du souhaitable, et par là l’instance de prescription des médecines, souvent d’amères potions, destinées à nous aligner sur ces normes. Le présent livre ne saurait donc échapper à cela. Pour autant, ne soyons pas

 

Ce qui est jeu ici n’est autre que le statut de l’économie et de l’économiste. Pour l’auteur de ces lignes, la question essentielle n’est pas de savoir si l’économie sera ou non une “science dure”. L’opposition entre des sciences réputées molles et celles qui s’affirment dures est déjà suspecte. Au-delà, il y a beaucoup d’illusion, ou de prétention, à croire qu’une discipline puisse s’auto-affirmer dans un registre dont elle exclurait les autres, en tout ou partie. Le problème fondamental n’est pas le statut de l’économie comme science mais la compréhension par les économistes eux-mêmes des conditions dans lesquelles ils travaillent.

 

Il y a des démarches scientifiques, dont il faut définir les conditions, plus qu’il n’y a de science au sens normatif. Ceci implique une discussion sur les bases méthodologiques, terrain qu’évite soigneusement ce que l’on a appelé l’économie dominante[23].Ces stratégies d’évitement ne sont ni neutres ni fortuites. Elles ont des conséquences importantes en ce qui concerne l’aveuglement progressif des économistes sur leurs propres pratiques. Elles sont aussi fondamentales pour tout discours qui tente d’éviter une controverse en cohérence, autrement dit une vérification par l’extérieur des conditions de formulation et d’usage des énoncés par lesquels il prétend asseoir sa légitimité et sa prééminence sur toutes les autres sciences sociales.

 

Défense de la méthodologie

 

Bruce Caldwell a répertorié cinq arguments utilisés par les économistes standards pour dénier aux discussions méthodologiques leur importance: (a) l’économie ne s’enseigne pas à partir de la méthodologie, (b) les spécialistes en méthodologie ne sont que des arrogants qui prétendent savoir mieux que les autres, (c) les débats méthodologiques sont stériles, (d) la méthodologie est une occupation de marginaux qui n’ont rien de mieux à faire et (e) la connaissance de l’économie rend la méthodologie superflue[24].

 

Cet argumentaire ressemble, à s’y méprendre, à la revendication d’un blanc-seing: nous qui savons, laissez nous dire (et écrire) ce que nous voulons puisque nous sommes les seuls à savoir. On ne s’étonnera pas, dans ces conditions, que l’économie et les économistes aient si mauvaise réputation. Caldwell montre facilement que ces cinq arguments se réfutent sans problème. L’objet de la méthodologie n’est tout d’abord pas d’enseigner une discipline, quelle qu’elle soit, mais de permettre au scientifique de jeter un certain regard sur sa pratique. En ce qui concerne l’arrogance, il est d’ailleurs clair que les économistes standards ne craignent personne, eux qui sont souvent suffisants mais rarement nécessaires. Par ailleurs, il est faux de dire que les débats méthodologiques sont stériles; on peut montrer qu’il y a des progrès, au moins sous la forme de détermination de problèmes spécifiques et d’évaluation de démarches différentes. On doit ici ajouter que ceux qui critiquent la méthodologie sont souvent les premiers à en faire, ne serait-ce que pour formuler des critères de “scientificité” dont ils se servent pour retirer toute légitimité à leurs contradicteurs. Enfin, on ne peut pas ne pas être stupéfait devant l’affirmation qu’il pourrait y avoir une connaissance sans critères de la validité de cette dernière. La connaissance de l’économie implique, par définition, que l’on ait une méthodologie, au moins implicite. En fait, il est infantile de croire que l’on puisse se passer de normes et de critères d’évaluation. Mais, si de telles normes et de tels critères sont nécessaires, alors en discuter devient légitime.

 

Une autre attaque contre la méthodologie est alors possible. Certes des normes sont nécessaires, mais elles sont toutes également justifiées. Telle est l’essence de l’argumentation de Donald McCloskey dans son livre sur la rhétorique de l’économie[25]. McCloskey accepte l’idée générale que la méthodologie a pour objet, entre autres, l’évaluation de la solidité des argumentations en fonction de critères donnés. Mais il défend deux thèses particulières, l’une selon laquelle l’adoption d’une méthodologie, quelle qu’elle soit, ne provoque aucun avantage en termes cognitifs, et l’autre qu’il ne saurait y avoir de bon raisonnement hors celui de la majorité. La Vérité étant pour lui une notion vide de sens, seul subsiste l’objectif rhétorique de convaincre le plus grand nombre. Toute argumentation qui a acquis cette capacité devient alors la vérité du moment. Cette thèse a même été poussée dans ses ultimes retranchements par Feyerabend qui prétend qu’il n’existe aucun argument pour choisir une norme ou un critère plutôt qu’un autre[26].

 

Cette vision est indiscutablement extrémiste et contient un aspect instrumentaliste (qu’importe les bases de mon raisonnement si la conclusion est opératoire) démarche qui constitue justement une des bases de la méthodologie néoclassique, et dont on peut comprendre que les auteurs qui la défendent souhaitent éviter d’être confrontés à une discussion sur ce point[27]. Daniel Hausman montre que le rejet du concept d’une Vérité transcendante n’implique nullement celui de la nécessité de procédures de vérification[28]. Ces dernières reposent bien entendu sur des partis-pris, mais elles contraignent alors celui qui les formule à un effort de cohérence. Il y a, en réalité, au mieux un grand simplisme, au pire une vision dévoyée de l’activité scientifique dans les démarches qui se parent de l’image du postmodernisme et de la critique radicale. Dire que tout n’est pas testable, qu’il y a du contexte et de la représentation sociale dans toute norme d’évaluation, affirmations qui sont exactes bien entendu, n’implique nullement de dire que rien n’est testable et que tout se ramène au contexte et aux représentations sociales.

 

A ce stade, le comportement des auteurs se réclamant de l’hyper-critique n’est pas sans rappeler celui de l’enfant qui, déçu parce que son jouet ne fonctionne pas comme il croyait prétend qu’il ne fonctionne pas du tout.

 

Appliquée à l’économie, et particulièrement à la méthodologie de l’économie, la démarche dite post-moderne refuse de voir dans l’éclatement des normes et critères, dans les incohérences grandissantes au sein de certains argumentaires, un symptôme de la crise de cette discipline. Elle y voit au contraire un état normal des choses. Dès lors, seule compte l’opinion de la majorité, même si celle-ci est incohérente[29]. On peut ainsi proclamer le retour au consensus au sein des économistes, mais c’est au prix de la mutation de ce qui devrait être une démarche analytique en conformisme idéologique. Sheila Dow a ici entièrement raison d’y voir une intolérance de la tolérance[30]. Au-delà cependant, quand on mesure que l’économie n’est pas un espace de pure spéculation, mais un espace de pouvoir, qu’il s’agisse d’un pouvoir au sein des institutions universitaires et assimilées, ou d’un pouvoir dans la cité politique, on devine l’aspect profondément pervers de ces discours réfutant par avance la possibilité d’une critique minoritaire d’une orthodoxie dominante. Si, comme le prétend McCloskey, il n’est pas de méthodologie mais seulement une rhétorique, les minoritaires ont tort par essence; s’ils avaient raison, ils seraient majoritaires…Si, comme le prétendent les post-modernes, tout se vaut et tout s’équivaut, alors pointer des incohérences dans les raisonnements, chercher vérités et erreurs, sont des activités vides de sens. Les postures soi-disant hyper-critiques ne sont ainsi que des apologétiques, à peine honteuses, de l’ordre dominant.

 

Pierre Bourdieu, sur le terrain pourtant encore plus complexe des goûts et des préférences, a bien montré comment positivisme naïf et relativisme ne sont que les deux faces d’une même erreur.

 

Ce que la science doit établir, c’est cette objectivité de l’objet qui s’établit dans le rapport entre un objet défini dans les possibilités et les impossibilités qu’il offre et qui ne se livrent que dans l’univers des usages sociaux (…) et les dispositions d’un agent ou d’une classe d’agents, c’est à dire les schèmes de perception, d’appréciation et d’action qui en constitueront l’utilité objective dans un usage pratique[31].

 

Dans un même mouvement cette citation laisse à voir que l’objectivité n’existe pas en elle-même mais doit s’établir, mais que cet établissement, s’il est en articulation avec des perceptions et des pratiques, ne s’y réduit nullement. Le texte de Bourdieu est par ailleurs fortement critique par rapport aux économistes, à qui il est reproché de tenir pour objectif ce qui n’est que qu’inconscient de classe, ou de fétichiser des formes spécifiques en leur attribuant une essence intangible, comme dans le domaine de la théorie des préférences[32]. Ces critiques sont à la fois justifiées et injustes. Justifiées dans le sens où elles visent des textes et morceaux d’argumentation bien connus et indéniables. Injustes par leur généralisation, en attribuant à l’économie ce qui n’est que l’erreur d’un de ses courants. Si on veut chercher une justification d’ordre supérieur à cette méfiance du sociologue face à l’économiste, on peut la chercher justement dans cette pratique du second, sous sa forme de l’économiste standard ou appartenant à ce que les anglo-saxons appellent le mainstream, qui consiste à éviter le débat méthodologique sur les logiques comme les fondements des argumentations.

 

Critiques de la raison critique

 

La thèse de P. Bourdieu peut cependant donner naissance à une forme de réfutation de la méthodologie, où on suppose que le processus conduisant des scientifiques à adopter des paradigmes centraux est le produit (a) de la volonté de maximiser un capital symbolique socialement défini par l’institution au sein de laquelle ils opèrent et (b) des facteurs sociaux qui déterminent le contenu d’une théorie reconnue et de ses paradigmes centraux. Cette thèse a été popularisée par Bruno Latour dans sa sociologie de la vie de laboratoire[33]. Le problème de cette thèse, qui est souvent reprise par les courants hyper-critiques associés au postmodernisme, est qu’elle suppose un lien prévisible entre l’adoption d’une conjecture et des avantages, symboliques et matériels. Autrement dit, le scientifique (A), si il choisit le paradigme (X) et non (Y) entend ainsi maximiser sa réputation. Mais comment peut-il en être sur?

 

Une réponse paranoïaque est possible. La position dominante du paradigme (X) résulte d’un complot dominant (la “science officielle”). Ce paradigme, et les conjectures qui y sont liées, sont irréfutables au sens Poppérien car il y a suppression des résultats non-conformes, voire des chercheurs non-conformistes. D’un point de vue descriptif, une telle thèse est très rarement vraie, mais peut l’être dans certains cas. Même les paranoïaques ont des ennemis. Du point de vue méthodologique, elle est absurde, car elle suppose de considérer comme norme ce qui est clairement une situation pathologique.

 

On peut cependant tenter de répondre sur un autre plan en supposant que le système étudié vérifie une hypothèse ergodique. Si celle-ci est limitée, un chercheur peut raisonnablement supposer qu’il faudra une lente accumulation de données pour ébranler le paradigme (X). Il court donc un faible risque en le choisissant. Le problème cependant, comme le fait remarquer Uskali Mäki, c’est que dans ces conditions on explique uniquement la reproduction d’un courant dominant, et non son origine, et que de plus on ne peut comprendre pourquoi survivent des positions minoritaires[34]. Si tous les chercheurs sont des maximisateurs rationnels au sens de Latour, et si on est face à une ergodicité, il est irrationnel de choisir (Y) contre (X). En fait, l’hypothèse faite en amont d’une crédibilité, ou d’une réputation, “objective” et dont l’évaluation est indépendante du contexte est plus que douteuse[35].

 

Des sociologues des sciences comme Callon et Law, qui sont pourtant loin d’être des positivistes, ont ainsi été conduits à contester la vision purement externaliste, la dissolution du noyau dur de toute découverte scientifique dans son contexte social, qui caractérise Bruno Latour. Pour eux, il y a dans l’activité scientifique du déterminisme et du compromis:

 

Si des compromis sont toujours envisageables et toujours effectués, c’est en définitive parce que les déterminations qui s’exercent sur les connaissances et les artefacts sont multiples, différenciées, et en partie contradictoires[36].

 

Ces différentes discussions montrent l’importance de la méthodologie. Le chercheur qui y consacre un peu de son temps ne se détourne pas de sa tâche, bien au contraire. Si les économistes du courant dominant tendent à minimiser l’importance du débat méthodologique, voire à lui nier toute pertinence, ils ont quelques bonnes raisons pour cela. L’accumulation des cadavres dans le placard de ce que l’on appelle le “mainstream”, ou l’économie dominante, mérite d’ailleurs un détour auquel on consacrera quelques lignes. Si les économistes adoptent une telle attitude négative quant à la méthodologie sous prétexte de gagner du temps, ils se trompent. Ce faisant, ils prennent le risque d’une dérive permanente vers l’incohérence, comme en témoignent certains argumentaires. Ils accréditent l’idée qu’ils sont plus des justificateurs opérant à postériori que des analystes.

 

Conjectures complexes et testabilité

 

Soutenir que la méthodologie est importante, qu’elle représente un pan de l’activité scientifique auquel on ne peut renoncer sans renoncer à la démarche scientifique elle-même, nous entraîne sur un autre terrain, celui de la vérification de conjecture et de leur testabilité. Le problème est ici particulièrement délicat en économie, et l’un des raisons en est la nature de conjectures utilisées. Un énoncé classique nous en donne un exemple. Pour un grand nombre de collègues il est évident que “L’inflation est partout et toujours un phénomène monétaire “. Ce qui était conjecture autrefois est devenu un dogme car, nous dit-on, largement prouvée par maintes études économétriques. La peur de passer pour un attardé s’efforçant de réinventer la roue est souvent suffisante pour clore sur ce point la discussion. Pourtant, les choses sont bien moins évidentes qu’on ne l’affirme. Outre quelques doutes que l’on peut avoir sur les travaux économétriques eux mêmes, le passage d’une observation à une affirmation devrait faire sourciller tout esprit un peu critique.

 

Cet énoncé vaut en effet mieux que sa mythification ou son rejet pur et simple; il fonctionne comme les poupées russes emboîtées, et le processus de démontage de l’ensemble est hautement instructif quant aux fondements de l’économie. Soutenir l’existence d’un lien étroit et mécanique entre les variations de la masse monétaire et celles des prix revient à affirmer deux choses différentes, car en vérité on se repose sur une autre conjecture qui peut ainsi s’énoncer: les agents ont des comportements tels qu’un accroissement de moyens de paiement, toutes choses égales par ailleurs, nous conduit à la dévalorisation de ces moyens en comparaison du stock de biens et de services disponibles. Ce qu’il faut alors élucider c’est l’origine de ces comportements. Soit, donc, on affirme qu’ils sont donnés aux agents économiques. Dans ce cas l’énoncé initial n’est rien d’autre qu’une conséquence d’une hypothèse sur des caractéristiques immanentes à la nature humaine. Il existe un personnage, l’homo economicus , programmé de telle manière que, effectivement, un accroissement de l’offre de moyen de paiement entraînera une hausse des prix. Soit on affirme que ces comportements sont déterminés par le cadre institutionnel dans lequel les agents se meuvent. Alors, l’énoncé initial n’a de validité que dans le cas où ces institutions sont réellement réunies. Cette distinction est extrêmement importante pour l’interprétation des résultats des tests économétriques.

 

Dans le premier cas, l’établissement d’une et une seule relation entre monnaie et inflation suffit pour valider l’énoncé initial. Dans le deuxième au contraire, il faudrait établir cette relation pour la totalité des configurations institutionnelles existantes, passées et à venir, pour qu’il y ait validation. A défaut de tester chaque de ces deux hypothèses sur les comportements, l’établissement d’une relation entre monnaie et prix renvoie à une indétermination théorique. En tous les cas, cette relation ne peut certainement pas permettre de trancher entre les hypothèses de comportement.

 

Cet exemple permet de montrer un point fondamental pour la compréhension du discours économique. Il repose presque toujours sur des conjectures complexes ou emboîtées qui ne sont donc jamais directement testables. Pour pouvoir avancer, il faut désemboîter les conjectures, les déconstruire. Alors est-il possible d’en tester certaines, et on verra par la suite que c’est le cas avec les hypothèses de comportement des agents. Mais cette possibilité est elle-même limitée. La testabilité des conjectures, dans un domaine ayant trait aux activités humaines, est toujours mise en cause par la multiplicité des paramètres et la nature de ces derniers.

 

Quand un enseignant en économie prononce devant ses élèves ou étudiants l’expression consacrée “toutes choses étant égales par ailleurs”, il ne fait que nier, à des fins pédagogiques ou démonstratives, cette multiplicité. Il suppose en effet que l’on puisse, dans les activités humaines, modifier un paramètre sans que l’ensemble des relations en soit affecté. Autrement dit que les opérateurs humains cessent de s’interroger sur leur propre futur et de se demander ce que pourrait impliquer pour eux un tel changement. Écrivant cela, on ne récuse pas d’emblée la modélisation, qui repose bien entendu sur cette clause “toutes choses étant égales par ailleurs”. Comme outil pédagogique, elle a bien des attraits. Mais, s’il faut utiliser une comparaison, un modèle n’est jamais qu’un simulateur. Et tout pilote qui s’entraîne sur un simulateur sait que le vol réel peut lui réserver bien des surprises, aussi perfectionnée que soit la machine dans laquelle il s’entraîne. La distinction entre un formalisme mathématique assis sur une axiomatique rigoureuse, et une approche permettant de rendre opérationnels des résultats, a fait l’objet d’un certain nombre de travaux en économie[37]. Ce qui est en cause ici, c’est le passage de la pédagogie à la démonstration. Il n’est d’ailleurs pas innocent que l’on puisse glisser aussi facilement du registre de l’enseignement à celui de la discussion et de la conviction. Dans une démonstration, on prétend emporter l’adhésion de ses égaux, alors que dans un enseignement on transmet dans un cadre hiérarchique des propositions que l’on est en droit de simplifier à loisir. User des méthodes de la pédagogie là où il y a discussion, c’est implicitement nier l’égalité initiale des statuts, et donc subvertir le principe même de la discussion.

 

Il faut ensuite prendre en compte la nature des paramètres utilisés. Les statistiques économiques sont parfois des animaux bien étranges et bien malicieux pour celui qui n’y prend garde. un simple exemple permettra de saisir l’ampleur du problème. Imaginons un pays dont les habitants, à la période initiale, produisent deux biens. le premier sert à leur consommation alimentaire, et il est produit dans le cadre d’exploitations familiales et non commercialisé. Le second est entièrement vendu à l’étranger et sert à payer les autres dépenses. Supposons que, dans une seconde période, les habitants de ce pays, considérant les prix relatifs de ces deux bien sur le marché mondial, décident de ne plus produire que le second, et d’acheter aussi à l’étranger leur consommation alimentaire. Si on calcule le PIB de ce pays, on mesurera une forte croissance de la première à la deuxième période, sans que cela implique que la richesse réelle du pays ait augmenté dans les faits. Le paradoxe vient de ce que le PIB (ou le PNB) ne mesure que la production commercialisée. Imaginons maintenant que, au lieu de deux périodes, nous ayons deux pays différents. Le premier, celui où une large partie de la production est autoconsommée, apparaîtra dans les statistiques internationales, comme bien plus pauvre que le second. Et l’économiste, qui voudrait mesurer ce que l’ouverture sur le marché mondial apporte en richesse aux économies nationales pourra conclure, s’il n’y fait garde, que cet exemple prouve indiscutablement les bienfaits de l’ouverture.

 

Il faut donc se souvenir en permanence, quand on parle de tests économétriques, de “preuves” statistiques, que les statistiques ne sont pas la réalité, mais une traduction normalisée de la réalité. Elles ne sont pas, non plus, une pure manifestation de l’imagination du statisticien, personnage en réalité plus honnête qu’on ne le croit, et que les économistes ne veulent l’admettre.

 

Critères de scientificité

 

Arrivé en ce point, il serait facile d’en déduire le non-lieu scientifique de l’économie. Mais une telle proposition, dont on peut comprendre les origines quand on observe à quel point le discours économique est instrumentalisé pour dire une chose et son contraire, repose en réalité sur une illusion: serait scientifique ce qui produirait de la Vérité. Or, et au contraire de la tradition issue de Karl Popper, il est difficilement admissible de croire en une progression régulière sur la base de l’interaction entre des conjectures réfutables et des expériences pertinentes[38]. De ce point de vue, la tradition méthodologique de l’économie standard ou dominante est lourdement fautive.

 

Cette économie s’est donc ralliée dès 1938 aux thèses de Karl Popper[39], et a voulu chercher dans le principe de réfutation, le falsificationisme, une garantie de scientificité. La démarche de Popper est en effet attrayante au premier abord pour une économie découvrant les délices de l’économétrie et supposant qu’elle pourrait bientôt tester la totalité de ses conjectures. Ceci permettait aussi d’esquiver le débat sur le réalisme des hypothèses initiales, débat porté par les courants contestataires qu’ils soient institutionnalistes ou marxistes. Enfin, cette démarche était cohérente avec le parti-pris de rigueur axiomatique introduit par Walras à la fin du XIXème siècle [40]. La référence à Popper va rester un point obligé pour les quelques économistes de ce courant intervenant dans le domaine de la méthodologie[41]. Le modèle visé étant ici la science physique[42], avec en particulier la proposition de Paul Samuelson de prendre comme base de départ l’hypothèse ergodique[43], et l’objectif affiché celui d’obtenir pour l’économie le statut d’une science “dure”[44]. Dans le même temps, elle fonde l’instrumentalisme de Milton Friedman, qui récuse d’emblée tout débat sur le réalisme des hypothèses[45]. On passe alors, pour reprendre la formule de Bruce Caldwell à un empirisme logique qui succède au positivisme logique[46]. Cet instrumentalisme va se retrouver en dehors même du courant néoclassique; Oliver Williamson, l’un des “pères” du néo-institutionnalisme va ainsi encore prétendre en 1985 que le caractère potentiellement falsifiable d’une conjecture est plus important que son réalisme[47].

 

Le falsificationisme poppérien soulève cependant plus de problèmes qu’il ne peut en résoudre. Il se heurte tout d’abord à la conjecture de Duhem et Quine[48]. Pour que la testabilité soit robuste au sens de Popper, il faudrait que l’on puisse tester les conjectures seules et que les méthodes d’évaluation des résultats ne soient pas chargées en théorie. Ceci est très exactement le problème que l’on a évoqué à propos des sources de l’inflation. Ce problème, déjà important en physique, devient rédhibitoire en économie où les agrégats utilisés pour quantifier ne font que normaliser une réalité à partir de conjectures théoriques implicites[49]. Un second problème tient à la nature des prévisions par rapport au mode de testabilité. Dans la grande majorité des cas les prévisions sont qualitatives (la création monétaire est source d’inflation), alors que la vérification est quantitative[50]. Un troisième tient à la manière même dont Popper utilise la réfutation et la falsification. Pour lui la falsification doit engendrer un rapprochement des théories avec la réalité, et le progrès théorique doit se mesurer à la capacité à expliquer des faits nouveaux. Or, non seulement Popper lui-même admet que le premier critère est invalidable[51], mais de plus l’économie vérifie toujours ses conjectures sur des événements passés[52]. Dans ces conditions, on ne doit pas s’étonner d’une très large remise en cause de l’applicabilité de la méthodologie poppérienne[53].

 

Les limites de cette méthodologie ont entraîné un certain nombre d’économistes qui refusent d’abandonner l’empirisme logique à se pencher vers l’oeuvre de Imre Lakatos[54]. Ce dernier propose de mettre l’accent sur des programmes de recherche qui seraient définis par un noyau dur d’hypothèses, réputées infalsifiables, et une ceinture protectrice d’hypothèses, elles falsifiables et réfutables, et pouvant être remplacées. La cohérence, et la scientificité d’un tel programme de recherche découlant de la capacité du noyau dur à engendrer des prévisions et de sa cohérence interne. Lakatos appelle ainsi dégénérescence d’un programme l’introduction, au sein du noyau dur, d’hypothèses ad-hoc. Une telle démarche présente tout à la fois des différences substantielles et des ressemblances avec celle de Popper. La notion de noyau dur, l’idée que le progrès scientifique puisse venir de la corroboration de conjectures et non de leur réfutation marquent les différences. Néanmoins, l’accent mis sur la testabilité, ou la falsification, ainsi que l’idée de prévision, renvoient clairement au cadre poppérien.

 

Les économistes du courant standard, ou mainstream, ont rapidement vu l’intérêt d’une telle approche. Le noyau dur du programme de recherche qualifié alors de scientifique (ce qui implique que les autres ne le sont pas…) est alors caractérisé par la théorie des préférences de l’agent, l’hypothèse d’individualisme méthodologique et la maximisation sous contrainte[55]. La définition d’un tel noyau dur est cependant loin d’être facile, compte tenu des tensions internes de ce courant[56].

 

Néanmoins, avant même que ces économistes aient commencé à se référer explicitement à la démarche de Lakatos, d’autres travaux en avaient montré les limites. Ainsi, la part poppérienne chez Lakatos est tout aussi vulnérable que Popper lui-même au problème de Duhem-Quine, comme le montre l’impossibilité par exemple de trancher entre un programme de recherches monétariste ou keynésien sur la base des critères proposés par Lakatos[57]. Il faut aussi ajouter que, comme signalé à propos de Popper, le fait de l’économie procède par relecture successive de problèmes et d’événements et non par prévision et prédiction, rend inapplicable la méthodologie proposée par Lakatos[58]. Par ailleurs, si on applique cette méthodologie au courant dominant en économie, il est clair que ce dernier a procédé, depuis la fin des années soixante-dix, à l’introduction d’un certain nombre d’hypothèses ad-hoc dans son noyau dur, comme la prise en compte des institutions. En ce sens, on pourrait soutenir que, du point de vue de la démarche de Lakatos, le programme de recherche du courant standard ou mainstream est effectivement dégénéré.

 

Crise méthodoloique de l’économie « mainstream »

 

Dans ces conditions, le constat d’une crise méthodologique au sein du courant dominant semble devoir être évident. Sheila Dow montre[59], dans une récente recension, que les différents auteurs du “mainstream” s’opposent désormais entre un camp se réfugiant dans une axiomatique irréaliste, dans la tradition ouverte par Friedman en 1953, et un autre recourant à l’empirisme, mais sans garde-fous si ce n’est que techniques en matière de procédures de vérifications[60]. Dans un tel contexte, on comprend alors l’intérêt que suscitent au sein de ce courant les théories déniant toute importance à la méthodologie, qu’il s’agisse des thèses sur la pure dimension rhétorique de l’économie, défendue par McCloskey, ou des positions de type post-moderne se réfugiant dans l’hyper-critique[61].

 

Or, comme on l’a indiqué, ces deux approches ont pour effet immédiat de transformer l’économie en pure apologétique. Les thèses de McCloskey sur la dimension rhétorique soulèvent un problème réel. Il serait naïf de nier une dimension rhétorique au discours économique. Il n’en reste pas moins qu’en en faisant la seule dimension possible, il aboutit à cette merveilleuse thèse panglossienne que, les bonnes conjectures étant les plus convaincantes, la majorité a toujours raison car elle a été convaincue. Peut-être est-il bon, alors, de rappeler cette citation de W. Jevons, que tout chercheur en sciences sociales se devrait de connaître par coeur:

 

Un calme despotique est le triomphe de l’erreur; dans la République des Sciences, la sédition et même l’anarchie sont dans le long terme favorables au plus grand bonheur du plus grand nombre[62].

 

Il n’en reste pas moins cependant que, si la constante remise en cause des idées dominantes est nécessaire, il doit y avoir débat et non vacarme. Une situation où tout pourrait être soutenu sans conséquences, car sans procédures de vérification, ne serait pas moins despotique qu’un calme imposé par une main de fer despotique. Un débat sans procédures est un débat sans enjeu; ce n’est plus un débat. Voici donc à quel désastre pourrait aboutir la diffusion des thèses post-modernes, une dictature non moins dangereuse que celle du despote visible, au règne duquel le tyrannicide peut au moins mettre fin.

 

Refuser des procédures de vérifications au prétexte qu’elles sont imparfaites est un comportement infantile. Il faut se pencher sur les méthodes permettant de limiter les imperfections, et d’améliorer les procédures, même si l’on sait que la perfection est un objectif hors d’atteinte. Depuis des millénaires, les médecins finissent par perdre leur bataille contre la maladie; leurs malades finissent bien par mourir. Ils n’en n’ont pas pour autant décidé que la médecine était une activité sans objet puisque son triomphe ultime, l’immortalité, était hors de portée. C’est le fond de la condition humaine que de mener des batailles qui sont le plus souvent perdues, ou qui au mieux n’engendrent que des succès temporaires et limités. Ce n’est pas pour autant qu’il faut cesser de se battre.

 

Notes

[1] Voir ainsi, J. Cartelier et A. D’Autume (eds), L’économie est-elle une science dure?, Economica, Paris, 1995.

[2] B. Caldwell, Beyond Positivism: Economic Methodology in the Twentieth Century, Allen & Unwin, Londres, 1982. B. Caldwell, (ed.), Appraisal and Criticism in Economics, Allen & Unwin, Londres, 1984. D. Hausman, The Inexact and Separate Science of Economics, Cambridge University Press, Cambridge, 1992. D. Hausman, (ed.), The Philosophy of Economics: an Anthology, Cambridge University Press, Cambridge, 1984. S.C. Dow, “Mainstream Economic Methodology”, in Cambridge Journal of Economics, vol. 21, n°1/1997, pp. 73-93.

[3] K. Arrow, “Toward a theory of price adjustment”, in I.M. Abramowitz, (ed.),The Allocation of Economic Resources, Stanford University Press, Stanford, Ca., 1959.

[4] G. Debreu, Theorie of Value, Wiley, New Yoork, 1959.

[5] Pour une relecture de ce paradoxe, J. Stiglitz, Wither Socialism?, MIT Press, Cambridge, Mass., 1994.

[6] M. de Vroey, “La possibilité d’une économie décentralisée: esquisse d’une alternative à la théorie de l’équilibre général”, in Revue Économique , vol. 38, n°3, mai 1987, pp. 773-805.

[7] A. Nove, Le Socialisme sans Marx, Economica, Paris, 1983.

[8] B. Chavance, Le Capital Socialiste. Histoire critique de l’économie politique du socialisme, Le Sycomore, Paris, 1980.

[9] De bons exemples de cet aveuglement se trouvent dans W. Andreff, “Capitalisme d’État ou monopolisme d’État en URSS? Propos d’étapes”, in Lavigne, (ed), Économie politique de la planification en système socialiste , Economica, Paris, 1978; et, W. Andreff, “Marxisme en crise cherche sociétés socialistes: à propos des thèses de P.M. Sweezy et de B. Chavance”, inBabylone, n°2-3, hiver 1983-1984, pp.66-99.

[10] Voir ainsi, B. Chavance, “Pourquoi le capitalisme étatique”, in Babylone , n°2-3, hiver 1983-1984, pp.100-125; Idem, “Hierarchical Forms and Coordination Problems in Socialist Systems”, in Industrial and Corporate Change , vol. 4, n°1, 1995, pp. 271-291. J. Sapir, L’économie mobilisée, La Découverte, Paris, 1990.

[11] Voir sur ce point F.A. Hayek, “Economics and knowledge”, in F.A. Hayek,Individualism and Economic Order, University of Chicago Press, Chicago, 1948, pp. 36-56; première publication en 1937.

[12] Voir ainsi E. Furobotn et S. Pejovich, (eds.), The Economics of Property rights, Ballinger, Cambridge, Mass., 1974; M. Jensen et W. Meckling, “Theory of the firm: managerial behavior, agency costs and ownership structure”, in Journal of Financial Economics, vol. 3, n°2, 1976, pp. 305-360.

[13] K. Marx, Le Capital , Livre I, PUF, Coll. Quadrige, Paris, 1993, pp. 398-400.

[14] B. Chavance, Marx et le Capitalisme: la dialectique d’un système, Nathan, Coll. Circa, Paris, 1997.

[15] Le débat a trouvé son origine dans la critique de la propriété collective en Yougoslavie. Voir: E.G. Furobtn et S. Pejovich, “Property Rights and the Behavior of the Firm in a Socialist State: The Example of Yugoslavia” inZeitschrift für Nationalökonomie , vol. 30, 1970, n°5; E.G. Furobtn et S. Pejovich, “Property Rights and Economic Theory: a Survey of Recent litterature”, in Journal of Economic Litterature, vol. 10, 1972, n°4.

[16] O. Hart et J. Moore, “Property Rights and the Theory of the Firm”, in Journal of Political Economy, vol. 98, n°6, 1990.

[17] O. Hart, “An Economist’s Perspective on the Theory of the Firm”, inColumbia Law review, vol. 89, n°1, 1989.

[18] O. Hart et J. Moore, “Property Rights and the Theory of the Firm”, op. cit..

[19] R.R. Nelson, “Assessing Private Enterprise: An Exegesis of Tangled Doctrine”, in Bell Journal of Economics, Vol. 12, n°1/1981, printemps, pp. 93-111.

[20] B. Chavance, Marx et le Capitalisme: la dialectique d’un système, op.cit..

[21] C. Bettelheim, Calcul économique et formes de propriété, Maspéro, Paris, 1970.

[22] R. .R. Nelson, “Assessing Private Enterprise: An Exegesis of Tangled Doctrine”, op.cit..

[23] Voir ainsi E.R. Weintraub, “Methodology doesn’t matter, but history of thought might”, in S. Honkapohja, (ed.), Wither Macroeconomics?, Basil Blackwell, Oxford, 1989.

[24] B.J. Caldwell, “Economic Methodology: Rationale, Foundation, Prospects”, in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, Routledge, Londres-New York, 1993, pp. 45-60. Idem, “Does Methodology matters? How should it practiced?”, in Finnish Economic Papers, vol.3, n°1/1990, pp. 64-71.

[25] D. McCloskey, The Rhetoric of Economics, University of Wisconsin Press, Madison, Wisc., 1985.

[26] P. Feyerabend, Against Method: Outline of an Anarchistic Theory of Knowledge, Verso Edition, Londres, 1975.

[27] Pour une critique de la dimension instrumentaliste chez McCloskey, U. Mäki, “How to Combine Rhetoric and Realism in the Methodology of Economics”, inEconomics and Philosophy, vol. 4, n°1/1988, pp. 89-109; Idem, “Realism, Economics and Rhetoric: a Rejoinder to McCloskey”, in Economics and Philosophy, vol. 4, n°1/1988, pp. 167-169.

[28] D. Hausman, The Inexact and Separate Science of Economics, op.cit., pp. 264-268.

[29] M. Bleaney, “An Overview of Emerging Theory”, in D. Greenaway et alii, (eds.), Companion to Contemporary Economic Thought, Routledge, Londres et New York, 1991.

[30] S.C. Dow, “Mainstream Economic Methodology”,op.cit, p. 87.

[31] P. Bourdieu, La Distinction – Critique sociale du jugement , Éditions de Minuit, Paris, 1979, p. 111.

[32] Idem, voir note 6, p. 194.

[33] B. Latour, La vie de laboratoire, La Découverte, Paris, 1988. B. Latour et S. Woolgar, Laboratory Life: The Construction of Scientific Facts, Princeton University Press, Princeton, NJ, 1979.

[34] U. Mäki, “Social Theories of Science and the Fate of Institutionalism in Economics”, in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, Routledge, Londres-New York, 1993, pp.76-109, p. 86-7.

[35] R. William et J. Law, “Beyond the Bounds of Credibility”, in Fundamenta Scientiae , vol. 1, 1980, pp. 295-315.

[36] M. Callon et J. Law, “La protohistoire d’un laboratoire”, in M. Callon, (sous la direction de), La Science et ses réseaux , La Découverte, Paris, 1989, chapitre 2, p. 67.

[37] Voir par exemple F.H. Hahn, “Keynesian economics and general equilibrium theory: reflections on some current debates” in G.C. Harcourt, (ed.), The Microfoundations of Macroeconomics , Macmillan, Londres, 1977. B.J. Loasby,The Mind ans Methods of the Economist: A critical appraisal of major economists in the XXth Century , Edward Elgar, Aldershot, 1989, en particulier chapitre 8. D.M. Haussman, The Inexact and Separate Science of Economics , op.cit..

[38] T.S. Kuhn, La Structure des Révolutions Scientifiques, Flammarion, coll. Champs, Paris, 1983, 2ème édition.

[39] Voir T.W. Hutchison, The Significance and Basic Postulates of Economic Theory, Macmillan, Londres, 1938.

[40] A. Insel, “Une rigueur pour la forme: Pourquoi la théorie néoclassique fascine-t-elle tant les économistes et comment s’en déprendre?”, in Revue Semestrielle du MAUSS, n°3, éditions la Découverte, Paris, 1994, pp. 77-94.

[41] Par exemple M. Blaug, The Methodology of Economics , Cambridge University Press, Cambridge, 1980.

[42] P. Mirowski, “How not to do things with metaphors: Paul Samuelson and the science of Neoclassical Economics”, in Studies in the History and Philosophy of Science, vol. 20, n°1/1989, pp. 175-191. Pour une critique plus générale sur le modèle de scientificité de la physique, P. Mirowski, More heat than light, Cambridge University Press, Cambridge, 1990.

[43] P.A. Samuelson, “Classical and Neoclassical theory”, in R.W. Clower, (ed.),Monetary Theory, Penguin, Londres, 1969.

[44] J. Cartelier et A. D’Autume (eds), L’économie est-elle une science dure?, op.cit..

[45] M. Friedman, “The Methodology of Positive Economics”, in M. Friedman,Essays in Positive Economics, University of Chicago Press, chicago, 1953, pp. 3-43.

[46] B. Caldwell, Beyond Positivism: Economic Methodology in the Twentieth Century, op.cit.. Voir aussi W. Mason, “Some negative thoughts on Friedman’s Positive Economics”, in Journal of Post-Keynesian Economics, vol. 3, n°2/1981, pp. 235-55.

[47] O.E. Williamson, The Economic Institutions of Capitalism, Firms, Market, Relational Contracting, Free Press, New York, 1985, pp. 391-2.

[48] P. Duhem, The Aim and structure of Physical Theory, Princeton University Press, Princeton, NJ, 1954. W. Quine, “Two Dogmas of Empiricism”, in W. Quine, From a Logical Point of View, Harvard University Press, Cambridge, Mass., 1953, pp. 20-46.

[49] D.W. Hands, “Popper and Lakatos in Economic Methodology”, in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, op.cit., pp. 61-75. J.J. Klant, “Refutability”, in Methodus , vol. 2, n°2/1990, pp. 34-51.

[50] D.W. Hands, “Popper and Lakatos in Economic Methodology”, op.cit., p. 64.

[51] K. Popper, Realism and the Aim of Science, Rowman & Littlefield, Totowa, NJ, 1983, p. xxxv.

[52] D.W. Hands, “Popper and Lakatos in Economic Methodology”, op.cit., p. 65.

[53] D.W. Hands, Testing, Rationality and Progress: Essays on the Popperian Tradition in Economic Methodology, Rowman & Littlefield, Latham, NJ, 1992. D.M. Hausman, “An Appraisal of Popperian Methodology” in N. de Marchi, (ed),The Popperian Legacy in Economics, Cambridge University Press, cambridge, 1988, pp. 65-85. U. Mäki, “Economic Methodology: complaints and guidelines”, inFinnish Economic Papers, vol.3, 1990, n°1, pp. 77-84.

[54] I. Lakatos, “Falsification and the Methodology of Scientific Research Programmes”, in I. Lakatos et A. Musgrave, (eds.), Criticism and the Growth of Knowledge, Cambridge University Press, Cambridge, 1970, pp. 91-196.

[55] E.R. Weintraub, General Equilibrium Analysis, Studies in Appraisal, Cambridge University Press, Cambridge, 1985. M. Blaug, “Ripensamenti sulla rivoluzione keynesiana”, in Rassegna Economica, vol. 51, n°3, 1987, pp. 605-634.

[56] G. Fulton, “Research Programmes in Economics”, in History of Political Economy, vol. 16, n°2, 1984, pp. 27-55.

[57] R. Cross, “The Duhem-Quine thesis, Lakatos and the Appraisal of Theories in Macroeconomics”, in Economic Journal, vol. 92, n°2, 1982, pp. 320-340.

[58] D.W. Hands, “Popper and Lakatos in Economic Methodology”, op.cit., p. 68. Voir aussi D.W. Hands, “Second Thoughts on Lakatos”, in , History of Political Economy, vol. 17, n°1, 1985, pp. 1-16.

[59] S.C. Dow, “Mainstream Economic Methodology”,op.cit, p. 80-81.

[60] Voir sur ce point la discussion in O. Hamouda et R. Rowley, “Ignorance and the Absence of Probabilities”, in C. Schmidt, (ed.), Uncertainty in Economic Thought, Edwar Elgar, Cheltenham, 1996, pp. 38-64.

[61] J. Doherty, E. Graham et M. Malek, (eds.), Post-modernism in Social Sciences, Macmillan, Londres, 1992; voir en particulier l’introduction à ce volume. B. Barnes et D. Bloor, “Relativism, rationalism and the sociology of lknowledge”, in M. Hollis et S. Lukes, (eds.), Rationality and Relativism , Basil Blackwell, Oxford, 1982, pp. 21-47.

[62] W. Jevons, The Theory of Political Economy, Macmillan, Londres, 1871, p. 266.