Coauthor
  • HEYER Eric (133)
  • PLANE Mathieu (82)
  • PÉLÉRAUX Hervé (68)
  • BLOT Christophe (65)
  • Show more
Document Type
  • Article (188)
  • Working paper (19)
  • Part or chapter of a book (17)
  • Periodical issue (12)
  • Show more
in Revue de l'OFCE Publication date 1999-10
BOUSSEMART Jean-Michel
MAAREK Gérard
FAYOLLE Jacky
PASSET Olivier
SIGOGNE Philippe
1
views

0
downloads
Les prévisions occupent une place particulière dans le débat public en économie. Elles sont généralement considérées comme des prédictions, qualifiées fréquemment optimistes ou de pessimistes, comme si elles dépendaient de humeur des équipes qui les réalisent. Certes, en un sens, la prévision est un art tant elle dépend des signes précurseurs que nous livre le présent, de l'interprétation des évolutions en cours, de la capacité des économistes de sélectionner les informations pertinentes parmi celles, multiples, dont l'intérêt est anecdotique. Mais elle est surtout une science puisqu'elle consiste à déduire des infor mations dont on dispose sur le présent une vision de l'avenir. Elle ne peut être formulée en dehors un cadre général d'interprétation, c'est-à-dire d'une théorie qui met en relation les informations que l'on privilégie et les variables que on cherche à prévoir. Parmi ces informations, certaines cruciales, ne sont pas vraiment disponibles car, pour l'essentiel, elles dépendent de décisions à venir et qu'il n'existe pas vraiment de théorie permettant de déduire des données existantes ce que seront ces décisions. Il faut donc formuler des hypothèses alternatives et retenir celles qui nous paraissent les plus vraisemblables. Dès lors, les erreurs de prévision peuvent avoir au moins trois origines : une insuffisance d'information sur le présent, une mauvaise spécification théorique, la non réalisation de certaines hypothèses. De surcroît, il existe une incertitude irréductible au sens ou certains événements sont imprévisibles, alors même que leur conséquence sur l'activité économique est déterminante. Voilà pourquoi les chiffres associés une prévision sont éminemment fragiles, qu'ils doivent être considérés comme conditionnels aux hypothèses que on formule, aux données dont on dispose et au cadre théorique dans lequel on raisonne. Il m'a donc semblé nécessaire que les prévisions réalisées par l'OFCE soient publiées en même temps un débat autour de ces prévisions. Cela offre le double avantage de rendre explicite le doute inhérent à tout exercice de prévision pour les raisons déjà exposées, et de participer au pluralisme nécessaire à l'indépendance et au sérieux des études économiques. Une prévision, pour rigoureuse elle soit, n'est pas un exercice mécanique au terme duquel la vérité serait révélée, mais une « histoire » raisonnée du futur délivrant des résultats incertains. Il est utile d'en comprendre d'emblée les limites, pour ne point s'en servir comme d'un argument autorité, à l'instar de ce qui est trop fréquemment le cas.

in Revue de l'OFCE Publication date 2009-10
CAVALIER Bruno
ZLOTOWSKI Yves
SCHWEISGUTH Danielle
0
views

0
downloads
Les prévisions occupent une place particulière dans le débat public en économie. Elles sont généralement considérées comme des prédictions, qualifiées fréquemment d’optimistes ou de pessimistes, comme si elles dépendaient de l’humeur des équipes qui les réalisent. Certes, en un sens, la prévision est un art tant elle dépend des signes précurseurs que nous livre le présent, de l’interprétation des évolutions en cours, de la capacité des économistes de sélectionner les informations pertinentes parmi celles, multiples, dont l’intérêt n’est qu’anecdotique. Mais elle est surtout une science puisqu’elle consiste à déduire des informations dont on dispose sur le présent une vision de l’avenir. Elle ne peut être formulée en dehors d’un cadre général d’interprétation, c’est-à-dire d’une théorie qui met en relation les informations que l’on privilégie et les variables que l’on cherche à prévoir. Parmi ces informations, certaines, cruciales, ne sont pas vraiment disponibles car, pour l’essentiel, elles dépendent de décisions à venir et qu’il n’existe pas vraiment de théorie permettant de déduire des données existantes ce que seront ces décisions. Il faut donc formuler des hypothèses alternatives et retenir celles qui nous paraissent les plus vraisemblables. Dès lors, les erreurs de prévision peuvent avoir au moins trois origines : une insuffisance d’information sur le présent, une mauvaise spécification théorique, la non réalisation de certaines hypothèses. De surcroît, il existe une incertitude irréductible au sens ou certains événements sont imprévisibles, alors même que leur conséquence sur l’activité économique est déterminante. Voilà pourquoi les chiffres associés à une prévision sont éminemment fragiles, qu’ils doivent être considérés comme conditionnels aux hypothèses que l’on formule, aux données dont on dispose et au cadre théorique dans lequel on raisonne. Il m’a donc semblé nécessaire que les prévisions réalisées par l’OFCE soient publiées en même temps qu’un débat autour de ces prévisions. Cela offre le double avantage de rendre explicite le doute inhérent à tout exercice de prévision pour les raisons déjà exposées, et de participer au pluralisme nécessaire à l’indépendance et au sérieux des études économiques. Une prévision, pour rigoureuse qu’elle soit, n’est pas un exercice mécanique au terme duquel la vérité serait révélée, mais une « histoire » raisonnée du futur délivrant des résultats incertains. Il est utile d’en comprendre d’emblée les limites, pour ne point s’en servir comme d’un argument d’autorité, à l’instar de ce qui est trop fréquemment le cas.

2
views

0
downloads
Le processus de coopération internationale pour lutter contre le dérèglement climatique a essuyé plusieurs revers depuis la signature des Accords de Paris en 2015 et la question des responsabilités respectives n'est toujours pas tranchée. La problématique sous-jacente, à savoir comment partager les efforts pour atteindre la neutralité carbone, est toujours en suspens et l'approche par les contributions déterminées au niveau national (INDCs en anglais) n'en a pas encore permis la résolution. Ces dernières années, le concept de budget carbone s'est imposé comme l'un des plus efficaces pour objectiver la contrainte climatique. Il repose sur l'idée que seule une quantité limitée d'émissions de carbone peut être relâchée dans l'atmosphère si l'on veut limiter la hausse de la température mondiale à +2°C par rapport à l'ère préindustrielle, et dans la mesure du possible à +1,5°C, comme décidé lors des Accords de Paris. En comparant ce à quoi notre budget carbone nous engage à ce qui est fait pour réduire notre empreinte carbone, nous calculons une distance à cette contrainte climatique. Exprimée en euros, cette distance, dénommée dette climatique, évalue ce que nous ne payons pas en reportant la mise en œuvre de mesures d'atténuation. En utilisant plusieurs règles de répartition de l'effort, et reconnaissant qu'elles ne font pas encore l'objet de négociations ni de consensus sur comment y parvenir, nous calculons cette dette climatique pour les principaux pays de l'UE. Trois recommandations de politiques publiques émergent de ce travail. Premièrement, il ne reste plus que quelques années avant que les principaux pays européens aient épuisé leur budget carbone compatible avec la cible de +2°C. Concernant celle de +1,5°C, la majorité des pays de l'UE ont déjà épuisé ce budget et sont donc en situation de déficit climatique excessif. De plus, la dette climatique apparaît comme l'un des enjeux majeurs des décennies à venir dans la mesure où elle représente déjà plus de 50 % du PIB de l'UE si l'on prétend rester sous la barre des 2°C de hausse de température (120 % pour rester sous celle des +1,5°C). Enfin, les résultats de notre étude sont sujets à de nombreuses hypothèses, à la fois éthiques et techniques, qui appellent à un approfondissement de cette évaluation, primordiale pour les politiques environnementales, de la part des institutions publiques et de centres de recherche indépendants.

Les années pré-crise 2008 ont été marquées par un creusement des déséquilibres internes à la zone euro, certains pays (Allemagne, Pays-Bas, …) accumulant des créances sur d'autres (Italie, Espagne, Grèce, Portugal, …). Par la suite les ajustements – compression des demandes internes, ajustement des coûts salariaux – ont déplacé les déséquilibres vers l'extérieur, la zone euro devenant structurellement excédentaire dans ses échanges avec le reste du monde, sans toutefois résoudre l'ensemble des déséquilibres intra zone. L'objectif de cet article est de faire un point sur l'état des déséquilibres internes à la zone euro, à partir d'une modélisation des taux de change d'équilibre basée sur une approche FEER (Fundamental Equilibrium Exchange Rates). Notre approche consiste à modéliser les prix des 11 principales économies de la zone euro, en prenant en compte la structure des échanges intra zone, la sensibilité des balances commerciales aux prix relatifs, la position des économies dans le cycle, et en posant des contraintes sur l'évolution des positions extérieures nettes. Nous en déduisons des cibles de balances courantes et des prix relatifs qui permettent d'estimer les désajustements intra zone euro sur la période 2002-2017. Ces désajustements correspondent aux variations de prix de valeur ajoutée qui doivent être réalisés simultanément pour que tous les pays atteignent leur cible de balance courante à un horizon de 20 ans.

A propos du commentaire de O.Bonnet et al. (2014) sur le capital au XXIe siècle de Thomas Piketti notre note est d'éclairer de façon plus générale certains débats provoqués par le Capital au XXI siècle.

in La Vie des Idées Publication date 2015-09
8
views

8
downloads
Le succès mondial du livre de Thomas Piketty a donné lieu à une floraison de commentaires, laudateurs ou plus critiques. La recension des principaux arguments invite à considérer le patrimoine et non le capital comme le véritable objet de cet ouvrage.

In Capital in the 21st century (hereafter Capital), Thomas Piketty points outthe risk of a concentration of wealth in the twenty-first century that would threaten the social justice and meritocratic values of our democratic societies.The main force of divergence is due to the fact that net returns on capital (r) are expected to be greater than the growth of the economy (g), or: “r>g”.According to Piketty, this will lead to two undesirable consequences: firstly,wealth will have a tendency to concentrate in the hands of a few; secondly,constituted wealth will tend to dominate accumulated wealth from labour:“the past devours the future”.

in Revue de l'OFCE - Débats et politiques Publication date 2015-04
4
views

0
downloads
Dans son ouvrage Le capital au XXIe siècle, Thomas Piketty propose une analyse critique de la dynamique de l’accumulation du capital. L’auteur montre que si le rendement du capital (r) est plus élevé que la croissance économique (g), ce qui a pratiquement toujours été le cas dans l’histoire, alors il est presque inévitable que les patrimoines hérités dominent les patrimoines constitués et que la concentration du capital atteigne des niveaux extrêmement élevés. Le livre cherche ainsi des fondements macroéconomiques (r>g) aux inégalités alors que les explications habituelles sont d’ordre micro-économique. Nous soulignons que l’on peut interpréter les faits décrits selon une causalité différente où les inégalités découlent du fonctionnement (imparfait) des marchés, des rentes de rareté et de l’établissement des droits de propriété. Selon cette interprétation, ce n’est pas r>g qui a transformé les entrepreneurs en rentiers, mais la mise en place de mécanismes permettant l’extraction d’une rente perpétuelle qui explique la constance historique r>g. Cette interprétation différente des mêmes phénomènes a des conséquences en termes de politique publique. L’imposition ex post du capital, si nécessaire, ne peut être qu’un choix de second rang : il faut d’abord lever les contraintes de rareté et se préoccuper de la définition des droits de propriété ainsi que des droits des propriétaires et des non-propriétaires

La recherche en économie témoigne d’un fort regain d’intérêt pour l’analyse spatiale, depuis les travaux de la nouvelle économie géographique à la fin des années 1980 (Fujita, 1988) et au début des années 1990 (Krugman, 1991 et 1998) qui ont repris, pour les formaliser, les modèles fondateurs de von Thünen, Weber et quelques autres. L’objectif initial était de rompre avec l’absence de la géographie dans les réflexions des économistes. La localisation des activités, des infrastructures, les incitations des agents économiques tout comme la façon dont sont prises les décisions individuelles et communes devaient concourir à comprendre le processus de développement et les questions macroéconomiques. Au-delà de l’évidence empirique que les activités économiques sont spatialisées et assez immobiles, leur localisation repose sur des forces de convergence et de divergence et induit des irréversibilités (et donc des coûts de localisation). Cet intérêt renouvelé pour la géographie économique a bien sûr trouvé un écho fort dans le processus de mondialisation. Les délocalisations et relocalisation de l’activité industrielle ont été (et sont encore) des phénomènes plus amples que ceux induits par les cycles macroéconomiques et sont un enjeu majeur pour les politiques visant à accroître « compétitivité » et « attractivité » des territoires. [Premier paragraphe de l'introduction]

Next