jeudi 24 janvier 2008

« Travailler plus pour gagner plus » ?


Une des mesures phare de la politique de l’emploi de l'année 2007 est la fameuse loi TEPA, en faveur du travail, de l’emploi et du pouvoir d’achat. Cette loi a fait l'objet de nombreuses analyses, portant essentiellement sur son impact sur la demande de travail des entreprises et sur les comportements d'optimisation fiscale qu'elle risque de provoquer. Les effets de la défiscalisation des heures supplémentaires sur l'offre de travail des salariés ont a quant à eux été relativement négligés. Or on a de bonnes raisons de penser que l'impact de la loi TEPA sur le volume d'heures travaillées sera faible et que son principal effet sera d'organiser un transfert de revenu des classes moyennes vers les classes aisées.

I/ Quelles sont les principales mesures de la loi TEPA ?

L'article 1 de la loi contient une disposition fiscale dont l'objectif déclaré est de permettre aux salariés d'augmenter leur pouvoir d'achat par l'allongement de leur temps de travail et d'inciter les entreprises à permettre ces allongements de temps de travail.

Pour encourager les salariés à faire plus d'heures (donc augmenter leur offre de travail), les revenus tirés des heures supplémentaires sont exonérés de l'impôt sur le revenu et de l'ensemble des charges salariales (chômage, assurance maladie, retraite de base et complémentaire, CSG et CRDS) : autrement dit, la rémunération des heures supplémentaires a été augmentée.

Pour inciter les entreprises à accorder plus d'heures supplémentaires (donc augmenter leur demande de travail), des réductions forfaitaires des cotisations patronales sont accordés : 0,50 € par heure supplémentaire pour les entreprises de plus de 20 salariés et 1,50 € par heure supplémentaire pour les entreprises de moins de 20 salariés. Pour ces dernières entreprises cependant, il faut noter que la diminution des charges patronales est compensée par une augmentation de la majoration du salaire des heures supplémentaires, celle-ci passant de 10 % à 25 %. Ainsi, le gain pour les petites entreprises n'existe que pour des salaires très proches du Smic, s'annule un peu avant 1,5 Smic et devient négatif au-delà.

II/ Les effets sur la demande de travail

La loi TEPA a suscité un grand nombre de commentaires, y compris avant qu'elle soit réellement discutée au parlement. Le plus souvent, les débats ont porté sur la question de savoir si les employés ont réellement la possibilité de choisir combien d'heures supplémentaires ils souhaitent effectuer. Cela dépend bien évidemment du pouvoir de négociation du salarié qui varie selon le type d'emploi, mais surtout de l'incitation qu'ont les employeurs à demander à leurs salariés de faire plus d'heures supplémentaires. Sur ce dernier point, l'impact de loi TEPA est susceptible de varier sensiblement selon le type d'entreprise considéré : comme indiqué plus haut, la loi rend la fiscalité des heures supplémentaires plus avantageuse pour les grandes entreprises, mais pas pour les petites lorsqu'elles versent des salaires supérieurs à 1,5 Smic. Par conséquent, l'effet de la défiscalisation des heures supplémentaires sur la demande de travail va surtout concerner les grandes entreprises.

On peut craindre par ailleurs qu'une grande partie de l'augmentation des heures supplémentaires déclarées ne corresponde pas à une augmentation réelle de l'activité économique. La défiscalisation des heures supplémentaires comporte en effet un risque sérieux de favoriser des comportements d'optimisation fiscale, puisque les entreprises auront intérêt à faire passer en heures supplémentaires des heures auparavant effectuées dans le régime normal, afin de bénéficier d'une fiscalité avantageuse sans pour autant changer quoi que ce soit à la durée effective du travail.

II/ Les effets sur l'offre de travail

Intéressons-nous maintenant aux effets probables de la défiscalisation des heures supplémentaires sur l'offre de travail, c'est-à-dire sur le nombre d'heures de travail que souhaitent effectuer les salariés.

Taux marginal versus taux moyen

En théorie, l’impact de la fiscalité sur l’offre de travail est assez complexe, voire ambigu. La taxation des revenus du travail a en effet deux effets qui vont dans des sens opposés :
1/ L'effet du taux marginal : comme l'a expliqué Manix, le taux marginal correspond au taux de prélèvement applicable au dernier euro gagné. Une diminution du taux marginal a plutôt tendance à encourager l'augmentation de l'offre de travail, car le supplément de travail réalisé par le salarié est mieux rémunéré. « Travailler plus » vaut plus le coup.
2/ L'effet du taux moyen : le taux moyen correspond au taux de prélèvement applicable sur l'ensemble des euros gagnés. L'effet d'une diminution du taux moyen est opposé à celui d'une augmentation du taux marginal : en augmentant les revenus après impôt du salarié, une diminution du taux moyen de prélèvement incite à travailler moins car plus on gagne d'argent, plus on préfère consacrer du temps au loisir.

A priori, l'effet de la loi TEPA sur l'offre de travail devrait donc être ambigu : d'un côté, en diminuant le taux marginal de prélèvement sur les revenus du travail, la loi devrait inciter les salariés à travailler plus ; mais d'un autre côté, en diminuant le taux moyen de prélèvement, elle devrait les inciter à travailler moins.

En réalité, comme indiqué dans le post que j'avais consacré à l'impôt sur le revenu, le cas de la France est assez particulier : le système d’imposition du revenu français présente des taux marginaux assez élevés, du fait des barèmes, mais des taux moyens très faibles du fait des très nombreuses déductions fiscales, réductions et crédits d’impôt. Surtout, l'effet de la loi TEPA sur le taux moyen de prélèvement sera faible, puisque par définition, la défiscalisation des heures supplémentaires ne concernera qu'une fraction relativement faible du total des heures travaillées (heures normales et heures supplémentaires) par un salarié . Dans ces conditions, l'effet de la loi TEPA transitera surtout par la baisse du taux marginal de prélèvement sur les salaires.

Qui seront les gagnants et les perdans de la réforme ?

La défiscalisation des heures supplémentaires pourrait donc apparaître comme une réforme idyllique, puisqu'elle incitera les salariés a faire plus d'heures supplémentaires en réduisant le taux marginal de prélèvement, sans les désincter à travailler puisqu'elle aura très peu d'effet sur le taux moyen. Cependant, il convient de savoir si cette augmentation sera importante ou faible. En effet, si elle est faible, la mesure n'aura qu'un effet négligeable sur la production totale (le PIB) et aura un coût positif sur la collectivité (le supplément de recettes générés par un volume d'heures travaillées plus important n'étant pas suffisant pour compenser les pertes de recettes engendrées par les exonérations fiscales). Si tel est le cas, la loi TEPA consistera essentiellement en un transfert des agents qui ne font pas d'heures supplémentaires (et qui paieront d'autres prélèvements obligatoires pour équilibrer le budget national) vers ceux qui en font : les « gagnants » de la réforme se trouveront du côté des salariés qui vont faire beaucoup d'heures supplémentaires en plus, les « perdants » du côté de ceux qui ne vont pas en faire plus. Une vrai question d'équité se poserait alors.

Ce point a été relevé par les économistes Patrick Artus, Pierre Cahuc et André Zylberberg dans le rapport qu'ils ont rédigé pour le Conseil d'Analyse Economique en août dernier, intitulé Temps de travail, revenu et emploi. Ils montrent que la défiscalisation des heures supplémentaires aura des effets contrastés sur le pouvoir d'achat des salariés : d'un côté, les salariés qui font déjà des heures supplémentaires devraient en faire plus, ce qui va augmenter leur pouvoir d'achat ; mais d'un autre côté, la réforme risque de diminuer le pouvoir d'achat des salariés qui ne font pas aujourd'hui d'heures supplémentaires, ainsi que celui des inactifs et des chômeurs, puisque la défiscalisation aura nécessairement pour effet de une diminuer les recettes publiques, qui devront être compensées par la hausse d'autres formes de prélèvements obligatoires.

Pour déterminer quels seront parmi les salariés les « gagnants » et les « perdants » de la réforme, on peut s'appuyer sur un petit schéma de l'équilibre du marché du travail. Le graphique suivant montre comment le nombre d'heures supplémentaires varie en fonction de la réactivité des salariés à la rémunération des heures supplémentaires :


Les courbes noires représentent la demande de travail payés en heures supplémentaires des entreprises en fonction du salaire qu'elles ont à payer. La courbe noire en traits pleins correspond à la situation initiale (avant la défiscalisation). Lorsque qu'on défiscalise les heures supplémentaires, le coût des heures supplémentaires pour l'employeur diminue : par conséquent, la demande de travail rémunéré en heures supplémentaires va s'accroître (la courbe en traits pleins se déplace vers la courbe en pointillés), c'est-à-dire que les entreprises vont augmenter le nombre d'heures supplémentaires qu'elles demandent à leurs salariés. L'effet de cet accroissement de la demande de travail sur le nombre d'heures supplémentaires réalisées va dépendre de la pente de la courbe d'offre de travail de salariés : si l'offre de travail des salariés est très sensible au salaire (courbe bleue), l'augmentation du nombre d'heures supplémentaires (H2) sera forte ; inversement, si la réactivité des salariés est faible (courbe rouge), l'augmentation du nombre d'heures supplémentaires (H1) sera faible. Les « gagnants » de la réforme sont ceux qui vont augmenter le plus leur volume d'heures supplémentaire : ils sont représentés par la courbe bleue. les « perdants » sont ceux qui vont augmenter le moins leur volume d'heures supplémentaires : ils sont représentés par la courbe rouge.

Qui sont les salariés correspondant à l'un et l'autre cas ? Il existe un relatif un consensus sur ce point parmi les économistes. Dans cet article, Jonathan Gruber et Emmanuel Saez résument résument les principaux résultats des différentes études empiriques menées sur le sujet : la principale conclusion est que les classes moyennes sont surtout sensibles aux taux moyens et peu aux taux marginaux, alors les salariés les plus riches réagissent plus fortement aux incitations liées aux taux marginaux d’imposition. Par ailleurs, il semblerait les femmes répondent globalement bien plus que les hommes aux incitations.

La défiscalisation des heures supplémentaires ne devrait donc avoir pratiquement aucun impact sur le volume d'heures supplémentaires réalisées par les salariés des classes moyennes, c'est-à-dire la très grande majorité, et augmenter la demande d'heures supplémentaires du très haut de la distribution des salaires. Les gagnants à la réforme sont donc à chercher du côté des salariés les mieux payés, les perdants du côté des moins bien payés. On poura toujours rétorquer que la loi pourrait quand même avoir un impact positif sur la demande de travail non qualifié si on suppose qu’il existe une complémentarité entre travail très qualifié et travail moins qualifié (si une entreprise fait travailler davantage ses ingénieurs, elle aura besoin de faire travailler davantage ses ouvriers) ; s'il existe, cet effet demeurera néanmoins faible.

L'effet « anti-redistributif » de la défiscalisation des heures supplémentaires ne s'arrête pas là : dans la mesure où les cotisations retraite existent jusqu'à un plafond assez élevé de salaire et que les hauts salaires sont ceux qui devraient le plus réagir à la loi, cette exonération des heures supplémentaires, qui touche en particulier les cotisations sociales, revient en partie à une subvention publique des retraites des plus riches.

L'effet sur l'offre de travail des femmes

Les arguments passés en revue jusqu'à présent semblent indiquer que la loi TEPA aura surtout pour effet d'organiser une redistribution « à l’envers », au détriment des classes moyennes et en faveur des salariés les mieux payés, pour un bénéfice relativement faible en termes d'activité économique. On pourrait néanmoins défendre la mesure en se concentrant sur le cas des femmes : la théorie économique suggère en effet qu'une telle exonération pourrait avoir un impact positif et significatif sur leur offre de travail.

En réalité, on constate empiriquement que les incitations fiscales jouent surtout sur la décision des femmes de participer ou non au marché du travail ou sur leur décision de travailler à temps plein ou à temps partiel, mais pas tellement sur le nombre d'heures travaillées. Or la défiscalisation des heures supplémentaires ne modifiera pas l'arbitrage entre travail et inactivité, pas plus qu'elle ne modifiera l'arbitrage entre temps partiel et temps plein. On peut donc penser que cette loi n’est n'aura pas particulièrement d'impact sur l'offre de travail des femmes.

Au total, l'analyse économique suggère que la loi TEPA n'a rien de la potion magique dont certains semblent rêver et que le « travailler plus » des uns risque surtout de se traduire par le « gagner moins » des autres.
_Clement_

Lire la suite...

dimanche 20 janvier 2008

Le « problème des retraites » (2/40) : les systèmes de retraite possibles


En commençant une longue série sur les retraites, j’avais abordé il y a quelques semaines la question des changements démographiques et des choix globaux possibles. De nombreux lecteurs avaient fait remarquer que les choix démocratiques sur l’évolution de nos systèmes de retraite ne se limitent pas à un choix en termes de prélèvement, d’âge de la retraite et de niveau de pension, mais concernent également le mode de fonctionnement du système. L’opposition système par capitalisation / système par répartition a naturellement été évoquée. Trop souvent, le débat entre les pro et les anti capitalisation / répartition a tendance à alimenter une confusion sur les caractéristiques possibles des systèmes de retraite. Avant de consacrer de longs posts aux problèmes spécifiques du système français, il n’est peut-être pas inutile de procéder à quelques clarifications sur les typologies des systèmes de retraite.

I/ Qu’est-ce qu’un système de retraite ? ou les pièges des typologies

Un système de retraite est un mécanisme institutionnel qui permet de transférer du revenu pendant une période d’activité à une période d’inactivité. Plus exactement, il permet de transférer des droits à un flux de revenu. Pendant la période d’activité, un salarié échange du travail contre un droit à un flux de revenu (un salaire) ; il peut renoncer à une partie de ses revenus (sous la forme de cotisations retraite ou d’épargne privée) en échange d’un droit à un flux de revenu pendant sa période d’inactivité (pension ou rente). Il baisse donc sa consommation immédiatement afin de pouvoir consommer plus tard. Il s’agit d’épargne au sens général du terme (dans le jargon des économistes, on parle de « de transferts intertemporels de revenu »). Tous les systèmes de retraite ont cette fonction économique fondamentale, mais ils peuvent différer grandement selon les règles déterminant ce transfert de droits. On a pris l’habitude de les classer et de les opposer selon des grands types. Ces typologies sont très utiles mais elles alimentent aussi des confusions qu’il est bon de clarifier rapidement.

Première confusion : l’opposition capitalisation/répartition

La typologie la plus connue dans le grand public est l’opposition capitalisation/répartition. Telle qu’elle est présentée (trop) souvent dans le débat français, elle porte à confusion. Habituellement le grand public comprend « la répartition » comme un système collectif, public, redistributif, qui garantit « la solidarité entre les générations », par opposition à un système privé d’épargne individuelle, lié aux fluctuations du marché et forcément non redistributif. Cette confusion est largement alimentée par les prises de position de certains défenseurs de la répartition comme Michel Husson (Vive la répart !) ou l’association Attac, mais également par celles des tenants très conservateurs de la privatisation des régimes de retraite. En réalité, la distinction répartition/capitalisation se résume à une différence du mode de financement des retraites : « en répartition » les cotisations des actifs financent directement, sans préfinancement, les retraites des inactifs ; la capitalisation correspond quant à elle à un mode de financement où les cotisations des actifs sont accumulées dans des fonds, placées sur les marchés financiers et utilisés ensuite pour verser les pensions. Le terme de répartition est pour le coup assez ambigu, puisqu’il laisse à penser que « la répartition » est naturellement équitable (« la répartition répartit ») alors que la « capitalisation » est de l’ordre du chacun pour soi (« on capitalise avec la capitalisation »). Ceci alimente la confusion entre redistribution et mode de financement. Il est en effet possible d’avoir un système par capitalisation, public, collectif et redistributif ; il est aussi possible d’avoir un système privé par répartition et non redistributif. Par exemple les systèmes de retraite français complémentaires ont commencé comme des régimes privés, non redistributifs et fonctionnant par répartition ; le Fonds de réserve des retraites (FRR) est un mode de financement des retraites par capitalisation, public et collectif. Plutôt que de parler de répartition/capitalisation, il serait plus pédagogique de parler de « préfinancement ou non » à l’instar de la langue anglaise qui utilise les termes funded versus unfunded system. Il nous faudra revenir longuement sur l’opposition de ces modes de financement, mais l’important est de garder à l’esprit qu’ils ne sauraient se confondre avec le degré de redistribution, au sein des générations ou entre les générations.

Deuxième confusion : l’opposition philosophique entre Bismarck et Beveridge

La seconde typologie la plus utilisée est l’opposition entre les philosophies des systèmes bismarckien et beveridgien. Si l’on voulait retracer à grands traits l’histoire des systèmes de retraite, on distinguerait trois grandes origines à nos systèmes actuels.
Le plus ancien serait la volonté de l’Etat (des monarques) de s’assurer la fidélité de leurs soldats quand le pillage n’était plus de mise. Jules César offre ainsi des terres à ses vétérans lorsqu’il en a terminé avec ses conquêtes. Les légionnaires romains reçoivent ainsi une rente comme récompense pour leurs services passés. C’est à la fois le Trésor de la République romaine qui paie (lorsque les terres sont prises sur le domaine de l’ager publicus) ou le plus souvent par la confiscation de terres sur les colonies de Rome. Les monarques français vont suivre cette tradition et financer des pensions pour les anciens soldats du Royaume de France. C’est Louis XIV qui crée en 1670 l’Hôtel des Invalides pour les vétérans de l’armée et en 1673 une Caisse des invalides de la Marine royale est mise en place. Par suite logique, les fonctionnaires civils reçoivent aussi une retraite « récompense » payée directement par le Trésor. Il n’est pas question dans ces prémisses d’un système de retraite général.
Le premier système couvrant une population plus large est issu des initiatives du Chancelier allemand Otto von Bismarck (Assurances vieillesses de 1889). Le système dit « bismarckien » est contributif et obligatoire. Les cotisations, prélevés sur les salariés et les employeurs financent des retraites proportionnelles aux salaires. Le système bénéficie donc uniquement aux anciens salariés (donc surtout les hommes). L’avantage du modèle bismarckien est de prendre en compte les aspects incitatifs de l’assurance vieillesse : plus on cotise, plus la retraite est importante ; les cotisations ne doivent donc pas être perçues par les salariés comme des impôts mais comme de l’épargne forcée. Le désavantage d’un tel modèle, s’il est appliqué à la lettre, est qu’il laisse une partie importante de la population (les inactifs) sans couverture, il n’effectue pas de redistribution (sinon vers ceux qui vivent plus longtemps) et il n’assure donc pas de minimum de revenu pour les personnes âgées. On a aussi pu dire que ce système a un aspect corporatif ou professionnel (il tourne autour de l’entreprise, de la corporation ou du secteur d’activité).
Une autre philosophie du système de retraite est née du rapport Beveridge de 1942 au Royaume-Uni : dans un système dit beveridgien, l’objectif est de réduire la pauvreté des personnes âgées mais pas de garantir à tous une retraite proportionnelle. Le système public de retraite est ainsi financé par l’impôt et permet d’offrir une pension non conditionnelle aux cotisations passées, mais ouverte à tous les résidents à partir d’un âge donné. Le système beveridgien laisse donc libre le choix du mode de constitution des pensions complémentaires pour les individus qui ne sont pas en risque de pauvreté. Il assure un filet de sécurité pour tous, effectue ainsi de la redistribution en faveur de ceux qui ont des accidents de carrière mais il ne permet pas d’inciter les salariés à préparer leur retraite. Les individus non prévoyants risquent donc de se retrouver à l’âge de la retraite avec des pensions moins élevées qu’ils ne l’auraient espéré.

L’Allemagne, la France et les Etats-Unis se sont inspirés plutôt d’un modèle bismarckien, tandis que le Royaume-Uni et les pays nordiques se sont inspirés du modèle beveridigien. Mais aujourd’hui, la plupart des systèmes de retraite sont en fait des modèles hybrides, ayant une part beveridgienne et une part bismarckienne : le système français a introduit très tôt des éléments non contributifs d’inspiration beveridgienne (minimum vieillesse en 1956) et le système anglais a introduit une part contributive en 1975. Par ailleurs, un certain nombre de pays (les Pays-Bas, la Suisse) ne rentrent pas facilement dans cette classification et ont pu considérablement évoluer. Au final, bien qu’historiquement très importante, cette typologie a perdu de sa pertinence. Chacun reconnaît qu’il y a un arbitrage à faire entre garantir un minimum de revenu aux personnes âgées et s’assurer que les salariés puissent se constituer des retraites d’un montant satisfaisant. Il n’y a donc pas vraiment à « trancher » entre ces deux philosophies. Un système de retraite doit prendre en compte ces deux objectifs avec des instruments différents.

Troisième confusion : la typologie classique d’Esping-Andersen

Pour aller au-delà de la différence entre Bismarck et Beveridge et pour clarifier les choix concernant les différents régimes de retraite, les pionniers des travaux sur les systèmes d’assurances sociales ont constitué d’autres typologies. Les travaux de Gøsta Esping-Andersen ont marqué les esprits des économistes durablement. Ce sociologue danois (aujourd’hui professeur à l’université Pompeu Fabra à Barcelone) a présenté sa célèbre typologie des régimes de retraite avec les trois types d’Etats providence : le libéral, le conservateur et le social-démocrate. Le modèle libéral (Royaume-Uni, Etats-Unis) repose sur des retraites publiques faibles qui laissent la place à de larges compléments privés. Il est cohérent avec l’inspiration beveridgienne d’un minimum de retraite financé par l’impôt. Le modèle conservateur (Allemagne, Autriche et France) est lui cohérent avec l’inspiration corporatiste de l’inspiration bismarkienne : seuls les salariés bénéficient de retraites importantes, proportionnelles aux salaires et le système est peu redistributif. Le modèle social-démocrate (pays nordiques) combine quant à lui une inspiration beveridgienne (universaliste) avec un fort de couverture et donc des taux d’imposition élevés.

Si les classifications à la Esping-Andersen sont très utiles pour cerner l’historique et les différentes philosophies qui ont présidé à la naissance des systèmes de retraite, elles sont peu adaptées à la variété réelle des systèmes possibles. Ces modalités peuvent être assemblées de façon extrêmement diverses et le piège des typologies est de laisser croire qu’il n’y a que quelques grands modèles de retraite cohérents qui dépendent de choix philosophiques radicalement opposés.

II/ La multitude des systèmes de retraite possibles

En réalité, les choix sont bien plus nombreux tant tous les panachages sont possibles. Les modalités qui déterminent la forme des systèmes de retraite dépendent en fait des objectifs que l’on assigne au système de retraite. Il existe de nombreux motifs à l’intervention de l’Etat dans les institutions de retraite. Chaque motif spécifique invite à une modalité particulière d’intervention. L’objectif de la liste qui va suivre n’est pas de juger de leur pertinence ni de rentrer dans les détails mais simplement de faire le lien entre les objectifs que le législateur (le citoyen) peut fixer aux systèmes de retraite et les choix qu’ils impliquent.

1/ Le mode de financement : il s’agit du choix évoqué plus haut entre capitalisation ou répartition qui dépend de l’existence ou non de marchés financiers et de la confiance que l’on peut avoir envers ces marchés par rapport à la confiance en la capacité de l’Etat à honorer ses promesses passées. Ce choix dépend aussi de l’histoire, des guerres, des épisodes d’hyperinflation ou de tous les chocs qui ont pu conduire des générations à parvenir à l’orée de la vieillesse sans moyens de subsistance.

2/ Le caractère public ou privé : l’Etat peut choisir de produire lui-même cette assurance vieillesse, ou imposer l’obligation de contracter une assurance privée, ou subventionner (sans obligation) l’achat de ces assurances (réductions fiscales). Le choix de l’une ou l’autre de ces solutions dépend du diagnostic qu’on porte sur l’origine du manque d’assurance : une défaillance de marché (si l’on pense qu’aucune institution privée ne peut fournir de garanties sur le long terme où fonctionnent les retraites), la myopie des agents (si l’on pense que les individus sous-estiment leurs besoins de revenu pour la retraite) et les coûts relatifs d’administration de ces systèmes (un système public peut bénéficier de moindres coûts administratifs mais peut aussi pâtir d’un manque d’incitation à améliorer son efficacité).

3/ Le caractère obligatoire ou non : il s’agit de répondre au souci (paternaliste) de l’Etat de forcer les individus à préparer leur retraite, de peur qu’ils ne se retrouvent sans ressource au moment de leur période d’inactivité. Le caractère obligatoire est naturel avec un système public, mais il est compatible avec un système privé pourvu que l’on considère que les individus ne sont pas capables de prévoir leurs besoins de revenus pour la retraite (les économistes disent que « les agents sont myopes »).

4/ Le caractère contributif ou non : un système de retraite est considéré comme contributif si la pension dépend des contributions passées des individus. Un système de retraite peut vouloir simplement éviter la pauvreté aux âges élevés et apporter un filet de sécurité avec un revenu minimum. Celui-ci n’est donc pas forcément dépendant des contributions au système. Mais si le système a pour objectif véritablement le transfert de revenu des périodes d’activité aux périodes d’inactivité, alors la pension doit dépendre de l’effort contributif.

5/ Le mode d’ajustement : un système de retraite contributif peut être à cotisations définies (on fixe les cotisations à un certain taux et la pension dépend de l’âge de départ et de l’espérance de vie) ou à prestations définies (on fixe le montant des pensions et on ajuste les variations démographiques avec l’augmentation des cotisations). Ainsi en France, le régime général est à prestations définies tandis que les systèmes par point des régimes complémentaires sont à cotisations définies.

6/ La redistribution intra-générationnelle : un système de retraite peut effectuer de la redistribution au sein d’une même génération. Le taux de rendement peut-être plus élevé pour les plus pauvres sur l’ensemble de leur carrière, les pensions peuvent compenser pour les accidents de carrière, elles peuvent compenser pour les carrières courtes (celles des femmes en particulier). Mais la principale redistribution opérée par un système d’assurance retraite est un transfert de revenu de ceux qui meurent jeune vers ceux qui meurent plus âgés. S’il existe des inégalités d’espérance de vie, alors celles-ci vont entraîner (selon la forme du système) de la redistribution : des hommes vers les femmes, des non-éduqués vers les plus éduqués, des fumeurs vers les non-fumeurs…

7/ La redistribution intergénérationnelle : un système de retraite peut effectuer de la redistribution entre les générations. Il est ainsi possible de verser une pension à des générations n’ayant pas cotisé en transmettant ce coût aux générations suivantes. Avec un système par répartition, il est en fait possible d’émettre une dette implicite qui est transmise aux plus jeunes générations. L’objectif peut être de compenser une génération qui aurait subi des conditions particulièrement difficiles (guerre par exemple) ou de façon moins altruiste de tenter de faire porter le poids des retraites de la génération actuelle par les générations plus jeunes.

8/ Le traitement familial : un système de retraite peut prendre en compte des éléments familiaux importants selon que le conjoint survivant bénéficie ou non d’une pension de réversion ou selon que le nombre d’enfant influe sur le montant de la pension. L’objectif peut être d’encourager la fertilité, de favoriser les familles nombreuses, d’encourager le retrait des femmes du marché du travail ou au contraire d’inciter leur participation.

9/ La prise en compte de l’état physique : en avançant au cours de leur carrière les salariés subissent un risque croissant de détérioration de leur condition physique. Les systèmes de retraite peuvent prendre en comptes ces spécificités en proposant sous critères médicaux des pensions à taux plein de façon plus précoce. Les pensions pour inaptitude, pour invalidité, pour les travailleurs de l’amiante ou pour les salariés qui ont travaillé dans des conditions particulièrement difficiles offrent ainsi une alternative au système de retraite commun. Le risque de ces dispositifs est de dériver vers des systèmes de retraite anticipée ou le lien avec les problèmes de santé disparaît.

10/ Les objectifs d’emploi : un certain nombre de pays ont utilisé leur système de retraite avec un objectif de « libérer des emplois » pour les plus jeunes. Dans ce cas, le système de retraite peut être modifié afin d’inciter les salariés à prendre plus tôt leur retraite qu’ils ne l’auraient souhaité. Les incitations à poursuivre son activité peuvent ainsi dépendre de l’augmentation du niveau de la pension avec la durée de la carrière ou l’âge ou dépendre d’autres modalités comme les règles de cumul des pensions avec une rémunération d’activité. Ces règles font aussi partie d’un système de retraite et dépendent du rôle qu’on entend lui faire jouer.

Ce qu’il est important de comprendre, c’est que ces différentes modalités peuvent être combinées de toutes les façons possibles : il est possible d’avoir un système de retraite par capitalisation, obligatoire et public, un système par répartition, privé, non obligatoire, un système par répartition, individuel et public… De plus tous les systèmes peuvent être simultanés dans un même pays, plusieurs étages différents disponibles pour un même individu. Les cinq premiers critères cités forment l’armature de tout système de retraite. On peut les utiliser pour construire une typologie économique des systèmes de retraite (tableau ci-dessous) :


Ce tableau est loin d’être exhaustif, mais il laisse entrevoir la variété des choix possibles qui n’ont pas forcement le contenu idéologique que certains veulent y mettre. Les cris de « vive la répartition » ou au contraire « vive la capitalisation » semblent quelque peu simplistes au vu des enjeux.
_Antoine_

Lire la suite...

lundi 14 janvier 2008

Fin de la pub sur les chaînes publiques : une manne pour TF1 et M6 ?


Lors de sa conférence de presse du 8 janvier dernier, le Président Sarkozix a créé la surprise en annonçant la fin de la publicité sur les chaînes publiques et en proposant que le manque à gagner de 830 millions d’euros pour France Télévisions soit compensé par « une taxe sur les recettes publicitaires accrue des chaînes privées et par une taxe infinitésimale sur le chiffre d'affaires de nouveaux moyens de communication, comme l'accès à Internet ou la téléphonie mobile ». Le jour même, on apprenait que les cours de TF1 et M6 s’envolaient à la Bourse de Paris, au point que la plupart des commentateurs semblaient considérer qu’il s’agissait forcément d’une bonne affaire pour les chaînes privées. Nous alors voir que si la demande de spots publicitaires n'est pas trop sensible à son prix, ce sera effectivement le cas.

I/ Le marché des espaces publicitaires à la télévision

Le marché des spots publicitaires brasse beaucoup d’argent : en 2007, les recettes publicitaires brutes de la télévision s’élevaient à 6,7 milliards d’euros, dont 5,5 milliards pour la télévision hertzienne (soit 82% du total) et 1,2 milliards pour la TNT, le câble et le satellite (soit 18% du total).

Du point de vue de l’économiste, ce marché constitue une vraie curiosité, dans la mesure où l’offre et la demande de spots publicitaires présentent des caractéristiques assez atypiques.

La demande de spots de pub

La demande de spots publicitaires est le fait d’une multitude d’entreprises en concurrence pour l’achat de « temps de cerveau disponible » auprès des régies publicitaires des grandes chaînes publiques et privées de la télévision. Le prix qu’un annonceur est prêt à débourser pour 30 secondes d’espace publicitaire dépend à la fois du nombre de téléspectateurs qui seront devant leur télé au moment de la diffusion (ce qui explique les prix stratosphériques atteints par les spots publicitaires à l’occasion de certains événements sportifs) et du degré de proximité de ces téléspectateurs avec le « cœur de cible » de l’annonceur (les pubs pour les jouets pour enfants sont rarement diffusés à 2 heures du matin...). En toute logique, la demande de spots publicitaires télévisés n’échappe pas à la « loi de la demande » : toutes choses égales par ailleurs, plus le prix du spot publicitaire augmente, plus la demande de spots diminue. La sensibilité de la demande de spots publicitaires à leur prix est mesurée par son élasticité-prix (un concept auquel Kanelbullix a récemment consacré un post) : à titre d’exemple, une élasticité de 0,5 signifie que lorsque le prix du spot de pub augmente de 1%, la demande diminue de 0,5%.

L’offre de spots de pub

L’offre de spots publicitaires présente trois grandes spécificités :

1/ L’espace publicitaire offert à la télévision se caractérise d’abord par des coûts de revient pratiquement nuls et une valeur qui dépend avant tout de l’audience. En effet, la fourniture d’un espace publicitaire ne coûte quasiment rien au diffuseur, les coûts étant pour l’essentiel des coûts fixes (coûts de création et de maintenance d’une chaîne de télévision). On peut même considérer que la diffusion d’un message publicitaire permet à une chaîne de réaliser des économies, dans la mesure où elle n’a pas à diffuser de programme pendant le temps de la pub. Dans ces conditions, la marge réalisée par les régies publicitaires s’élève à environ 90% du prix de vente des espaces publicitaires.

2/ L’offre d’espaces publicitaires à la télévision est très inélastique (peu sensible aux prix). En effet, étant donné la faiblesse des coûts de diffusion de messages publicitaires, les chaînes de télévision souhaiteraient offrir un volume d’espaces publicitaires beaucoup plus important que celui qui prévaut actuellement (environ 7% de l’offre de programme des grandes chaînes nationales en 2003), mais elles n’en n’ont pas la faculté, dans la mesure où la durée des espaces réservés à la publicité à la télévision est très étroitement encadrée par un ensemble de dispositions législatives, réglementaires et conventionnelles qui concernent aussi bien les chaînes publiques que les chaînes privées. A l’heure actuelle, les télévisions privées hertziennes sont limitées à 6 minutes de publicité par heure en moyenne quotidienne et à 12 minutes en heures glissantes (c'est-à-dire aussi bien entre 13h et 14h qu'entre 13h07 et 14h07, etc.) ; les télévisions publiques (France 2, France 3 et France 5) sont limitées à 6 minutes par heure en moyenne quotidienne et à 8 minutes par heure glissante ; les télévisions diffusées par câble ou satellite sont limitées à 9 minutes de publicité par heure en moyenne quotidienne et à 12 minutes en heures glissantes ; enfin, les télévisions hertziennes locales peuvent diffuser 12 minutes par heure d’antenne et 15 minutes par heure donnée.

3/ L’existence de coûts fixes élevés pour créer une chaîne de télévision explique que l’offre de spots publicitaires soit fortement concentrée : le marché des spots publicitaires est aux mains d’un très petit nombre de régies publicitaires qui regroupent généralement plusieurs chaînes (sur le câble, le groupe M6 possède par exemple W9, Paris Première, Téva ou encore Série Club). À l’heure actuelle, trois grandes régies contrôlent la quasi-totalité du marché : TF1, qui détient 55% du marché des spots publicitaires, M6, qui en détient 24% et France Télévisions, qui en détient seulement 20% (pour un montant de 830 millions de recettes publicitaires nettes en 2007, ce qui représente 30% de ses ressources financières). Les offreurs de spots publicitaires à la télévision sont donc en situation d’oligopole, ce qui leur confère un pouvoir de marché qui va lui-même influencer la manière dont les prix vont se fixer. Les propriétés de ce mode de concurrence dépendent de la manière dont les firmes interagissent : traditionnellement, les économistes distinguent une concurrence « par les quantités », dite concurrence à la Cournot et une concurrence « en prix », dite concurrence à la Bertrand. Dans le cas des spots publicitaires, la concurrence se rapprocherait davantage d’une concurrence en prix, dans la mesure où les régies publicitaires n’ont pas la possibilité de modifier la durée des espaces publicitaires vendus, pour les raisons mentionnées au point 2/. En l’absence d’une entente sur les prix, les propriétés d’une concurrence oligopolistique en prix sont relativement proches de celles de la concurrence « pure et parfaite » : à l’équilibre, les firmes ne parviennent pas à profiter de leur pouvoir de marché pour extraire une rente et proposer des prix supérieurs à ceux qui prévaudraient dans un univers parfaitement concurrentiel. Ce résultat n’est valable que si les régies publicitaires des grandes chaînes de télévision ne sont pas en collusion : les décisions du Conseil de la concurrence en la matière semblent indiquer que l’existence d’une entente sur le prix des espaces publicitaires ne peut être caractérisée. En revanche, le Conseil a considéré en 2001 que TF1 et sa filiale TF1 publicité, en détenant une part de marché nettement plus importante que celle de leur concurrence immédiat, France Télévisions Publicité, étaient entre 1993 et 1997 en abus de position dominante sur le marché de la publicité télévisuelle. A cette occasion, TF1 fut condamnée à une sanction pécuniaire d’un montant de 1,2 millions d’euros.

Le graphique suivant résume de manière très schématique le fonctionnement du marché des spots publicitaires à la télévision :


La quantité de spots publicitaires vendus est indiquée en abscisses, le prix du spot de pub en ordonnées. La courbe de demande de spots est une fonction décroissante des prix pratiqués, alors que l’offre d’espaces publicitaires est totalement inélastique, pour les raisons mentionnées plus haut. L’équilibre sur ce marché se fixe au point E, situé à l’intersection des courbes d’offre et de demande : en ce point, le prix du spot de pub est égal à PE et le nombre de spots vendus à QE. Le rectangle colorié en jaune mesure le total des recettes publicitaires perçues par les régies publicitaires des chaînes publiques et privées. Ces recettes sont égales au prix unitaire du spot publicitaire multiplié par la quantité vendue, soit PE*QE. La part qui revient à chacune de régies publicitaires est indiquée par le découpage du rectangle en trois portions : TF1 (55%), M6 (25%) et France Télévisions (20 %).

II/ Quel sera l’impact de la suppression de la publicité sur les chaînes publiques ?

Dans ce contexte, quel sera l’impact de la suppression des espaces publicitaires sur les chaînes publiques (on ne prend pas encore en compte la création d’une taxe sur les spots publicitaires diffusés sur les chaînes privées) ?

Graphiquement, la fin de la publicité sur les chaînes de France Télévision se traduira par un déplacement vers la gauche de la courbe d’offre de spots publicitaires. L’ampleur de déplacement sera égal à la part de marché détenue par France Télévisions dans le total des recettes publicitaires des chaînes de télévision, soit 20% :


Ce déplacement de la courbe d’offre de spots publicitaires aura trois effets :

1/ une réduction de 20 % du nombre total de spots publicitaires diffusés à la télévision ;

2/ une augmentation du prix du spot publicitaires qui va dépendre de la forme de la courbe de demande de spots publicitaires : une demande très élastique (très sensible aux prix, donc plutôt « horizontale ») se traduira par une faible augmentation des prix alors qu’une demande très inélastique (très peu sensible aux prix, dont plutôt « verticale ») se traduira par une forte augmentation des prix.

3/ en l’absence de taxe sur les spots publicitaires, l’augmentation du prix de l’espace publicitaires sur les chaînes privées se traduira par une augmentation de leurs recettes publicitaires globales. Graphiquement, ce supplément de recettes publicitaires est représenté par le rectangle colorié en vert : plus l’élasticité de la demande de spots publicitaires est faible, plus ce supplément de recettes sera important.

III/ Quel sera l’impact de la création d’une taxe sur les spots publicitaires ?

Que se passe-t-il maintenant si l’Etat décide de créer une taxe sur les spots publicitaires diffusés sur les chaînes privées, afin de compenser le manque à gagner des chaînes publiques, soit 830 millions d’euros par an ?

La première question qui se pose est de savoir qui va réellement payer cette taxe : Les annonceurs ou les régies publicitaires ? Le second principe de l’incidence fiscale, énoncé par Petitsuix dans ce post et appliqué au cas des cotisations sociales par votre serviteur stipule qu’en général, la taxe sera payée par le côté le moins « élastique » du marché, autrement dit par les agents économiques qui n’ont pas la faculté de « refourguer » la taxe à d’autres. Dans le cas des spots publicitaires, l’application de ce principe signifie que ce sont les régies publicitaires qui vont payer l’intégralité de la taxe, puisque l’offre d’espaces publicitaires est totalement inélastique. Pour s’en convaincre, imaginons que les régies publicitaires des chaînes de télévisions privées décident de répercuter l’intégralité de la taxe sur le prix des spots qu’elles proposent aux annonceurs : dans cette situation, la demande d’espaces publicitaires sera inférieure à l’offre, si bien que toutes les chaînes de télévision auront intérêt à réduire leurs prix pour attirer les annonceurs, jusqu’à ce que la demande soit de nouveau égale à l’offre (elle-même inchangée), c'est-à-dire jusqu’au moment où le prix taxe comprise sera égal au prix qui prévalait avant la création de cette taxe. Les régies publicitaires des chaînes privées paieront donc l’intégralité de la taxe. La structure oligopolistique du marché des espaces publicitaires et la position dominante de TF1 n’y changeront rien : en présence d’une offre totalement rigide, le prix incluant la taxe ne pourra pas excéder le prix de l’équilibre sans taxe.

La seconde question posée par la création de cette taxe est celle de son montant. Quel est le taux que devra fixer l’Etat pour permettre de compenser les pertes de recettes publicitaires des chaînes publiques, soit 830 millions d’euros ? La réponse à cette question dépend du prix du spot publicitaire qui prévaudra lorsque la publicité aura disparu des chaînes publiques, ce prix étant lui-même fonction de l’élasticité de la demande de spots publicitaires. Le graphique suivant indique que le taux de cette taxe, mesuré par l’écart entre le prix P1 (taxe comprise) et le prix P2 (hors taxe), devra être fixé de manière à ce que les revenus engendrés par la taxe (le rectangle colorié en bleu) compensent le manque à gagner des chaînes publiques (le rectangle colorié en rouge) :


Le taux t de la taxe qu’il faudra appliquer aux spots publicitaires diffusés par les chaînes privées peut même être précisément calculé. Il s’écrit : t=0,25*(1/(1 + (0,2/ε))) où ε désigne l’élasticité-prix de la demande de spots publicitaires (1). Si la demande de spots publicitaires est très sensible aux prix (élasticité infinie), alors il faudra appliquer une taxe de 25% ; si la demande est très peu sensible aux prix (élasticité nulle), alors on pourra se contenter d’une taxe très faible. En fonction de la valeur de l’élasticité-prix de la demande d’espaces publicitaires, le taux de taxe qu’il faudra appliquer sera compris entre 0 et 25%.

Le graphique précédent permet de constater que la création d’une taxe sur les spots publicitaires aura pour effet de « rogner » sur le supplément de recettes publicitaires engrangées par les chaînes privées à la suite de la suppression de la publicité sur les chaînes publiques. Dans le cas particulier illustré sur ce graphique, les recettes publicitaires des chaînes privées auront quand même augmenté au total (le supplément net de recettes étant mesuré par le rectangle colorié en vert), parce que la demande est assez peu élastique.

Mais on pourrait tout aussi bien se retrouver dans une situation telle que les recettes publicitaires des chaînes privées diminueront si une taxe est mise en place pour compenser le manque à gagner des chaînes publiques. Ce sera le cas si la demande de spots publicitaires est suffisamment élastique (sensible au prix). Le graphique suivant permet en effet de constater que dans cette situation, les recettes publicitaires globales des chaînes privées seront plus faibles qu’avant :


Sur ce graphique, la partie hachurée du rectangle bleu indique la perte de recettes publicitaires des chaînes privées engendrée par la création d’une taxe sur les spots de pub.

La fin de la pub sur le service public n’est donc pas forcément une bonne affaire pour TF1 et M6. Pour qu’elle le soit, il faudrait que la demande ne soit pas trop élastique. On peut même calculer grossièrement le seuil d’élasticité-prix de la demande d’espaces publicitaires au-delà duquel la création d’une taxe sur les spots de pub serait une mauvaise affaire pour les chaînes privées. Ce seuil correspond à la situation où le prix hors taxe du spot (noté P2) est égal au prix qui prévalait avant la suppression de la publicité sur les chaînes publiques (noté P0) : si P2 est supérieur à P0, alors les chaînes privées seront gagnantes ; si P2 est inférieur à P0, elles seront gagnantes. Un calcul rapide montre que l’élasticité-prix de la demande de spots publicitaires au-delà de laquelle les chaînes privées subiront des pertes est égal à 0,8 (2). Ce niveau d’élasticité correspond à une demande très sensible aux prix: il signifie que si le prix du spot de pub augmente de 10%, la demande de spots diminue de 8%. L’élasticité réelle de la demande de spots publicitaires se situe sans doute en dessous d’un tel niveau. On peut donc en conclure que la création d’une taxe sur les spots publicitaires ne devrait pas empêcher TF1 et M6 de bénéficier de la suppression de la publicité sur les chaînes publiques.

C’est d’autant plus probable que d’après les déclarations du Président, une partie de la perte de recettes publicitaires de France Télévisions pourrait être compensée par la création d’une taxe « infinitésimale » prélevée sur le chiffre d’affaires des opérateurs Internet et de téléphonie mobile. Si tel était le cas, le prélèvement opéré sur les recettes publicitaires des chaînes privées serait encore plus faible, ce qui minimiserait considérablement l’impact négatif de la taxe pour TF1 et M6.

Dans ces conditions, on comprend que les actions des deux principales chaînes privées de télévision aient flambé juste après l’annonce faite par le Président Sarkozix : le 8 janvier, l’action TF1 augmentait de 10% :


Le même jour, l’action M6 grimpait de 6% :


L’euphorie n’aura cependant été que de courte durée : les cours des deux actions sont redescendus à des niveaux proches de leurs niveaux antérieurs dès le lendemain. Il faut sans doute voir là une certaine forme de prudence face au flou qui entoure encore les projets du gouvernement en matière de réforme du financement de l’audiovisuel public. Une autre raison susceptible d’expliquer cette correction des cours boursiers est que les actionnaires de TF1 et M6 ont pu anticiper une privatisation prochaine d’une partie des chaînes publiques, rendue nécessaires par l’insuffisance des ressources dégagées par une taxe sur les spots publicitaires, ce qui annulerait le bénéfice tiré de la réduction du nombre total de spots diffusés et donnerait naissance à des concurrentes autrement plus dangereuses que les actuelles France 2, France 3 et France 5.

Il reste que ces soubresauts financiers montrent que le temps de cerveau disponible a encore de beaux jours devant lui…


NOTES :

(1) Détails du calcul :
A la date t=0, les chaînes publiques et privées ont le droit de diffuser des spots publicitaires. A la date t=1, la publicité est supprimée sur les chaînes publiques et les pertes de recettes compensées par la création d’une taxe (dont le taux est noté t) sur les spots diffusés par les chaînes privées.
Soit P0 et Q0 respectivement le prix du spot publicitaire et le nombre de spots vendus en t=1. Soit P1 et Q1 respectivement le prix taxe comprise du spot publicitaire et Q1 le nombre de spots vendus en t=1.
Le taux de taxe t doit être fixé de manière à ce que les revenus de la taxe (égaux à t*P1*Q1) couvrent les pertes de recettes publicitaires de France Télévisions (pertes égales à 0,2*P0*Q0). Or, par définition, le nombre Q1 de spots publicitaires qui seront vendus lorsque la publicité aura disparu des chaînes publiques est égal à :
Q1 = (1-0,2)Q0 = 0,8*Q0
Le taux de taxe t que devra fixer le gouvernement sera donc égal à :
t =0,25*P0/P1 (i)
On note ε l’élasticité-prix de la demande de spots publicitaires correspondant à cette augmentation de prix ? Cette élasticité est par définition égale à :
ε =(∆Q/Q)/ (∆P/P), où ∆Q/Q désigne la variation proportionnelle du nombre de spots vendus entre la période 0 et la période 1 et ∆P/P la variation de prix correspondante. On peut donc écrire :
∆P/P = (P1-P0)/P0 = (1/ε)*(∆Q/Q)
Cette équation peut se réécrire :
P0/P1 = 1/(1+ (0,2/ε))
En remplaçant cette expression dans l’équation (i), on trouve que le taux de taxe t s’écrit :
t = 0,25*(1/(1 + (0,2)/ε))

(2) Détails du calcul :
En t=1, le prix hors taxe du spot publicitaire en deçà duquel les recettes publicitaires des chaînes privées seront inférieures aux recettes publicitaires de la période 0 est tel que P1*(1-t)=P0 (ii).
Le taux de taxe t doit lui-même être fixé de manière à ce que les revenus de la taxe (égaux à t*P1*Q1) couvrent les pertes de recettes publicitaires de France Télévisions (pertes égales à 0,2*P0*Q0). Or, par définition, le nombre Q1 de spots publicitaires qui seront vendus lorsque la publicité aura disparu des chaînes publiques est égal à :
Q1 = (1-0,2)Q0 = 0,8*Q0
Le taux de taxe t que devra fixer le gouvernement sera donc égal à :
t= 0,25*P0/P1
En remplaçant le taux de taxe t par cette valeur dans l’équation (ii), on trouve que pour que les chaînes privées soient « gagnantes », il faudrait que le prix du spot de publicité (taxe incluse) soit supérieur de 25% au prix de la période 0 :
∆P/P = (P1-P0)/P0 = 0,25
On note ε l’élasticité-prix de la demande de spots publicitaires correspondant à cette augmentation de prix ? Cette élasticité est par définition égale à :
ε = (∆Q/Q)/(∆P/P)
où ∆Q/Q désigne la variation proportionnelle du nombre de spots vendus entre la période 0 et la période 1 et ∆P/P la variation de prix correspondante. Une augmentation de 25% du prix du spot de pub pour une réduction de 20% des quantité vendues correspond donc à une élasticité-prix de la demande de spots publicitaires ε égale à :
ε = (0,2 / 0,25) = 0,8
_Julien_

Lire la suite...

mercredi 9 janvier 2008

Evaluation des politiques publiques (7/7) : chez les Goths


Regarder de près la situation qui prévaut chez les Goths en matière d’évaluation des politiques publiques est instructif pour mesurer à la fois les limites de l’organisation gauloise que nous prenons trop souvent pour une évidence gravée dans un menhir par Toutatis. On a vu comment les réformes Hartz avaient été d'emblée évaluées (avec un succès très relatif tant en termes de méthode que du point de vue des résultats); ce post a pour objectif de montrer comment les prévisions macroéconomiques et de finances publiques (déficit, dette) sont réalisées en Allemagne.

L’idée est que, si les économistes allemands se trompent sans doute autant que leurs cousins d'outre-Rhin, la Germanie est mieux outillée que la Gaule pour organiser de manière transparente la production de prévisions crédibles afin qu'un débat plus serein sur la politique budgétaire du gouvernement puisse avoir lieu. Cette meilleure organisation est pour partie liée à des caractéristiques institutionnelles (rôle accru en droit – constitution – et en fait – moyens humains – du parlement, fédéralisme) qu’il est sans doute difficile d’importer chez nous, mais pour partie aussi liée à une répartition différente des tâches, qui pourrait, elle, faire l’objet d’une adaptation avantageuse dans l’Hexagone.

La préparation du budget chez les Goths

La définition du cadre macroéconomique (quelle croissance du PIB l’année prochaine ?) dans lequel s’inscrit la préparation du budget est caractérisée en Allemagne, à la différence de la France, par le fait que le gouvernement n’y joue qu’un rôle secondaire. Alors qu’en France les hypothèses de croissance et de recettes fiscales sur lesquelles reposent le budget sont fabriquées en interne par le ministère des Finances, en Allemagne, le ministère des Finances se voit en quelque sorte imposer les paramètres de l’extérieur, ce qui rend les hypothèses plus crédibles et permet au débat de se concentrer sur les vraies questions.

En pratique, un gouvernement qui peut cuisiner lui-même ses hypothèses de croissance et de recettes fiscales va avoir tendance à être trop optimiste ou trop pessimiste selon ses objectifs. S’il veut expliquer à ses citoyens qu’on peut dépenser sans compter, il aura tendance à surestimer la croissance à venir, s’il veut au contraire leur faire comprendre qu’il faut se serrer la ceinture, il aura tendance à la sous-estimer (dans la réalité, ce second biais est beaucoup plus rare…). Après coup, le gouvernement se retrouve souvent devant une dérive de la dépense qu’il ne peut couvrir avec des recettes qui sont finalement plus limitées que prévu. Il a donc à faire face à un déficit plus important que prévu ; à une augmentation possible de sa dette, et aux foudres de ses partenaires européens qui lui reprochent de ne pas tenir ses engagements.

La chronologie de la préparation d’un budget est en gros la suivante. Nous sommes en juin 2000 : la préparation du budget pour l’année 2001 se déroule dans la plupart des pays de l’Union européenne à partir de juillet et le budget est voté par le Parlement avant la fin de l’année 2000. Or en juillet 2000, on connaît uniquement ce qu’à été la croissance au premier trimestre 2000 : on doit donc avoir une vision à un horizon distant de 7 trimestres, dont 6 qui n’ont pas encore eu lieu, pour savoir ce qu’on peut prévoir de dépenser en 2001. Il est clair que cet exercice est difficile et que les prévisions qui sont faites se révèlent souvent fausses, ex-post. La question est de savoir si elles sont fausses car activement biaisées, ou fausses juste en raison d’erreurs de prévisions « neutres ».

Le système allemand semble mieux garantir cette neutralité que le système français. Au printemps, les principaux instituts de conjoncture économique (ils étaient jusque tout récemment 6, ils sont désormais 5) réalisent une prévision de croissance consensuelle qu’ils rendent publique (dans certains cas, s’il est difficile d’atteindre un consensus, des éventuelles « opinions divergentes » peuvent être contenues dans le rapport). Le gouvernement annonce dans les jours qui suivent sa propre prévision de croissance. Bien entendu, il est libre d’annoncer ce qu’il veut, mais il ne peut ignorer la prévision des instituts et doit s’expliquer s’il s’en éloigne. En pratique, l’organisation d’une prévision indépendante consensuelle et officielle renchérit sensiblement le coût politique et en termes de crédibilité d’une prévision divergente voir « trafiquée » qui serait par exemple ½ point au-dessus du consensus.

Quelques semaines plus tard, le « Groupe de travail des estimations fiscales » se rassemble, et produit, sur la base de l’hypothèse de croissance annoncée par le gouvernement et des données les plus récentes concernant les recettes fiscales, une prévision de l’ensemble des recettes fiscales pour l’année suivante. De la même manière, le ministère des Finances doit s’appuyer sur cette prévision pour préparer son projet de loi de finances : non que cela soit prévu dans la loi, mais là encore, le coût politique d’une déviation est important et doit être mesuré : il est ardu de justifier que sur la base des mêmes données et des mêmes hypothèses économiques, les services du ministère des Finances prévoient plusieurs milliards d’euros de recettes supplémentaires.

Les Instituts de conjoncture chez les Goths

Qui sont ces Instituts et ce « Groupe de travail » qui donnent finalement le « la » de la discussion budgétaire en Allemagne ?

Les Instituts de conjoncture sont des instituts de recherche économique et de conjoncture indépendants (même s’ils dépendent lourdement de fonds publics), qui rassemblent en pratique les tâches qui sont en France pour l’essentiel réalisées par les différentes divisions de l’Insee qui sont chargées de réaliser des études, et par l’(ex-)Direction de la Prévision (voir le post sur l’évaluation en France). Ces instituts qui sont répartis sur tout le territoire allemand (Ifo à Munich, DIW à Berlin par exemple) sont en concurrence entre eux, et pas avec l’Office fédéral de la statistique qui se contente de produire des données statistiques et de les mettre à disposition (un monopole d'exploitation des données fausserait la concurrence).

Les instituts sont régulièrement évalués par leurs pairs en fonction de leurs performances académiques et de leur capacité à alimentater le débat public. En cas de mauvais résultats, ils peuvent être exclus de la « guilde » des « principaux instituts » et donc ne plus avoir la possibilité de réaliser la « prévision consensuelle » (qui, au passage, est grassement rémunérée). Cette menace n’est pas que théorique puisque c’est ce qui est arrivé l’année dernière à l’institut HWWA de Hambourg devenu depuis HWWI, et plus récemment au DIW de Berlin (je reviendrai sur cette affaire instructive dans un post prochain).

Le « Groupe de travail des estimations fiscales » rassemble quant à lui les experts en finances publiques de ces mêmes instituts et ceux du gouvernement (au niveau fédéral et régional). Le « Groupe de travail » est donc moins indépendant mais reste une enceinte où les experts extérieurs au gouvernement prennent une part active, ce qui n’est pas le cas en France où il est difficile à un expert indépendant de contester de manière informée les projections de recettes fiscales du gouvernement...

Moralité...

Au total, il est quand même bien difficile de mettre en évidence une qualité supérieure de la procédure budgétaire en Allemagne par rapport à la France, au sens où les mauvaises ou bonnes surprises sur les recettes seraient moins fréquentes outre-Rhin.

Il est cependant intéressant de noter que la confiance du public dans les chiffres qui sont données par le gouvernement semble plus importante. La méfiance endémique qui règne en France sur les chiffrages qui précèdent le budget n’existe pas en Allemagne, puisque ceux-ci sont fabriqués en dehors du gouvernement. Cela permet à la discussion de se concentrer sur les sujets fondamentaux : répartition des dépenses entre les différents ministères, efficacité des nouvelles dépenses proposées, etc.

_Fabien_

Lire la suite...

jeudi 3 janvier 2008

Faut-il donner un supplément d'âme aux "business schools" ?


Pour commencer la nouvelle année, nous vous invitons à traverser l’Atlantique pour découvrir le monde si étranger aux gaulois des « business schools » américaines. Nous allons en effet discuter d’un livre paru récemment intitulé : From higher aims to hired hands : The social transformation of American business schools and the unfulfilled promise of management as a profession écrit par un sociologue de la Harvard Business School, Rakesh Khurana. Il s’agit d’une petite histoire de la « business school » depuis sa naissance à la fin du 19ème siècle jusqu’aujourd’hui. L’angle d’attaque du livre est de prendre à la lettre l’objectif initial de ces écoles qui était de faire des « managers » une profession au même titre que les médecins et les avocats, et de voir comment cet objectif a pu être réalisé ou dévoyé depuis lors. Cette question pourrait faire l’objet de plusieurs posts tant la question plus générale de la possibilité d’un « savoir » en gestion a été maintes fois posée par des livres retentissants et quelques contributions de la blogosphère. Du point de vue français, ce livre a aussi l’avantage de détailler l’organisation d’une filière éducative ayant une philosophie opposée en tous points à notre modèle universitaire, et qui a formé le plus étrange des présidents américains.

Qu'est-ce qu'une "business school" ?

Avant toute chose, comment pourrait-on traduire en français une institution aussi américaine ? Le plus simple serait d’en faire l'équivalent de nos écoles de commerce. Une telle identité est d’ailleurs aujourd’hui revendiquée par la plupart de ces dernières, pour des raisons de visibilité internationale. Or il existe de très fortes divergences qui ne sont pas encore résorbées : d’une part, le produit phare des « business schools », le Master of Business Administration (MBA), est décerné en général à des étudiants ayant déjà eu auparavant une expérience professionnelle et dont l’âge se situe le plus souvent entre 25 et 30 ans, alors que le produit phare des écoles de commerce françaises, le diplôme de Grande Ecole, est décerné à des étudiants moins expérimentés et plus jeunes ; d’autre part, les « business schools » sont adossées dans l’esprit et dans la lettre à l’Université tandis que les écoles de commerce françaises se gardent bien de revendiquer de tels liens et rechignent souvent à mener des activités de recherche dignes de ce nom. L’exception à cette règle est certainement l’INSEAD, mais cette institution se garde bien de se revendiquer comme une grande école, et peut être considérée comme une insitution « off-shore » de l’enseignement supérieur français, avec un recrutement international dès la création en 1957 et une absence de financement public.

Qu'est-ce qu'un manager "professionnel" ?

Rakesh Khurana montre dans le livre que l’invention des business schools est le fait de quelques dirigeants d’université et de grandes entreprises émergentes de la fin du 19ème siècle. Durant cette période, les grandes sociétés anonymes étaient vécues par le plus grand nombre comme une menace à la démocratie de petits propriétaires imaginée par les fondateurs des Etats-Unis. Les fondateurs des « business schools » étaient déterminés à améliorer l’image de ces sociétés en formant une nouvelle « profession », les managers, dont la vocation serait de gérer de manière impartiale et efficace ces entreprises dans le sens de l’intérêt général, à l’intersection entre le travail et le capital. Leur modèle était celui des « Medical Schools » et des « Law Schools » formant aux métiers de médecin et d’avocat, métiers qui remplissent les trois critères par excellence d’une « profession » : la maîtrise d’un savoir spécifique soutenu par une recherche active, l’adhésion à un code de conduite formel ou informel, et un idéal de service.

Ce qui est étonnant, c’est que cette distinction traditionnelle à l’intérieur de l’Université a été à notre connaissance peu analysée par la science économique. Elle peut pourtant mener à des débats bruyants, comme l’a montré récemment la polémique sur la possibilité pour Sciences-Po de préparer à l’examen du Barreau. Pour l’auteur, ces écoles professionnelles contribuent à résoudre les problèmes d’asymétries d’information qui sont particulièrement importants dans les métiers en question, et ce à la fois en inculquant une éthique d’honnêteté et en instaurant une instance de contrôle par les pairs. Or de tels mécanismes ne sont efficaces que s’ils apparaissent suffisamment crédibles. Le passage obligé par une école professionnelle distincte apparait alors indispensable.

Or autant les trois critères semblent globalement respectés dans le cas du droit et de la médecine, autant cela s'est révélé plus compliqué dans le cas du « management » . Et ce que l’auteur s’attache justement à décrire, c’est la façon dont progressivement les « business schools » se sont éloignées de cet idéal professionnel pour devenir de simples pourvoyeurs de diplômes et de réseaux.

La tortueuse quête d'un savoir universitaire en gestion

Dans un premier temps, c’est le contenu de la formation qui a le plus posé problème ; il était toujours tentant de proposer d’une part des cours décrivant le fonctionnement de métiers bien définis dans telle ou telle industrie par tel ou tel praticien reconnu et d’autre part des cours proposés par les départements voisins, notamment en Economie ou en Psychologie. Ceci constituait néanmoins une entrave au développement de la filière telle qu’envisagée par ses fondateurs, pour trois raisons. D’une part, de tels contenus subissaient alors fortement la concurrence de petites écoles à but lucratif qui pullulèrent à mesure que les métiers d’encadrement devenaient de plus en plus techniques, et ceci avait tendance à diminuer le niveau d’exigence à la fois pour les élèves et les professeurs recrutés : le seul avantage comparatif des "business schools" était alors d'attirer les fils de bonne famille grâce au prestige associé à l'Université. D’autre part, une telle manière de procéder avait pour conséquence de mener à une hétérogénéité extrême des contenus d’une « business school » à l’autre, ce qui achevait de rendre la filière peu crédible. Enfin, ce fonctionnement entrait en contradiction avec le but initial qui était de former à un nouveau type de métier, celui de « general manager », qui consisterait à régler des problèmes de gestion qui se posent dans des secteurs très divers.

Une première innovation lancée par la Harvard Business School fut l’introduction dans les années 1920 de la méthode des cas (déjà auparavant utilisée en Droit), qui consiste à décrire en détail le contexte d’une entreprise fictive ou non ainsi que les problèmes auxquelles elle fait face pour ensuite faire suggérer par les élèves des solutions possibles. Cette méthode est encore très largement utilisée, tout du moins dans les premières séquences d’enseignement, et ce y compris dans les écoles de commerce françaises comme pourra en témoigner n’importe quel ancien élève (Ah ! Gravelin quand tu nous tiens…). Néanmoins, ce système avait l’inconvénient de ne pas être suffisamment systématique et de réduire la recherche en gestion à la simple constitution de cas ; en particulier, l’écriture de quelques cas était l’unique pré-requis pour obtenir un doctorat en gestion.

Une seconde réaction fut d’institutionnaliser la coopération entre « business schools » via la création de l’AACSB au début du XXème siècle. Mais dans un contexte de croissance très forte de la demande pour ces formations (visible dans le graphique ci-dessous), l’association se réduisit vite à un organisme d’accréditation aux critères d’admission très souples et très réticent à fournir une grille de distinction des « business schools ».


C’est finalement l’intervention d’une fondation privée, la Ford Foundation, qui a imposé de l’extérieur une normalisation du fonctionnement des « business schools », au tournant des années 1950. Ceci est suffisamment étrange du point de vue gaulois pour que l’on s’y intéresse un peu.

Rappelons d’abord qu’aux Etats-Unis, la structure des dons aux universités était particulièrement concentrée au début du XXème siècle, à une époque où le financement public était plus faible qu’aujourd’hui. Pour s’en faire une idée, il suffit de rappeler que les fondations Carnegie et Rockefeller représentaient les deux tiers de l’ensemble des dons aux universités américaines entre 1900 et 1935. Mais une très large majorité de ces dons s’était concentrée sur les sciences dures et la médecine. La fondation Ford, quant à elle, fut créée en 1935 par Henry Ford mais ne commença son activité qu’au début des années 1950 à la suite des décès successifs de Henry Ford et de son fils. Elle se fixa alors comme objectif de dépenser 500 millions de dollars de l’époque (environ 2,5 milliards de dollars de 2005) pour « améliorer le bien-être humain », avec 5 thèmes d’action : l’établissement de la paix dans le monde, le renforcement de la démocratie, le soutien à l’économie, l’éducation et l’amélioration des relations humaines (manquaient pas d'ambition ces Ford !). Concernant le soutien aux universités, cette Fondation cherchait un moyen de se distinguer des grosses fondations concurrentes et l’a trouvé en se focalisant sur le soutien aux sciences sociales (Economie, Sociologie, Psychologie), ce qui constitue comme un pied-de-nez à ceux qui pensent en France que ces matières sont incapables d’attirer des fonds privés. Pour enfoncer le clou, rappelons que c’est la Fondation Ford qui a financé la construction de la Maison des Sciences de l’Homme de l’EHESS ainsi que la création du Centre de Sociologie Européenne (dirigé par Raymond Aron, puis Pierre Bourdieu…).

Mais revenons au sujet des « business schools » : la fondation Ford décida de dépenser 35 millions de dollars spécifiquement pour réformer le système des « business schools » dans un sens très précis : encourager l’établissement d’une science du management fondée sur les acquis de l’Economie, de la Psychologie et des Mathématiques. Pour y parvenir, la Fondation mit d’une part l’essentiel de son argent sur deux « business schools » destinées à devenir les leaders de la réforme, Harvard et Carnegie-Mellon, et d’autre part organisa la diffusion de ces meilleures pratiques en commandant un rapport très largement diffusé sur le sujet, en organisant des séminaires de formation des professeurs en place ainsi qu’en proposant des fonds aux « business schools » qui adopteraient ces nouvelles pratiques.

En quoi consistaient exactement ces nouvelles pratiques ? Il s’agissait de réformer de fond en comble le mode de formation et de recrutement des enseignants : alors qu’auparavant ces derniers n’étaient pas toujours docteurs et encore moins enclins à mener une recherche active, il était désormais impératif de recruter en priorité dans le vivier des Docteurs en Economie, en Sociologie, en Psychologie ou en Mathématiques et d’inciter fortement à publier dans les revues de ces matières. La stratégie de la Fondation fut un véritable succès et à la fin des années 1960, lorsque la Fondation mit fin à ce programme de don, le contenu des formations était devenu beaucoup plus homogène, orienté autour des sciences sociales et des disciplines quantitatives et recrutant par la même occasion des élèves de meilleure qualité via les tests mis en place à l’époque, tels que le GMAT. Ce système d’enseignement est d’ailleurs encore en place aujourd’hui.

La lente disparition du manager efficace et bienveillant

Ce que montre ensuite Khurana, c’est que cette maturation de l’enseignement de la gestion est allée de pair avec un éloignement de l’idéal d’une « profession » de manager. Dans un premier temps, la scientisation de la gestion fut considérée comme garante de managers honnêtes et inspirés par un idéal de service : la Seconde Guerre Mondiale avait montré comment les grandes entreprises pouvaient servir l’intérêt général ainsi que l’étendue des ressources que l’on pouvait tirer d’une gestion plus rationnelle. La réforme de l’enseignement menée par la fondation Ford n’avait dans ce contexte pas cru bon d'insister sur l’inculcation de règles de bon comportement.

Toutefois, à partir des années 1970 et avec les contre-performances de l’économie américaine, les « managers » allaient lentement perdre leur aura, et les bénéfices tirés d’une « science » du management allaient être de plus en plus contestés. Deux fronts se sont alors constitués contre l’idéal d’un manager professionnel aux compétences alimentées par une recherche « scientifique ».

Dans le grand public, les méthodes d’enseignement des « business schools » furent de plus en plus critiquées au nom du « bon sens » par la presse, mais aussi par des hommes politiques. Par ailleurs, les anciens élèves firent de plus en plus état de leurs doutes quant à l’utilité de techniques comme la programmation linéaire ou la théorie des jeux pour prendre des décisions. C’est notamment dans les années 1980 qu’ont été publiés dans la presse les premiers classements des MBA américains fondés sur des enquêtes indépendantes auprès des étudiants, des recruteurs et des doyens de business schools. Ces classements ont été très vite adoptés par les élèves, qui payaient déjà des frais d’inscription très élevés, puis par les « business schools » elles-mêmes. Ce qui s’est trouvé valorisé alors plus que tout, c’est la capacité à placer les élèves dans les meilleures positions sur le marché du travail : les bureaux de recrutement ont été fortement développés ainsi que les institutions d’anciens élèves.

Cette logique de marché n’est pas mauvaise en soi, mais selon Khurana, elle sape l’idéal professionnel du « manager » en faisant des étudiants non plus le réceptacle de connaissances et de valeurs à respecter mais de simples clients qui valorisent dans la « business school » uniquement son diplôme et son réseau d’anciens élèves plutôt que ce que l’on y apprend. L’auteur fait ainsi état d’une relation aujourd’hui dégradée entre des élèves qui méprisent la formation et la veulent la plus simple possible et les enseignants qui dispensent cette formation, avec une pression très forte pour donner des notes aussi peu discriminantes que possibles et pour interdire de transmettre ces notes aux recruteurs.

Sur le front académique, l’idéal du manager bienveillant a été largement écorné par les nouvelles théories de l’agence, popularisées par Michael Jensen et William Meckling dés 1976 : d'après ces théories, le manager n’est plus cette personne impartiale qui recherche à atteindre la plus grande efficacité pour l’entreprise mais un « agent » qui n’est que mal contrôlé par un « principal », l’actionnaire, et qui cherche à maximiser son bien-être personnel via des acquisitions justifiées seulement par l’appétit de pouvoir, plutôt que par le souci d'augmenter la valeur de l’entreprise. La popularisation de cette littérature a eu deux conséquences : à court-terme, les OPA hostiles menées dans les années 1980 sur de gros conglomérats ont pu être présentées par leurs promoteurs comme contribuant à l’intérêt général ; à long terme, les cours donnés dans les MBA se sont trouvés de plus en plus influencés par cette littérature, ce qui a contribué à légitimer l’idée que les managers sont fondamentalement égoïstes et doivent simplement voir leurs incitations alignées avec l’intérêt le mieux défini, i.e. celui des actionnaires, via des systèmes de stock-options.

Cette nouvelle orientation des cours est devenue d’autant plus populaire que les diplômés de MBA se sont de plus en plus orientés vers des métiers dans lesquels cette vison du « manager » est la plus naturelle : ainsi entre 1965 et 1985, le nombre de diplômés de la HBS choisissant de travailler dans la finance et dans le conseil plutôt que comme cadres d’entreprise était déjà passé de 23 à 52%, et l’on peut penser qu’aujourd’hui ces carrières sont devenues encore plus attractives. Freiner contre une telle évolution, c’est risquer de perdre des élèves, surtout dans une période où des diplômes de finance plus spécialisés et moins chers, tels le CFA sont apparus, et alors que les cabinets de conseil et de finance organisent souvent eux-mêmes la formation .

Tout ça pour ça ?

In fine, la véritable question posée par le livre est de savoir s’il existe vraiment une nécessité de faire du « management » une profession au sens fort du terme. La manière dont ont répondu les écoles à cette question, c’est de mettre en exergue non plus le « manager » qui résout des problèmes, mais le « leader » qui fait avancer des idées nouvelles. L’idéal ne serait plus d’intercéder entre le travail et le capital, mais plutôt d’accompagner les parties prenantes à l’entreprise vers de nouvelles opportunités. Vous seriez aujourd’hui bien en peine de trouver un site de business school dans lequel les mots « leader » ou « leadership » n’apparaissent pas ! Mais tout cela est pourtant bien flou, et ce que montre Khurana c’est qu’il n’existe pratiquement pas d’études académiques du « leadership » hormis ces fabuleux livres de confessions de dirigeants à succès. Les « business schools » choisissent alors de présenter le peu de choses qu’ont à dire les sciences sociales sur le sujet (avec un retour à Max Weber et son concept de domination charismatique), ou de mettre en situation les élèves face à de vrais problèmes de restructuration d’entreprises (un peu comme la filière Entrepreneurs d’HEC), ou enfin d’axer la formation sur l’introspection (dans le style « quel leader êtes-vous ? »).

Les « business schools » sont donc dans le flou, et pourtant le problème de l’éthique des dirigeants est devenu une tarte à la crème du débat public avec l’affaire d’Enron dans laquelle, rappelons-le, les cadres impliqués sont passés par les meilleures écoles. Dans le même temps, la régulation étatique se fait de plus en plus à contre-temps dans un monde des hautes sphères qui a de plus grandes facilités qu’auparavant à échapper aux griffes des Etats. Pour répondre à cette nouvelle crise de légitimité, Khurana se fait l’avocat d’un retour à l’inspiration initiale des « business schools ». Cela ressemble malheureusement plus à de l’incantation qu’à autre chose : il est dommage après une démonstration aussi éclairante d’en revenir au point de départ.

Ce que l'on pourrait aussi reprocher à l'auteur c'est de se focaliser uniquement sur les "business schools" les plus élitistes qui forment par définition les futurs membres des plus grandes sociétés ou de celles qui brassent le plus d'argent. Or la nouvelle frontière des "business schools" c'est peut-être autant l'introduction des principes d'une gestion efficace dans les PME que l'inculcation de principes éthiques dans les esprits des futurs dirigeants d'entreprises du Dow Jones. Comme nous l'avions déjà évoqué dans un post précédent, il se trouve que les PME américaines semblent avoir des pratiques managériales plus efficaces que les PME européennes : cela n'est peut-être pas tout à fait étranger à l'importance du MBA dans l'éventail des formations américaines.
_Laurent_

Lire la suite...

mercredi 2 janvier 2008

Felix sit annus novus !


_Ecopublix_

Lire la suite...